Categories: KI

Ethische Standards für AI: Microsoft beschneidet Funktionen seiner Gesichtserkennung

Microsoft hat angekündigte, einige Funktionen aus seinen Artificial-Intelligence-Diensten zu entfernen. Damit will das Unternehmen sicherstellen, dass seine Technologien für Gesichtserkennung die eigenen ethischen Richtlinien für künstliche Intelligenz erfüllen. Neuen Nutzern stehen die fraglichen Funktionen ab dieser Woche nicht mehr zur Verfügung – vorhandene Nutzer verlieren den Zugriff innerhalb eines Jahrs.

Allerdings können Neukunden ab sofort den Zugang zu den Gesichtserkennungsfunktionen des Azure Face Application Programming Interface sowie von Computer Vision und Video Indexer beantragen. Vorhandene Kunden haben ein Jahr Zeit, einen Antrag zu stellen, damit sie nicht den Zugriff auf die Gesichtserkennungsfunktionen verlieren. Das Verfahren soll für eine zusätzliche Prüfung sorgen und die Gesichtserkennungsdienste an den Responsible AI Standard des Unternehmens anpassen. Ab 30. Juni 2023 sollen nur noch von Microsoft geprüfte Apps die Funktionen zur Gesichtserkennung nutzen können.

Einige Aspekte der Gesichtserkennung sind von der neuen Regulierung ausgenommen. Dazu gehören die Funktionen zur Erkennung von Unschärfe, Belichtung, Brillen, Kopfhaltung, Rauschen und Sehenswürdigkeiten.

Ausnahmen für Menschen mit Behinderungen

Nicht mehr verfügbar sind indes die Funktionen, die die Stimmung einer Person oder Eigenschaften wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung und Makeup erkennen können. Microsoft stellt deren Nutzung aufgrund von Datenschutzbedenken infrage. Auch sei ein Missbrauch dieser Funktionen möglich, um beispielsweise Nutzer zu diskriminieren. Neukunden stehen sie demnach ab sofort nicht mehr zur Verfügung. Für vorhandene Kunden gilt die Regelung ab 30. Juni 2023. Ausnahmen gibt es nur für die Integration in Dienste, die auf Menschen mit Behinderungen ausgerichtet sind wie die Seeing-AI-App des Unternehmens.

Zudem verweist Microsoft auf Werkzeuge und Ressourcen wie Open-Source-Paket Fairlearn sowie das hauseigene Fairness Dashboard, um mehr über den fairen Umgang mit den Azure Cognitive Services zu erfahren. Eine neue Programmierschnittstelle namens Recognition Quality soll zudem mögliche Probleme bei der Nutzung von AI zur Verbesserung der Qualität von Fotos erkennen, die bestimmte demografische Gruppen mehr betreffen als andere.

Lesen Sie auch : KI spaltet Belegschaft
Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Neue, aggressive Wellen an DDoS-Attacken

DDoS-Angriffe haben seit dem Beginn des Krieges zwischen Russland und der Ukraine an Häufigkeit und…

1 Tag ago

Excel als Rückgrat deutscher Lieferkettenplanung

Lieferkettenplanung in Deutschland auf Basis von Excel bei 37 Prozent der befragten Unternehmen im Einsatz.

3 Tagen ago

Siemens automatisiert Analyse von OT-Schwachstellen

Bedienpersonal von Fertigungsanalagen soll mögliche Risiken auch ohne Cybersecurity-Fachwissen erkennen und minimieren können.

4 Tagen ago

Cyberabwehr mit KI und passivem Netzwerk-Monitoring

Schiffl IT: Anomalien im Netzwerkverkehr und in den Systemen in Echtzeit identifizieren.

6 Tagen ago

Zero Trust bei Kranich Solar

Absicherung der IT-Infrastruktur erfolgt über die Zero Trust Exchange-Plattform von Zscaler.

6 Tagen ago

KI in der Medizin: Mit Ursache und Wirkung rechnen

Maschinen können mit neuen Verfahren lernen, nicht nur Vorhersagen zu treffen, sondern auch mit kausalen…

1 Woche ago