Microsoft verbietet nach und nach die öffentliche Nutzung einiger Gesichtsanalysetools mit künstlicher Intelligenz, darunter eines, das angeblich in der Lage ist, die Emotionen von Probanden anhand von Videos und Bildern zu identifizieren.
Dieses Tool zur „Emotionserkennung“ wurde von Experten kritisiert. Sie sagen, es sei weit verbreitet, dass der Gesichtsausdruck verschiedener Menschen unterschiedlich sei und dass es unwissenschaftlich sei, äußere Gefühlsausdrücke mit inneren Gefühlen gleichzusetzen. Denn eine Maschine kann einen finsteren Blick erkennen, aber das ist nicht dasselbe wie Wut zu erkennen.
Diese Entscheidung ist Teil einer umfassenden Reform der Ethikrichtlinie für künstliche Intelligenz von Microsoft. Die aktualisierten Standards des Unternehmens für verantwortungsvolle KI, die erstmals 2019 vorgeschlagen wurden, betonen die Verantwortung, herauszufinden, wer seine Dienste nutzt, und erhöhen die menschliche Aufsicht darüber, wo diese Tools verwendet werden.
In der Praxis bedeutet dies, dass Microsoft den Zugriff auf einige Funktionen seines Gesichtserkennungsdienstes (genannt Azure Face) einschränken und andere vollständig entfernen wird. Benutzer müssen die Verwendung von Azure Face für die Gesichtserkennung beantragen, indem sie beispielsweise Microsoft mitteilen, wie und wo sie ihr System bereitstellen werden. Einige weniger schädliche Anwendungsfälle, wie die automatische Unkenntlichmachung von Gesichtern in Bildern und Videos, bleiben weiterhin offen zugänglich.
Microsoft hat nicht nur den öffentlichen Zugriff auf seine Tools zur Emotionserkennung entfernt, sondern auch die Fähigkeit von Azure Face entfernt, „Attribute wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up“ zu identifizieren.
Natasha Crampton, Chef-KI-Leiterin bei Microsoft, schrieb in einem Blogbeitrag, in dem sie die Neuigkeiten ankündigte: „Experten innerhalb und außerhalb des Unternehmens haben den Mangel an wissenschaftlicher Definition von ‚Emotion‘ hervorgehoben. Konsens, Herausforderungen bei der Extrapolation über Anwendungsfälle, Regionen hinweg, und Demografie sowie erhöhte Datenschutzbedenken im Zusammenhang mit solchen Funktionen.“
Ab dem 21. Juni stellt Microsoft diese Funktionen neuen Benutzern nicht mehr zur Verfügung. Die Zugriffsrechte für bestehende Benutzer werden am 30. Juni 2023 widerrufen.
Einige der KI-Apps von Microsoft bieten weiterhin Emotionserkennung.
Während Microsoft diese Funktionen der Öffentlichkeit nicht mehr zur Verfügung stellt, wird es sie weiterhin in mindestens einem seiner Produkte verwenden: einer App namens Seeing AI, die maschinelles Sehen nutzt, um „eine neue Fähigkeit, die Welt zu sehen“ bereitzustellen.
Sarah Bird, Produktmanagerin im Azure AI-Hauptteam von Microsoft, sagte, dass Tools wie die Emotionserkennung „wertvoll sind, wenn sie in barrierefreien Szenarien eingesetzt werden“. Es ist unklar, ob diese Tools in anderen Microsoft-Produkten verwendet werden.
Microsoft hat auch ähnliche Einschränkungen für seine Funktion „Benutzerdefinierte neuronale Stimme“ eingeführt, die es Kunden ermöglicht, Stimmen mit künstlicher Intelligenz auf der Grundlage von Aufnahmen realer Personen zu erstellen (manchmal auch Deepfake-Audio genannt).
Dieses Tool hat „ein aufregendes Potenzial für Bildung, Zugänglichkeit und Unterhaltung“, aber Bird bemerkte auch, dass „es auch leicht dazu verwendet werden kann, sich unangemessen als Sprecher auszugeben und Zuhörer zu täuschen.“ Microsoft gibt an, den Zugriff auf die Funktion künftig auf die „Verwaltung von Kunden und Partnern“ zu beschränken und „die aktive Beteiligung des ursprünglichen Sprechers bei der Erstellung synthetisierter Sprache sicherzustellen“.
Das obige ist der detaillierte Inhalt vonMicrosoft stellt einige umstrittene Gesichtserkennungsfunktionen ein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!