Ein europäisches Gesetz zur künstlichen Intelligenz steht kurz vor der Einführung, was Auswirkungen auf die globale Technologieregulierung haben könnte

WBOY
Freigeben: 2023-04-11 22:40:14
nach vorne
1238 Leute haben es durchsucht

Das Gesetz über künstliche Intelligenz zielt darauf ab, einen gemeinsamen regulatorischen und rechtlichen Rahmen für den Einsatz künstlicher Intelligenz zu schaffen, einschließlich der Art und Weise, wie sie entwickelt wird, wofür Unternehmen sie nutzen können und welche rechtlichen Konsequenzen sich aus der Nichteinhaltung der Anforderungen ergeben. Der Gesetzentwurf könnte Unternehmen dazu verpflichten, unter bestimmten Umständen eine Genehmigung einzuholen, bevor sie künstliche Intelligenz einführen, bestimmte als zu riskant erachtete Nutzungen künstlicher Intelligenz verbieten und eine öffentliche Liste anderer risikoreicher Nutzungen künstlicher Intelligenz erstellen.

Ein europäisches Gesetz zur künstlichen Intelligenz steht kurz vor der Einführung, was Auswirkungen auf die globale Technologieregulierung haben könnte

In einem offiziellen Bericht über das Gesetz erklärte die Europäische Kommission, dass das Gesetz auf breiter Ebene darauf abzielt, das vertrauenswürdige Paradigma der künstlichen Intelligenz in der EU zu kodifizieren. Dieses Paradigma „erfordert, dass KI rechtlich, ethisch und technologisch stark ist und gleichzeitig demokratische Werte, Menschenrechte und Rechtsstaatlichkeit respektiert“.

Der vorgeschlagene Regulierungsrahmen für künstliche Intelligenz hat folgende Ziele:

1 Gewährleistung, dass auf dem EU-Markt eingesetzte und genutzte Systeme der künstlichen Intelligenz sicher sind und bestehende gesetzliche Grundrechte und EU-Werte respektieren;

2 Förderung von Investitionen und Innovationen im Bereich künstlicher Intelligenz;

3. Stärkung der Governance und wirksamen Durchsetzung bestehender Gesetze zu Grundrechten und Sicherheit für KI-Systeme; 4. Förderung der Vereinheitlichung der Marktentwicklung für künstliche Intelligenz; Marktdifferenzierung verhindern.

Während viele Details des neuen Gesetzes noch in der Schwebe sind, vor allem die Definition von KI, scheint der Kernfaktor das „Produktsicherheits-Framework“ zu sein, das zukünftige KI-Produkte in vier Sicherheitsstufenkategorien einteilt, die für alle Branchen gelten.

Laut dem von Maruritz Kop vom Stanford-Vienna Transatlantic Technology Law Forum zusammengestellten Bericht der Europäischen Kommission über das neue Gesetz aus dem Jahr 2021 ist das untere Ende der „Kritikalitätspyramide“ das System mit dem geringsten Risiko. KI-Anwendungen, die in diese Kategorie fallen, müssen nicht den Transparenzanforderungen entsprechen, die riskantere Systeme erfüllen müssen. In der Kategorie „begrenztes Risiko“ gibt es einige Transparenzanforderungen für KI-Systeme, wie zum Beispiel Chatbots.

Ein europäisches Gesetz zur künstlichen Intelligenz steht kurz vor der Einführung, was Auswirkungen auf die globale Technologieregulierung haben könnte——Der neue KI-Gesetzentwurf der EU unterteilt KI-Programme von unten nach oben in vier Kategorien: geringes Risiko, begrenztes Risiko, hohes Risiko und inakzeptables Risiko.

In KI-Kategorien mit hohem Risiko und strengen Transparenzanforderungen wird die Aufsicht strenger sein. Zu den Hochrisikokategorien gehören laut Einleitung KI-Anwendungen in:

kritischer Infrastruktur, wie etwa im Transportwesen, die das Leben oder die Gesundheit von Menschen gefährden kann (wie etwa selbstfahrende Autos);
  • Bildung oder Berufsausbildung, die sich auf die persönliche Bildung auswirkt oder berufliche Leistungen (z. B. Prüfungsergebnisse);
  • Sicherheitskomponenten von Produkten (z. B. robotergestützte Chirurgie);
  • Beschäftigung, Mitarbeiterverwaltung, Selbstständigkeit (z. B. Lebensläufe, Klassifizierungssoftware für Lebensläufe); (z. B. Kredit-Scores);
  • Strafverfolgungsanwendungsfälle (z. B. Beweiswürdigung);
  • Einwanderung, Grenzverwaltung (einschließlich Prüfung der Echtheit von Reisepässen);
  • Überwachungssysteme (z. B. biometrische Überwachung und Gesichtserkennung).
  • Die vierte Kategorie an der Spitze sind Systeme der künstlichen Intelligenz mit „inakzeptablem Risiko“. Diese Apps sind grundsätzlich illegal, weil sie zu viele Risiken bergen. Beispiele für solche Anwendungen sind Systeme zur Verhaltensmanipulation von Personen oder „besonders gefährdeten Gruppen“, Social Scoring sowie biometrische Systeme in Echtzeit und aus der Ferne.
  • Höhere Risikokategorien dürften im Mittelpunkt der Bemühungen vieler Unternehmen stehen, Transparenz und Compliance sicherzustellen. Der EU-Gesetzentwurf zur künstlichen Intelligenz wird Unternehmen dazu raten, vier Schritte zu unternehmen, bevor sie Produkte oder Dienste der künstlichen Intelligenz auf den Markt bringen, die in Hochrisikokategorien fallen.
Entwickeln Sie KI-Systeme mit hohem Risiko, vorzugsweise zunächst intern, mithilfe einer KI-Folgenabschätzung und eines Verhaltenskodex unter der Aufsicht eines integrativen, multidisziplinären Teams.

Künstliche Intelligenzsysteme mit hohem Risiko müssen sich einer Konformitätsbewertung und Zulassung unterziehen und über ihren gesamten Lebenszyklus weiterhin den Anforderungen des EU-KI-Gesetzes entsprechen. Einige Organisationen außerhalb des Systems werden an Konformitätsbewertungsaudits beteiligt sein. Dieser dynamische Prozess gewährleistet Benchmarking, Überwachung und Validierung. Darüber hinaus muss bei dynamischen Systemen der Hochrisiko-KI Schritt 2 wiederholt werden.

Die Registrierung unabhängiger Hochrisiko-KI-Systeme erfolgt in einer speziellen EU-Datenbank.
  1. Eine Konformitätserklärung muss unterzeichnet werden und Hochrisiko-KI-Systeme müssen das CE-Zeichen tragen.

Das obige ist der detaillierte Inhalt vonEin europäisches Gesetz zur künstlichen Intelligenz steht kurz vor der Einführung, was Auswirkungen auf die globale Technologieregulierung haben könnte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!