Das Gesetz über künstliche Intelligenz zielt darauf ab, einen gemeinsamen regulatorischen und rechtlichen Rahmen für den Einsatz künstlicher Intelligenz zu schaffen, einschließlich der Art und Weise, wie sie entwickelt wird, wofür Unternehmen sie nutzen können und welche rechtlichen Konsequenzen sich aus der Nichteinhaltung der Anforderungen ergeben. Der Gesetzentwurf könnte Unternehmen dazu verpflichten, unter bestimmten Umständen eine Genehmigung einzuholen, bevor sie künstliche Intelligenz einführen, bestimmte als zu riskant erachtete Nutzungen künstlicher Intelligenz verbieten und eine öffentliche Liste anderer risikoreicher Nutzungen künstlicher Intelligenz erstellen.
In einem offiziellen Bericht über das Gesetz erklärte die Europäische Kommission, dass das Gesetz auf breiter Ebene darauf abzielt, das vertrauenswürdige Paradigma der künstlichen Intelligenz in der EU zu kodifizieren. Dieses Paradigma „erfordert, dass KI rechtlich, ethisch und technologisch stark ist und gleichzeitig demokratische Werte, Menschenrechte und Rechtsstaatlichkeit respektiert“.
1 Gewährleistung, dass auf dem EU-Markt eingesetzte und genutzte Systeme der künstlichen Intelligenz sicher sind und bestehende gesetzliche Grundrechte und EU-Werte respektieren;
2 Förderung von Investitionen und Innovationen im Bereich künstlicher Intelligenz;
3. Stärkung der Governance und wirksamen Durchsetzung bestehender Gesetze zu Grundrechten und Sicherheit für KI-Systeme; 4. Förderung der Vereinheitlichung der Marktentwicklung für künstliche Intelligenz; Marktdifferenzierung verhindern.
Während viele Details des neuen Gesetzes noch in der Schwebe sind, vor allem die Definition von KI, scheint der Kernfaktor das „Produktsicherheits-Framework“ zu sein, das zukünftige KI-Produkte in vier Sicherheitsstufenkategorien einteilt, die für alle Branchen gelten.
Laut dem von Maruritz Kop vom Stanford-Vienna Transatlantic Technology Law Forum zusammengestellten Bericht der Europäischen Kommission über das neue Gesetz aus dem Jahr 2021 ist das untere Ende der „Kritikalitätspyramide“ das System mit dem geringsten Risiko. KI-Anwendungen, die in diese Kategorie fallen, müssen nicht den Transparenzanforderungen entsprechen, die riskantere Systeme erfüllen müssen. In der Kategorie „begrenztes Risiko“ gibt es einige Transparenzanforderungen für KI-Systeme, wie zum Beispiel Chatbots.
——Der neue KI-Gesetzentwurf der EU unterteilt KI-Programme von unten nach oben in vier Kategorien: geringes Risiko, begrenztes Risiko, hohes Risiko und inakzeptables Risiko.
In KI-Kategorien mit hohem Risiko und strengen Transparenzanforderungen wird die Aufsicht strenger sein. Zu den Hochrisikokategorien gehören laut Einleitung KI-Anwendungen in:
kritischer Infrastruktur, wie etwa im Transportwesen, die das Leben oder die Gesundheit von Menschen gefährden kann (wie etwa selbstfahrende Autos);Das obige ist der detaillierte Inhalt vonEin europäisches Gesetz zur künstlichen Intelligenz steht kurz vor der Einführung, was Auswirkungen auf die globale Technologieregulierung haben könnte. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!