Dreitägige „Marathon“-Verhandlungen sind erfolgreich zu Ende gegangen. Der Vorsitzende des Rates und die Verhandlungsführer haben gerade eine Einigung über die Koordinierungsregeln für künstliche Intelligenz erzielt, die voraussichtlich schließlich zum „Gesetzentwurf zur künstlichen Intelligenz“ werden wird Verordnung". Der Verordnungsentwurf konzentriert sich auf die Bereitstellung eines Compliance-Rahmens, der dem Einsatz sicherer und die Menschenrechte achtender KI-Systeme in der EU Priorität einräumt. Diese Verordnung zur künstlichen Intelligenz geht darüber hinaus, europäische Länder zu Investitionen und Innovationen im Bereich der künstlichen Intelligenz zu inspirieren.
Der Gesetzentwurf zur künstlichen Intelligenz ist ein wegweisendes Gesetz, das ein förderliches Umfeld schaffen kann, in dem der Einsatz künstlicher Intelligenz zu besseren Sicherheits- und Vertrauensinstrumenten wird, um die Beteiligung öffentlicher und privater institutioneller Interessengruppen in der gesamten EU sicherzustellen. Die Hauptidee besteht darin, einen „risikobasierten“ Ansatz zur Regulierung von KI zu verfolgen, der auf ihrer Fähigkeit basiert, der Gesellschaft Schaden zuzufügen: Je schädlicher das Risiko, desto mehr Einschränkungen müssen eingeführt werden. Das Gesetz schafft einen globalen Präzedenzfall für die Regulierung künstlicher Intelligenz in anderen Gerichtsbarkeiten. Im Gegensatz dazu erreicht die DSGVO dies im Hinblick auf den Schutz personenbezogener Daten in gleicher Weise und fördert damit den Ansatz der EU zur Technologieregulierung weltweit.
Im Vergleich zum ursprünglichen Vorschlag der Europäischen Kommission lassen sich die wichtigsten neuen Elemente des Interimsabkommens zur Regulierung künstlicher Intelligenz wie folgt zusammenfassen:
Im Einzelnen umfasst die Interimsvereinbarung die folgenden Aspekte:
Im Rahmen der Auswahlvereinbarung entspricht die Definition von Systemen der künstlichen Intelligenz zur Auswahl von OECD-Unterkünften den vorgeschlagenen Verfahren. Auf diese Weise helfen Standards für Systeme der künstlichen Intelligenz dabei, einfache Softwaresysteme klarer zu unterscheiden.
Darüber hinaus wird im Interimsabkommen ausführlicher dargelegt, dass die Vorschriften der Verordnung keine Sektoren umfassen, die in den Bereich des EU-Rechts fallen, und die Fähigkeiten der Mitgliedstaaten im Bereich der nationalen Sicherheit oder der Parteienteilung in keiner Weise schwächen dürfen Verantwortlichkeiten im Bereich der nationalen Sicherheit. Darüber hinaus wird sich das Gesetz über künstliche Intelligenz nicht auf Systeme der künstlichen Intelligenz erstrecken, die ausschließlich für militärische oder Verteidigungszwecke eingesetzt werden. Gleichzeitig sieht der Vertrag auch vor, dass das Gesetz auf Systeme der künstlichen Intelligenz anzuwenden ist, wenn diese nicht nur für wissenschaftliche und Forschungszwecke, sondern auch aus nichtwissenschaftlichen und nicht innovativen Gründen verwendet werden, einschließlich durch nichtkünstliche Intelligenztechniker oder Experten.
Es schafft eine horizontale Sicherheitsbarriere, die Stufe 1.1 „Mögliche schwerwiegende/erhebliche Rechtsschäden“ umfasst, um unvorhergesehene Folgen dieser Bedrohung für Systeme der künstlichen Intelligenz auszuschließen. Für KI-Systeme, bei denen ein geringes Risiko besteht, den Nutzern Schaden zuzufügen, gelten nur minimale Transparenzanforderungen. Beispielsweise soll es Nutzer darüber informieren, dass die Inhalte durch künstliche Intelligenz generiert wurden, sodass Entscheidungen darüber getroffen werden können, ob die Inhalte genutzt oder weitere Aktionen durchgeführt werden.
Verschiedene KI-basierte Systeme, die auf EU-Territorium betrieben werden, werden genehmigt. Allerdings gibt es für den Eintritt in den EU-Markt Voraussetzungen und Verantwortlichkeiten, die erfüllt werden müssen. Diese Mitgesetzgeber haben einige Bestimmungen hinzugefügt und überarbeitet, um sie technisch einfacher und klarer zu gestalten und die Belastung für die Interessengruppen zu verringern, beispielsweise hinsichtlich der Bereitstellung von Datenqualität und der technischen Dokumentation, die KMU für die Zertifizierung ihres Systems mit künstlicher Intelligenz vorbereiten müssen Sicher gebaut und entspricht den geltenden Vorschriften.
Da KI-Systeme in einer anspruchsvollen Wertschöpfungskettenumgebung erstellt und bereitgestellt werden, erfordert eine Kompromissvereinbarung unter anderem eine Überarbeitung des Verhaltens von Unternehmen, um den Auswirkungen der verschiedenen Akteure in der Kette (d. h. der Technologie) Rechnung zu tragen der Verantwortungs-/Einflussbereich von Anbietern und Nutzern des Systems). Außerdem wird dargelegt, wie die KI-spezifischen Pflichten, die sich aus dem KI-Gesetz ergeben, mit den Pflichten anderer Gesetze interagieren und im Konflikt stehen, beispielsweise in der Datengesetzgebung der EU und in sektorspezifischen Rechtsvorschriften.
Der Einsatz künstlicher Intelligenz wird aufgrund des hohen Risikos abgelehnt, was für bestimmte Anwendungen künstlicher Intelligenz verboten ist. Daher werden diese Geräte nicht in die EU eingeführt. Gemäß der vorläufigen Vereinbarung gehören zu den verbotenen Aktivitäten kognitive Technologien zur Verhaltenskontrolle, das zwecklose Sammeln von Gesichtsbildern aus dem Internet, die Erkennung von Emotionen in Institutionen und im Bildungswesen, soziale Bewertung und biometrische Methoden zur Bestimmung der sexuellen Orientierung oder religiösen Überzeugungen sowie einige persönliche Genealogie für polizeiliche Zwecke.
Unter Berücksichtigung der Besonderheiten von Strafverfolgungsorganisationen und der Notwendigkeit, dass sie bei der Erfüllung ihrer Aufgaben Computer einsetzen, wurden mehrere Änderungen an den Empfehlungen der Kommission zur Regel-KI für die Strafverfolgung vorgenommen , die kritisch sind. Solange sorgfältige Maßnahmen ergriffen werden, werden diese Änderungen dazu führen, dass die Betreiber den Datenschutz schützen müssen. Ein Beispiel hierfür wäre die Einleitung von Notfallverfahren für KI-Implementierungen mit hohem Risiko, jedoch nicht die Durchführung einer Konformitätsbewertung in Notfallsituationen. Darüber hinaus wurde eine spezifische Maßnahme formuliert, um Befugnisse zum Schutz der Menschenrechte und zur Verhinderung des Missbrauchs von Anwendungen der künstlichen Intelligenz bereitzustellen.
Darüber hinaus werden im Text des Interimsabkommens klar die Gründe für den Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme an öffentlichen Orten dargelegt, jedoch nur aus Gründen der Strafverfolgung, und die Behörden dürfen dies nur in Ausnahmefällen tun. Die Kompromissvereinbarung sieht zusätzliche Schutzmaßnahmen vor und beschränkt diese Ausnahmen auf Fälle der Tötung von Verdächtigen, um sicherzustellen, dass Durchsuchungen nur bei tatsächlichen Bedrohungen durchgeführt werden, und um Terroranschläge und Durchsuchungen zu verhindern, wenn Personen im Verdacht stehen, schwerste Straftaten begangen zu haben.
Es wurden neue Vorschriften für Szenarien formuliert, in denen künstliche Intelligenzsysteme für mehrere Zwecke verwendet werden, d. h. allgemeine künstliche Intelligenz und unabhängige Systeme. Ein weiteres Hochrisikosystem, selbstfahrende Autos, ist in die allgemeine künstliche Intelligenz integriert. Das Übergangsabkommen umfasst auch das GPA (GPAI). Die GPA-Überwachung ist ein zentraler Bestandteil der Vereinbarung.
Grundlegende Modelle, beschrieben als Systeme, die in der Lage sind, Fähigkeiten bei komplexen Aktivitäten wie Textgenerierung, Videosegmentierung, Verarbeitung natürlicher Sprache, Rendern von Code und vielen weiteren Computeraufgaben zu demonstrieren, wurden ebenfalls abgeschlossen. Die Übergangsregelung sieht vor, dass Basismodelle die Dekontaminationsanforderungen erfüllen müssen, bevor sie auf den Markt kommen. Die für den Aufbau eines „High-Impact“-Basismodells erforderlichen Richtlinien sind viel strenger. Diese durchschnittlichen Datenmodelle können aufgrund ihres enormen Umfangs und ihrer hochentwickelten Komplexität, Fähigkeiten und Fertigkeiten systemische Risiken in der gesamten Wertschöpfungskette eines Unternehmens schaffen.
Im Einklang mit den Einschränkungen des neuen GPAI-Modells und der Notwendigkeit seiner standardisierten Überwachung auf EU-Ebene hat die Kommission ein einzigartiges Büro für künstliche Intelligenz eingerichtet, um diesen Stand der Technik zu überwachen KI-Modell, das die Festlegung von Spezifikationen und Prüfverfahren sowie die Durchsetzung wichtiger Regeln in allen Mitgliedsstaaten fördert. Eine unabhängige wissenschaftliche Gruppe technischer Experten wird das GPAIAI-Büro bei der Modelldimensionierung beraten, indem sie Methoden zur Bewertung von Basismodellen und technischen Fähigkeiten entwickelt, eine Bewertung des GPAI-Status und der Basismodelle zur Vorbereitung der Markteinführung durchführt und möglicherweise Fragen im Zusammenhang mit der Basis überwacht Modelle. Materialsicherheit.
Zu diesem Zweck soll die Kommission für künstliche Intelligenz, die sich aus Mitgliedstaaten als Mitgliedern zusammensetzt und als Koordinierungsplattform und Beratungsgremium des Ausschusses fungiert, den Mitgliedstaaten ermöglichen, eine herausragende und Schlüsselrolle bei der Umsetzung der Vorschriften in ihrem Bereich zu spielen Verhaltenskodex für das Basismodell. Zu guter Letzt wird ein Forum mit einzelnen Stakeholdern, vertreten durch Industrieakteure, KMU, Start-ups, Zivilgesellschaft und Universitäten, etabliert. Dadurch könnten technische Erkenntnisse gewonnen werden, die die KI-Kommission nutzen könnte.
Unternehmen, die gegen das Gesetz zur künstlichen Intelligenz verstoßen, werden angeklagt und sanktioniert. Der Mindestbetrag der Geldstrafe beträgt einen bestimmten Betrag und der Höchstbetrag kann ein Prozentsatz des weltweiten Jahresumsatzes im vorangegangenen Geschäftsjahr sein. Verstöße gegen die oben genannten Anwendungen der Künstlichen Intelligenz werden mit Bußgeldern in Höhe von 35 Millionen Euro (7 %) geahndet, Verstöße gegen die Pflichten nach dem Künstliche-Intelligence-Gesetz werden mit Bußgeldern in Höhe von 15 Millionen Euro (3 %) geahndet, und die Bereitstellung irreführender Informationen wird mit einer Geldstrafe von 7,5 Millionen Euro (1,5 %) bestraft. Allerdings sieht die Übergangsvereinbarung besondere Bußgelder vor, die für kleine und mittlere Unternehmen und Start-ups geringere Auswirkungen haben, wenn sie sich zur Einhaltung der Bestimmungen des Künstliche-Intelligence-Gesetzes verpflichten.
Die prägnante Vereinbarung mit dem Künstliche-Intelligence-Gesetz sieht vor, dass natürliche oder juristische Personen das Recht haben, eine formelle Beschwerde bei der zuständigen Marktüberwachungsstelle einzureichen. Darüber hinaus befolgt die Agentur bei der Bearbeitung der genannten Beschwerden ihre spezifischen und vorgeschriebenen Verfahren.
Insbesondere verlangt das Interimsabkommen von Betreibern von KI-Systemen, dass sie Rechtsfolgenabschätzungen für Endnutzerschutzmaßnahmen durchführen, bevor sie Systeme mit hohem Risiko auf den Markt bringen. Dieses Interimsabkommen bietet auch einen guten Ausgangspunkt für den breiten Einsatz hochentwickelter künstlicher Intelligenz und automatisierter Wahrheitserkennungssysteme. Es wird Klarheit über den Umfang der Umsetzung des Systems schaffen. Insbesondere wurden einige der vorgeschlagenen Verordnungen der Kommission geändert, um auf verschiedene gelegentliche staatliche Nutzer von Hochrisiko-KI-Systemen zu verweisen, die auch Hochrisiko-KI-Systeme für maschinelles Lernen in EU-Datenbanken registriert haben. Darüber hinaus wird die aktualisierte Produktlinie auch eine Nachricht an Benutzer senden, die das Emotionserkennungssystem bedienen, um sie darüber zu informieren, wenn sie dem System ausgesetzt sind.
Dieser Teil der Verordnungen wurde erheblich überarbeitet, um Innovationen zu fördern. Dies ist ein wichtiger Aspekt des Kommissionsvorschlags zur Schaffung eines wissenschaftlicheren Innovationsrahmens, der sich ständig anpasst, um sicherzustellen, dass Innovationen flächendeckend gewährleistet sind Die EU schafft innerhalb des Geltungsbereichs ein nachhaltiges Regulierungsumfeld.
Die KI-Regulierungssandbox auf Anfrage, die eine kontrollierte Umgebung für die Entwicklung, das Testen und die Validierung neuer KI-Systeme gewährleisten soll, ermöglicht auch das Testen von Agenturen unter realen Bedingungen. Darüber hinaus wurden dort, wo KI-Systeme in realen Umgebungen getestet werden, neue Einschränkungen eingeführt, um den Einsatz der Systeme unter bestimmten Bedingungen zu ermöglichen. Mit dieser befristeten Vereinbarung soll der Verwaltungsaufwand für kleine und mittlere Unternehmen verringert und ein Förderplan für kleine und mittlere Unternehmen mit geringem Einkommen erstellt werden. In solchen Fällen sind Ausnahmen zulässig, wenn sie rechtlich begrenzt und streng konkret sind.
Das Interimsabkommen über die Verwaltung künstlicher Intelligenz sieht vor, dass die Bestimmungen des Gesetzes über künstliche Intelligenz vorbehaltlich bestimmter Ausnahmen für zwei Jahre ab dem Datum des Inkrafttretens gelten.
Das obige ist der detaillierte Inhalt vonEntdecken Sie das EU-Abkommen zur Regulierung künstlicher Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!