Ist KI wirklich gefährlich genug, um eine solche Regulierung zu rechtfertigen?
Im Silicon Valley, einem Hotspot für Innovation, liefern sich KI-Wissenschaftler wie Li Feifei und Andrew Ng ein Tauziehen mit Regulierungsbehörden um Sicherheit und Innovation. Im Zentrum dieses Tauziehens steht ein Gesetzentwurf namens SB-1047. Der vollständige Name des Gesetzentwurfs lautet „Safe and Secure Innovation for Frontier Artificial Intelligence Act“, der versucht, klare Sicherheitsstandards für Hochrisiko-KI-Modelle festzulegen, um zu verhindern, dass sie missbraucht werden oder dadurch eine Katastrophe verursachen. Der Gesetzentwurf wurde im Februar dieses Jahres im Senat eingebracht und sorgte in der Folge für große Kontroversen. Viele Wissenschaftler glauben, dass die Bestimmungen des Gesetzentwurfs zu unangemessen sind und verheerende Auswirkungen auf die wissenschaftliche und technologische Innovation haben werden. Link zum Gesetzentwurf: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047Konkret zielt dieser Gesetzentwurf darauf ab, künstliche Intelligenz auf Modellebene für Modelle zu regulieren über bestimmten Rechen- und Kostengrenzen trainiert werden. Die Modellabdeckung ist wie folgt: 1. Modelle mit künstlicher Intelligenz, die mit mehr als 10^26 Ganzzahl- oder Gleitkommaoperationen trainiert wurden, kosten mehr als einhundert Millionen US-Dollar (100.000.000 US-Dollar). werden auf der Grundlage der angemessenen Einschätzung des Entwicklers zum durchschnittlichen Marktpreis für Cloud Computing zu Beginn der Schulung berechnet. 2. Modelle der künstlichen Intelligenz, die durch Feinabstimmung von Modellen innerhalb des Anwendungsbereichs mit einer Rechenleistung von mindestens dem Dreifachen von 10^25 Ganzzahl- oder Gleitkommaoperationen erstellt wurden. Dieses Sortiment deckt grundsätzlich alle gängigen Großmodelle ab, die heute auf dem Markt sind. Wenn der Gesetzentwurf angenommen wird, werden diese Modelle als „potenziell gefährlich“ eingestuft oder erfordern eine zusätzliche Aufsicht. Der Gesetzentwurf verlangt außerdem, dass Modellentwickler für die nachgelagerte Nutzung oder Änderung ihrer Modelle rechtlich verantwortlich sind. Bevor mit der Schulung begonnen werden kann, müssen Entwickler nachweisen, dass ihre Modelle keine „gefährlichen Funktionen“ ermöglichen oder bereitstellen, und eine Reihe von Schutzmaßnahmen implementieren, um eine solche Verwendung zu verhindern. Dies wird die Entwicklung der Open-Source-Community behindern. Die Umsetzung des neuen Gesetzes wird von einer „Frontier Model Division“ überwacht, einer neu eingerichteten Aufsichts- und Regulierungsbehörde. Eine falsche Darstellung der Fähigkeiten eines Models gegenüber der Agentur, die Sicherheitsstandards festlegt und zu KI-Gesetzen berät, könnte dazu führen, dass Entwickler wegen Meineids ins Gefängnis kommen. Der Gesetzentwurf fügt außerdem Whistleblower-Schutzbestimmungen hinzu, um Whistleblower in KI-Entwicklungseinheiten zu schützen und zu ermutigen und sicherzustellen, dass Mitarbeiter Unternehmensverstöße ohne Vergeltungsmaßnahmen melden können. Wenn das Gesetz verabschiedet wird, würde eine einzige Unterschrift von Gouverneur Gavin Newsom es in kalifornisches Recht schaffen. Wenn dieser Gesetzentwurf in Kalifornien verabschiedet wird, wird er einen Präzedenzfall für andere Bundesstaaten schaffen und weitreichende Auswirkungen in den USA und im Ausland haben – was im Wesentlichen einen enormen Schmetterlingseffekt auf den Stand der Innovation auslöst, sagte Anjney Midha, General Partner von a16z. Eine Anhörung zum Gesetzentwurf findet am Morgen des 7. August (PDT) statt. Den Wissenschaftlern wird die Zeit zum Protest knapp. Deshalb hat Li Feifei persönlich einen Artikel geschrieben, in dem er die Vor- und Nachteile des Gesetzentwurfs darlegt. Einige Wissenschaftler unterzeichnen einen Brief, um die Verabschiedung des Gesetzes zu verhindern. Li Feifei schrieb einen Artikel, in dem er SB-1047 kritisierte „Die Schädigung des aufkeimenden KI-Ökosystems wird Entwickler unnötig bestrafen, die Open-Source-Community ersticken und die akademische KI-Forschung behindern, während es gleichzeitig nicht gelingt, die eigentlichen Probleme zu lösen, die es lösen soll“, schrieb sie. Dow: Erstens, SB -1047 wird Entwickler unangemessen bestrafen und Innovationen unterdrücken.SB-1047 macht die Verantwortlichen und die ursprünglichen Entwickler des Modells haftbar, wenn ein KI-Modell missbraucht wird. Es ist für jeden KI-Entwickler (insbesondere für angehende Programmierer und Unternehmer) unmöglich, jede mögliche Verwendung seiner Modelle vorherzusagen. SB-1047 wird Entwickler dazu zwingen, einen Schritt zurückzutreten und defensiv zu agieren – genau das, was wir zu vermeiden versuchen. Zweitens wird SB-1047 die Open-Source-Entwicklung einschränken. SB-1047 verlangt, dass alle Modelle, die einen bestimmten Schwellenwert überschreiten, über einen „Kill-Schalter“ verfügen, einen Mechanismus, der das Programm jederzeit beenden kann. Wenn Entwickler befürchten, dass die von ihnen heruntergeladenen und erstellten Programme gelöscht werden, werden sie beim Programmieren und bei der Zusammenarbeit eher zurückhaltend sein. Dieser Kill-Switch wird die Open-Source-Community zerstören, die die Quelle unzähliger Innovationen ist. Die Auswirkungen beschränken sich nicht nur auf den Bereich der künstlichen Intelligenz, sondern erstrecken sich auf alles von GPS über MRT bis hin zum Internet selbst.
Drittens wird SB-1047 den öffentlichen Sektor und die akademische KI-Forschung lahmlegen. Die Open-Source-Entwicklung ist wichtig für den privaten Sektor, aber auch für die Wissenschaft von entscheidender Bedeutung. Ohne Zusammenarbeit und Zugriff auf Modelldaten können Wissenschaftler nicht vorankommen. Wie können wir die nächste Generation von KI-Führungskräften ausbilden, wenn unsere Institutionen keinen Zugang zu geeigneten Modellen und Daten haben? Ein Kill-Switch würde die Bemühungen von Studenten und Forschern noch weiter untergraben, die im Vergleich zu großen Technologieunternehmen bereits im Daten- und Computerbereich im Nachteil sind. SB-1047 wird den Todesstoß für die akademische KI einläuten, zu einer Zeit, in der wir die Investitionen des öffentlichen Sektors in KI verdoppeln sollten.
Am besorgniserregendsten ist, dass der Gesetzentwurf nicht auf die potenziellen Schäden eingeht, die Fortschritte in der künstlichen Intelligenz mit sich bringen, einschließlich Voreingenommenheit und Deepfakes. Stattdessen legt SB-1047 einen willkürlichen Schwellenwert fest, der Modelle reguliert, die eine bestimmte Menge an Rechenleistung verbrauchen oder deren Training 100 Millionen US-Dollar kostet. Diese Maßnahme bietet keine Schutzmaßnahmen, sondern wird die Innovation in allen Sektoren, auch im akademischen Bereich, nur einschränken. Heutzutage liegen akademische KI-Modelle unter dieser Schwelle, aber wenn wir die Investitionen in private und öffentliche KI neu ausbalancieren wollen, wird die akademische Welt durch SB-1047 reguliert. Dadurch wird es unserem KI-Ökosystem schlechter gehen.
Die Einschränkungen von SB-1047 sind zu willkürlich und wir müssen das Gegenteil tun.
Ich bin nicht gegen KI-Governance. Für die sichere und effektive Entwicklung künstlicher Intelligenz ist die Gesetzgebung von entscheidender Bedeutung. Aber die KI-Politik muss die Open-Source-Entwicklung stärken, einheitliche und vernünftige Regeln vorschlagen und das Vertrauen der Verbraucher stärken. SB-1047 erfüllt diese Standards nicht.
Dutzende Wissenschaftler haben eine Petition gegen Als Reaktion auf SB-1047 unterzeichnet, zusätzlich zu Li Feifei, einer Gruppe bestehend aus Lehrern und Studenten von 7 Standorten der University of California und Forschern von mehr als Auch 20 weitere Institutionen sind aktiv. Sie waren Mitverfasser und Unterzeichner eines offenen Briefes gegen SB-1047, in dem sie aus der Sicht eines Forschers darlegten, wie schädlich der Gesetzentwurf für Kaliforniens KI-Forschungs- und Bildungsziele ist. In dem gemeinsamen Brief wird die Unzumutbarkeit von SB-1047 unter folgenden Aspekten erörtert: 1 Der Gesetzentwurf wird eine „abschreckende Wirkung“ auf die Veröffentlichung von Open-Source-Modellen haben und somit der Forschung schaden Der Gesetzentwurf verlangt „Sicherheitsüberprüfungen“ und die Möglichkeit, „modernste Modelle“ „vollständig abzuschalten“, was die Veröffentlichung von Open-Source- und Open-Weight-Modellen ernsthaft behindern kann. Für ein proprietäres Modell, das von einer privaten Einrichtung kontrolliert wird, sind diese strengen Vorschriften möglicherweise einfacher umzusetzen, für ein offenes Modell, das von einer gemeinnützigen Organisation oder einem Konsortium von Universitäten verwendet wird, jedoch schwieriger. Die Bestimmungen des Gesetzentwurfs zu Sicherheitsnachweisen und -prüfungen sind nicht spezifisch genug und stützen sich auf Tests, die möglicherweise noch nicht existieren und denen es möglicherweise an wissenschaftlicher Genauigkeit mangelt. Die potenziellen Kosten einer solchen Prüfung mögen für kommerzielle Unternehmen mit profitablen Produkten leicht erschwinglich sein, aber für wissenschaftliche offene Veröffentlichungen kommerzieller Unternehmen wie der LLaMA-Reihe von Meta oder offene Modelle, die von gemeinnützigen Organisationen oder Universitätskonsortien geschult werden, ist dies möglicherweise nicht der Fall . Aufgrund dieser belastenden Einschränkungen können sich Entwickler von Open-Source-Modellen dafür entscheiden, Systeme außerhalb von Kalifornien oder den Vereinigten Staaten zu bauen und ihre Modelle ohne Haftung zu veröffentlichen. In diesem Fall können private Akteure, die keine Rücksicht auf Compliance nehmen, diese Modelle heimlich nutzen, während akademische Forscher durch die Art ihrer öffentlichen Arbeit eingeschränkt werden, was sie dazu veranlasst, Forschungsthemen zu wechseln oder zu Themen zu wechseln, die ihre akademische Freiheit nicht beeinträchtigen , werden ausgeschlossen. Die Verfügbarkeit von Open-Source-Modellen ist für die moderne akademische KI-Forschung von entscheidender Bedeutung, da sie es Wissenschaftlern ermöglichen, zu untersuchen, wie Modelle funktionieren, welche Leistungssteigerungen während des Trainings auftreten und wie sie verbessert und gehackt werden können. 2. Die Risikovorhersage und die Bewertung der „Fähigkeit“ durch künstliche Intelligenz sind unwissenschaftlich Der Ansatz zur Bewertung des Modellrisikos ist höchst fragwürdig. Es besteht kein wissenschaftlicher Konsens darüber, ob und wie Sprachmodelle oder andere hochmoderne Systeme der künstlichen Intelligenz eine Bedrohung für die Öffentlichkeit darstellen. 3. Nicht ausreichender Schutz für Open-Source-Modelle Aufgrund der hohen Rechenkosten kann es schwierig sein, bestehende Schutzmaßnahmen fortzuführen. Ohne starke Schutzmaßnahmen könnten die Folgen für diese Modelle schnell sichtbar werden. Darüber hinaus erfordern kleine Modelle mit vergleichbarer Leistung einen höheren Rechenaufwand als große Modelle. Daher wird nicht erwartet, dass die Änderungen im Gesetzentwurf die negativen Auswirkungen auf Open-Source-Modellveröffentlichungen abmildern werden, während strenge Berichts- und Überprüfungsanforderungen die Forschungsaktivitäten unnötig beeinträchtigen werden. 4. Bedenken hinsichtlich der Arbeitsvermittlung und der beruflichen Ergebnisse von Studierenden SB-1047 könnte Studierende, die sich für künstliche Intelligenz interessieren, in Zukunft davon abhalten, verwandte Kenntnisse zu erlernen, und kann sogar neue Talente davon abhalten, in die Informatik einzusteigen und andere Schlüsselbereiche. Darüber hinaus könnten zusätzliche regulatorische Hürden mit der Verlagerung der Technologiebranche von großen Unternehmen hin zu Start-ups aufstrebende Innovatoren schwächen, indem sie größere, bessere Unternehmen begünstigen. Diese Verschiebung könnte die Karrierewege für Studierende einschränken.签 Von einigen Gelehrten unterzeichnetes Schild. Neben offenen Briefen äußern sich einige Forscher auch in den sozialen Medien. Unter anderem bemerkte ein Systembiologe, dass SB-1047 so sei, als würde es die Entzündungsreaktion aktivieren, bevor wir überhaupt wissen, um welchen Erreger es sich handelt, wann er uns infiziert und wo die Infektion auftritt.
Zuvor hat sich auch Ng Enda oft zu diesem Thema geäußert. Er ist davon überzeugt, dass Regulierungsbehörden eher Anwendungen als Technologie regulieren sollten. Beispielsweise ist der Elektromotor eine Technologie.Wenn wir es in einen Mixer, ein Elektroauto, eine Dialysemaschine oder eine gesteuerte Bombe geben, wird es zu einer Anwendung. Stellen Sie sich vor, das Gesetz würde die Hersteller von Motoren haftbar machen, wenn jemand den Motor auf schädliche Weise verwendet. Dieser Motorenhersteller stellt entweder die Produktion ein oder macht den Motor so klein, dass er für die meisten Anwendungen unbrauchbar ist. Wenn wir solche Gesetze verabschieden würden, könnten wir die Menschen vielleicht davon abhalten, Bomben zu bauen, aber wir würden auch Mixer, Elektroautos und Dialysegeräte verlieren. Wenn wir uns stattdessen auf bestimmte Apps konzentrieren, können wir die Risiken rationaler einschätzen und beurteilen, wie wir sie schützen oder sogar bestimmte Arten von Apps verbieten können. Ist KI wirklich gefährlich genug, um eine solche Regulierung zu rechtfertigen? Was denkst du darüber? Referenzlink: https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/https://drive. google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/viewhttps://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us -ökosystem-tech-politik/?abc123Das obige ist der detaillierte Inhalt vonLi Feifei hat persönlich einen Artikel geschrieben und Dutzende Wissenschaftler haben einen gemeinsamen Brief unterzeichnet, in dem sie sich gegen das kalifornische Gesetz zur KI-Beschränkung aussprechen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!