Das letzte Mal war es Zhou Zhizhi, dieses Mal war Sam Altman an der Reihe.
Doch dieses Mal hatten die Kongressabgeordneten eine ganz andere Haltung ihm gegenüber – freundlich, geduldig, erledigten genug Hausaufgaben und baten demütig um Rat.
Gestern Abend, Pekinger Zeit, sagte OpenAI-CEO Sam Altman vor dem US-Senat über die potenziellen Gefahren der KI-Technologie aus und forderte die Gesetzgeber auf, Lizenzanforderungen und andere Vorschriften umzusetzen.
Sam Altman musste keine kniffligen Fragen akzeptieren, er saß Auf seinem Platz spricht er mit Leichtigkeit und Eloquenz und beweist der Welt einmal mehr, dass er als meistgesehener Startup-CEO der Welt die Regeln und die Zukunft der Technologiewelt schreibt.
Angesichts des US-Kongresses garantiert Sam Altman noch einmal kategorisch: OpenAI wird GPT-5 in den nächsten sechs Monaten definitiv nicht trainieren.
Gleichzeitig warnte er die Welt: Um mit den immer stärker werdenden KI-Risiken umzugehen, müssen wir uns stärken Aufsicht und Gesetzgebung sowie staatliche Eingriffe sind äußerst wichtig.
Warum ist Altman so aktiv in der staatlichen Regulierung?
Solange Sie zum Regelmacher werden, können Sie natürlich alle im Wettbewerb gewinnen.
Für Altman, der sich im Silicon Valley einen Namen gemacht hat, indem er sich auf seine „sozialen Kuh“-Eigenschaften verlassen hat, ist der Umgang mit der Regierung so einfach, wie sich etwas auszusuchen einer Tasche.
Als neue Kraft, die plötzlich in der Technologiewelt aufgetaucht ist, hat OpenAI dieses Jahr blitzschnelle Geschwindigkeit erreicht Seine Gründung vor 8 Jahren hat die Welt aufgewühlt und alle Technologieunternehmen gezwungen, an einer globalen Revolution teilzunehmen, beginnend mit ChatGPT.
Dieses globale KI-Wettrüsten hat viele Experten alarmiert.
Während dieser Anhörung kritisierten die Senatsmitglieder jedoch nicht das durch die OpenAI-Technologie verursachte Chaos, sondern baten bescheiden um Zeugen zu den möglichen Regeln von ChatGPT. Die Meinungen und die Einstellung Sam Atlman gegenüber sind sichtlich freundlich und respektvoll.
Zu Beginn der Anhörung verwendete Senator Richard Blumenthal eine Software zum Klonen von Stimmen Kopieren Sie Ihre eigene Klangfarbe, lassen Sie ChatGPT ein Intro schreiben und trainieren Sie einen Text-zu-Sprache-Generator mithilfe stundenlanger Sprache.
Dieser Schritt beweist, dass der Kongress eine klare Haltung zur „Umarmung der KI“ hat.
Bei dieser Anhörung waren die Gesetzgeber offensichtlich sehr aufgeregt, im Gegensatz zu dem, was sie über Xiao Zha und gesagt hatten Die Befragung von Zhou Shouzi steht in scharfem Kontrast. Anstatt auf den Fehlern der Vergangenheit herumzuharren, sind Senatoren begierig auf die Vorteile, die KI mit sich bringen kann.
Und Altman kam direkt zur Sache und sagte dem Senat: KI-Technologie kann schiefgehen.
Er sagte, er sei besorgt, dass die Branche der künstlichen Intelligenz erhebliche Auswirkungen haben würde der Welt Schaden zufügen (der Welt erheblichen Schaden zufügen).
„Wenn die KI-Technologie schief geht, werden die Folgen katastrophal sein. Wir müssen darüber sprechen: Wir wollen mit der Regierung zusammenarbeiten, um zu verhindern, dass dies geschieht.“ "
"Wir glauben, dass staatliche regulatorische Eingriffe von entscheidender Bedeutung sind, um die Risiken immer leistungsfähigerer KI-Modelle zu mindern. Beispielsweise könnte die US-Regierung erwägen, Lizenz- und Testanforderungen zu kombinieren Entwickeln und veröffentlichen Sie KI-Modelle, die die Leistungsschwellen überschreiten 》
.Altman sagte, er sei sehr besorgt, dass die Wahl durch KI-generierte Inhalte beeinträchtigt werde, weshalb diesbezüglich eine ausreichende Aufsicht erforderlich sei.
Als Antwort sagte Senator Dick Durbin, dass es bemerkenswert sei, dass große Unternehmen zum Senat kommen, um „für unsere Regulierung zu plädieren“.
Wie reguliert man? Altman hat bereits an die Regierung gedacht.
Bei der Anhörung schlug er einen systematischen Plan vor.
1. Richten Sie eine neue Regierungsbehörde ein, die für die Lizenzierung großer KI-Modelle zuständig ist, und widerrufen Sie die Lizenzen für Modelle, die nicht den Standards entsprechen.
Er glaubt, dass es keinen Bedarf gibt, dieses Lizenzregulierungssystem für Technologien einzuführen, die nicht das Niveau moderner Großmodelle erreichen können. Um Innovationen zu fördern, könnte der Kongress Kompetenzschwellen festlegen, um kleinere Unternehmen und Forscher vor regulatorischen Belastungen zu schützen.
2. Erstellen Sie eine Reihe von Sicherheitsstandards für KI-Modelle, einschließlich einer Bewertung ihrer gefährlichen Fähigkeiten.
Zum Beispiel müssen Modelle Sicherheitstests bestehen, etwa ob sie sich „selbst replizieren“ und „außerhalb der Aufsicht fließen“ können.
3. Fordern Sie unabhängige Experten auf, eine unabhängige Prüfung der Leistung des Modells anhand verschiedener Indikatoren durchzuführen.
Als der Senator ihn fragte, ob er bereit wäre, die Rolle zu übernehmen, sagte Altman: „Ich bin mit dem aktuellen Job zufrieden, aber er würde dem Kongress gerne eine Liste zur Auswahl vorlegen.“
Altman sagte, dass eine Lizenzierung dringend erforderlich sei, da KI-Modelle „das Verhalten und die Überzeugungen einer Person überzeugen, manipulieren, beeinflussen“ und sogar „neue biologische Wirkstoffe erschaffen“ könnten.
Es wäre einfacher, alle Systeme oberhalb einer bestimmten Rechenleistungsschwelle zu lizenzieren, aber Altman sagte, er würde es vorziehen, regulatorische Grenzen auf der Grundlage spezifischer Fähigkeiten zu ziehen.
Ist das OpenAI-eigene Modell also sicher?
Altman hat wiederholt erklärt, dass jeder beruhigt sein kann.
Er sagte, dass das GPT-4-Modell bewusster und authentischer reagieren wird als jedes andere ähnliche Modell und schädliche Anfragen definitiv ablehnen wird, da GPT-4 umfangreichen Tests und Prüfungen vor der Veröffentlichung unterzogen wurde.
„Vor der Veröffentlichung eines neuen Systems führt OpenAI umfangreiche Tests durch, beauftragt externe Experten mit der Durchführung detaillierter Überprüfungen und unabhängiger Audits, verbessert das Verhalten des Modells und implementiert starke Sicherheits- und Überwachungssysteme.“
„Vor der Veröffentlichung von GPT -4, wir haben mehr als sechs Monate damit verbracht, umfangreiche Auswertungen, externes Red Teaming und Risikotests durchzuführen
Und letzten Monat konnten ChatGPT-Benutzer den Chatverlauf deaktivieren, um zu verhindern, dass persönliche Daten zum Trainieren der KI verwendet werden Modelle.
Allerdings gibt es auch scharfsichtige Leute, die den „Hua-Punkt“ entdeckt haben, der zwei Punkte nicht beinhaltet, die in der Öffentlichkeit heiß diskutiert werden –
1 Fordern Sie KI-Modelle auf, die Quelle offenzulegen ihre Trainingsdaten.
2. Es ist KI-Modellen untersagt, durch geistige Eigentumsrechte geschützte Werke für die Ausbildung zu verwenden.
Das heißt, Altman hat diese beiden kontroversen Punkte sehr geschickt vermieden.
Altmans Vorschläge für KI-Sicherheitsregeln wurden von den Gesetzgebern gelobt, die sich gelegentlich für seine Aussage bedankten. Senator Altman, R-LA, wandte sich sogar an Altman und fragte, ob er daran interessiert wäre, bei der vom Kongress geschaffenen Regulierungsbehörde zu arbeiten.
Der Kongress ist entschlossen, künstliche Intelligenz zu regulieren, und es gibt erste Anzeichen. Anfang dieses Monats traf sich Altman zusammen mit den CEOs von Google, Microsoft und Nvidia mit Vizepräsidentin Kamala Harris im Weißen Haus, um die Entwicklung verantwortungsvoller KI zu besprechen.
Bereits im letzten Jahr hat das Weiße Haus die „Artificial Intelligence Bill of Rights“ vorgeschlagen, um verschiedene Anforderungen an die Branche zu stellen, beispielsweise zur Verhinderung von Diskriminierung.
Der Senator schlug vor, KI mit der Atombombe zu vergleichen.
Altman verwies auf die Praktiken von Regierungen auf der ganzen Welt bei der Regulierung von Atomwaffen und schlug die Idee vor, eine Agentur ähnlich der Internationalen Atomenergiebehörde zu gründen, um globale Regeln für die Industrie zu formulieren.
Im zweiten Interview mit Lex Fridman im April sagte Sam Altman abschließend: „Wir trainieren GPT-5 jetzt nicht, derzeit sind wir es.“ Ich mache einfach mehr Arbeit auf der Basis von GPT-4 GPT-5.
Und das sollte bedeuten, dass Google später in diesem Jahr sein bisher leistungsstärkstes künstliches Intelligenzsystem haben wird – Project Gemini.
Es wird gesagt, dass Gemini auf zukünftige Innovationen wie Speicherung und Planung ausgelegt ist. Es ist nicht nur von Anfang an multimodal, sondern auch sehr effizient bei der Integration von Tools und APIs. Es wird derzeit vom neu gegründeten Google Deepmind-Team entwickelt.
Marcus: OpenAI behauptet, für die ganze Menschheit zu sein, aber die Daten sind nicht transparentGary Marcus, Professor für Psychologie und Neurowissenschaften an der New York University, erschien ebenfalls im Zeugenstand.
Er ist noch aggressiver als die Kongressabgeordneten.
Seine Frage an Sam Altman kann man als „tödlich“ bezeichnen.
Ist der Zweck der Gründung von OpenAI nicht der Nutzen der gesamten Menschheit? Warum versucht es jetzt, eine Allianz mit Microsoft zu bilden?
OpenAI ist nicht offen und die Trainingsdaten von GPT-4 sind nicht transparent. Was bedeutet das?
Marcus kommt zu dem Schluss: „Wir haben beispiellose Chancen, aber wir stehen auch vor schrecklichen Risiken der Verantwortungslosigkeit der Unternehmen, weit verbreiteter Bereitstellung, mangelnder ordnungsgemäßer Regulierung und Unzuverlässigkeit.“ Es ist falsch mit dem, was Open und Microsoft tun.
Microsofts Bing AI Sydney zeigte einmal eine Reihe schockierender Verhaltensweisen.
„Sydney hat ein großes Problem. Wenn ich es wäre, würde ich es sofort vom Markt nehmen, aber Microsoft nicht.“
Marcus sagte, dass dieser Vorfall ein Weckruf für ihn sei – — Sogar eine gemeinnützige Organisation wie OpenAI kann von einem großen Unternehmen gekauft werden und tun und lassen, was es will.
Aber jetzt werden die Ansichten und das Leben der Menschen auf subtile Weise durch KI geprägt und verändert. Was ist, wenn jemand KI-Technologie absichtlich für schlechte Zwecke einsetzt?
Marcus machte sich darüber große Sorgen.
„Es besteht ein echtes Risiko, eine Kombination aus Technokratie und Oligarchie zuzulassen, bei der ein paar Unternehmen die Überzeugungen der Menschen beeinflussen können … Lassen Sie eine Handvoll Spieler das nutzen, was wir grundsätzlich nutzen. Es macht mir Angst, das nicht zu wissen.“ Daten, um dies zu tun“
Altman sagte, dass es in der KI-Branche kein Monopol gibt
In Bezug auf einige allgemeine rechtliche und regulatorische Fragen ist ersichtlich, dass Altman bereits einen Plan im Kopf hatte, Die Vereinbarungen sind klar für alle Senatoren getroffen.
Der Senator sagte, eine seiner „größten Sorgen“ in Bezug auf künstliche Intelligenz sei „dieses massive Unternehmensmonopol“.
Als Beispiel nannte er die Zusammenarbeit von OpenAI mit dem Technologieriesen Microsoft.
Altman sagte, dass seiner Meinung nach die Anzahl der Unternehmen, die große Modelle herstellen können, relativ gering ist, was die Regulierung erleichtern könnte.
Zum Beispiel können nur wenige Unternehmen generative KI im großen Maßstab herstellen, aber Konkurrenz gab es schon immer.
Der Aufstieg der sozialen Medien wurde durch die Verabschiedung von Abschnitt 230 durch den US-Kongress im Jahr 1996 erleichtert, der Websites vor der Haftung für Beiträge von Benutzern schützte.
Altman glaubt: Derzeit gibt es keine Möglichkeit für große Modelle, durch Abschnitt 230 geschützt zu werden. Es sollten neue Gesetze erlassen werden, um große Models vor der rechtlichen Haftung für die von ihnen ausgegebenen Inhalte zu schützen.
Ultraman vermied zunächst den Vorschlag des Senators, dass „KI die schwerwiegendsten Folgen haben könnte.“
Doch nachdem Marcus ihn freundlich daran erinnerte, dass Altman die Frage nicht beantwortete, wiederholte der Senator seine Frage.
Altman hat diese Frage letztendlich nicht direkt beantwortet.
Er sagte, OpenAI habe versucht, die Risiken künstlicher Intelligenz klar zum Ausdruck zu bringen, die auf „viele verschiedene Arten“ „erheblichen Schaden für die Welt“ anrichten könnten.
Er hat es noch einmal klargestellt. Um dieses Problem anzugehen, wurde OpenAI gegründet. „Wenn mit dieser Technologie etwas schief geht, könnte es furchtbar schief gehen.“
Tatsächlich bezeichnete Altman in einem Interview mit „StrictlyVC“ Anfang des Jahres das Aussterben der Menschheit als das Worst-Case-Szenario.
Irgendwann schien sogar Marcus gegenüber Ultraman nachgiebiger zu werden.
Gegen Ende der Anhörung sagte Marcus, der neben Altman saß: „Die Aufrichtigkeit, wenn er über Angst spricht, ist so offensichtlich, dass man sie auf einem Fernsehbildschirm nicht spüren kann.“
Verglichen mit Zuckerberg war Altmans Leistung in dieser Anhörung sehr anspruchsvoll, da er sich als soziale Kuh bereits im Umgang mit Politikern wohlfühlt. Schließlich war Altman jemand, der schon vor Jahren darüber nachgedacht hatte, für das Amt des Gouverneurs von Kalifornien zu kandidieren.
Und im Vergleich zu Xiao Zha, der aufgrund von Datenschutz und Währung bereits vor der Anhörung „viel Ärger“ hatte, hat OpenAI hinter Altman nicht nur fast keine öffentliche Kritik erhalten, sondern ist auch aktuell „Alles passiert“-Situation im KI-Bereich Der wichtigste Gründer.
Gegenüber Altman, der von Anfang an guten Willen zeigte und die Regulierung der KI forderte, werden diese Gesetzgeber, die fast alle „technische Amateure“ sind, vor dieser „Autorität“ natürlich viel sanfter und freundlicher auftreten.
In der gleichen Situation ist der Druck auf Altman also nicht in der gleichen Größenordnung wie der auf Zha.
Der Senat hat diese Bedenken geäußert. Wenn KI-Produkte ein werbebasiertes Geschäftsmodell wie soziale Internetplattformen übernehmen, führt dies zu manipulativem Produktdesign und süchtig machenden Algorithmen.
Altman sagte, dass ihm das Abonnementmodell „sehr gut gefällt“.
Aber OpenAI hat die Möglichkeit in Betracht gezogen, Anzeigen in der kostenlosen Version von ChatGPT zu schalten, um mit seinen kostenlosen Nutzern Geld zu verdienen.
Das obige ist der detaillierte Inhalt vonDer Vater von ChatGPT streitet auf dem Capitol Hill! OpenAI will mit der Regierung zusammenarbeiten, um an die Macht zu gelangen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!