Heim Technologie-Peripheriegeräte KI In Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an

In Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an

May 12, 2023 pm 09:16 PM
chatgpt openai 聊天机器人

In Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an

Nachrichten vom 7. Mai: In der vergangenen Woche hat OpenAI die italienischen Regulierungsbehörden erfolgreich beschwichtigt und sie dazu veranlasst, das vorübergehende Verbot des Chatbots ChatGPT aufzuheben, aber der Kampf des Forschungsunternehmens für künstliche Intelligenz mit den europäischen Regulierungsbehörden ist noch nicht vorbei, es sind noch weitere Herausforderungen hinzugekommen gerade erst begonnen.

OpenAIs beliebter, aber umstrittener Chatbot ChatGPT stieß Anfang des Jahres in Italien auf eine große rechtliche Hürde, als die italienische Datenschutzbehörde (GPDP) OpenAI beschuldigte, gegen EU-Datenschutzvorschriften verstoßen zu haben. Um das Problem zu lösen, stimmte das Unternehmen zu, die Nutzung des Dienstes in Italien einzuschränken.

Am 28. April wurde ChatGPT in Italien neu gestartet und OpenAI ging problemlos auf die Bedenken der italienischen Datenschutzbehörde ein, ohne größere Änderungen an seinem Dienst vorzunehmen. Dies ist ein klarer Sieg für OpenAI.

Während die italienische Datenschutzbehörde die an ChatGPT vorgenommenen Änderungen „begrüßt“, haben die rechtlichen Herausforderungen für OpenAI und andere Unternehmen, die Chatbots entwickeln, möglicherweise gerade erst begonnen. Regulierungsbehörden in mehreren Ländern untersuchen die Art und Weise, wie diese KI-Tools Daten sammeln und Informationen generieren. Als Gründe hierfür werden die Erfassung nicht genehmigter Trainingsdaten bis hin zur Tendenz von Chatbots zur Übermittlung falscher Nachrichten angeführt.

Die Europäische Union hat mit der Durchsetzung der Datenschutz-Grundverordnung (DSGVO) begonnen, einem der weltweit wirksamsten Rechtsrahmen zum Schutz der Privatsphäre, dessen Auswirkungen weit über Europa hinausreichen könnten. Gleichzeitig arbeiten die EU-Gesetzgeber an einem Gesetz, das speziell auf künstliche Intelligenz abzielt und voraussichtlich auch eine neue Ära der Regulierung von Systemen wie ChatGPT einläuten wird.

ChatGPT ist zum Ziel vieler Parteien geworden.

ChatGPT ist eine der meistgesehenen Anwendungen im Bereich der generativen künstlichen Intelligenz (AIGC) und umfasst eine Vielzahl von Tools zum Generieren von Text, Bildern, Videos und Audios basierend auf Benutzereingaben . Berichten zufolge erreichte ChatGPT nur zwei Monate nach seiner Einführung im November 2022 100 Millionen aktive Nutzer pro Monat und ist damit eine der am schnellsten wachsenden Verbraucheranwendungen in der Geschichte.

Mit ChatGPT können Menschen Texte in verschiedene Sprachen übersetzen, Studienarbeiten schreiben und sogar Code generieren. Einige Kritiker, darunter auch Aufsichtsbehörden, verweisen jedoch auf die unzuverlässigen Informationen, die ChatGPT ausgibt, Urheberrechtsprobleme und Mängel beim Datenschutz.

Italien ist das erste Land, das gegen ChatGPT vorgeht. Am 31. März beschuldigte die italienische Datenschutzbehörde OpenAI, gegen die Datenschutz-Grundverordnung verstoßen zu haben, indem es ChatGPT erlaubt habe, ungenaue oder irreführende Informationen bereitzustellen, Benutzer nicht über Datenerfassungspraktiken zu informieren und Vorschriften zur Verarbeitung personenbezogener Daten nicht einzuhalten Verhindern Sie angemessen, dass Kinder unter 13 Jahren den Dienst nutzen. Die italienische Datenschutzbehörde hat OpenAI angewiesen, die Verwendung personenbezogener Daten italienischer Staatsbürger in den Trainingsdaten von ChatGPT sofort einzustellen.

Andere Länder haben derzeit keine ähnlich großen Maßnahmen ergriffen. Doch seit März haben mindestens drei EU-Länder – Deutschland, Frankreich und Spanien – eigene Untersuchungen zu ChatGPT eingeleitet. Unterdessen prüft Kanada auf der anderen Seite des Atlantiks die Datenschutzbedenken von ChatGPT im Rahmen seines Personal Information Protection and Electronic Documents Act (PIPEDA). Der Europäische Datenschutzausschuss (EDPB) hat sogar eine eigene Arbeitsgruppe zur Koordinierung von Untersuchungen eingerichtet. Wenn diese Agenturen Änderungen von OpenAI verlangen, könnte sich dies auf die Art und Weise auswirken, wie das Unternehmen Benutzer auf der ganzen Welt bedient.

Regulierungsbehörden haben zwei große Bedenken

Die größten Bedenken der Regulierungsbehörden in Bezug auf ChatGPT lassen sich hauptsächlich in zwei Kategorien einteilen: Woher kommen die Trainingsdaten? Wie liefert OpenAI Informationen an Benutzer?

Um ChatGPT zu unterstützen, erfordert OpenAI die Verwendung von GPT-3.5 und GPT-4 Large Language Models (LLM), die auf großen Mengen von Menschen generierten Texten trainiert werden. OpenAI bleibt vorsichtig, was den genauen Trainingstext angeht, den es verwendet, sagt aber, dass es sich auf „eine Vielzahl autorisierter, öffentlich zugänglicher Datenquellen, die öffentlich zugängliche persönliche Informationen umfassen können“, stützt.

Dies kann im Rahmen der Datenschutz-Grundverordnung zu großen Problemen führen. Das 2018 in Kraft getretene Gesetz gilt für alle Dienste, die Daten von EU-Bürgern sammeln oder verarbeiten, unabhängig davon, wo die Organisation, die den Dienst bereitstellt, ihren Sitz hat. Die Datenschutz-Grundverordnung verlangt von Unternehmen, dass sie vor der Erhebung personenbezogener Daten eine ausdrückliche Einwilligung der Nutzer einholen, einen rechtsgültigen Grund für die Datenerhebung haben und transparent darüber sein müssen, wie die Daten verwendet und gespeichert werden.

Europäische Regulierungsbehörden behaupten, dass die Vertraulichkeit der Trainingsdaten von OpenAI bedeutet, dass sie nicht bestätigen können, ob die verwendeten persönlichen Informationen ursprünglich die Zustimmung der Benutzer hatten. Die italienische Datenschutzbehörde argumentierte, dass OpenAI überhaupt keine „Rechtsgrundlage“ für die Erhebung der Informationen habe. Bisher wurden OpenAI und andere Unternehmen kaum untersucht.

Ein weiteres Problem ist das „Recht auf Vergessenwerden“ der Datenschutz-Grundverordnung, das es Nutzern ermöglicht, Unternehmen aufzufordern, ihre persönlichen Daten zu korrigieren oder vollständig zu löschen. OpenAI hat seine Datenschutzrichtlinie im Voraus aktualisiert, um die Beantwortung dieser Anfragen zu erleichtern. Aber wenn man bedenkt, wie komplex die Trennung sein kann, sobald bestimmte Daten in diese großen Sprachmodelle eingespeist werden, ist es immer fraglich, ob sie technisch machbar ist.

OpenAI sammelt Informationen auch direkt von Benutzern. Wie andere Internetplattformen werden auch hier standardmäßig eine Reihe von Nutzerdaten wie Name, Kontaktdaten und Kreditkartendaten erfasst. Aber was noch wichtiger ist: OpenAI zeichnet Benutzerinteraktionen mit ChatGPT auf. Wie auf der offiziellen Website angegeben, können OpenAI-Mitarbeiter diese Daten einsehen und zum Trainieren ihrer Modelle verwenden. In Anbetracht der persönlichen Fragen, die die Leute ChatGPT gestellt haben, wie zum Beispiel, dass sie sich den Bot als Therapeuten oder Arzt vorstellen, bedeutet dies, dass das Unternehmen alle Arten sensibler Daten sammelt.

Diese Daten können Informationen über Minderjährige enthalten. Obwohl es in der Richtlinie von OpenAI heißt, dass es „wissentlich keine personenbezogenen Daten von Kindern unter 13 Jahren sammelt“, gibt es keinen strengen Schwellenwert für die Altersüberprüfung. Dies steht im Widerspruch zu den EU-Vorschriften, die die Erfassung von Daten von Minderjährigen unter 13 Jahren verbieten und in einigen Ländern die Zustimmung der Eltern zur Erfassung von Daten von Minderjährigen unter 16 Jahren erfordern. Auf der Ausgabeseite behauptete die italienische Datenschutzbehörde, dass das Fehlen eines Altersfilters bei ChatGPT es Minderjährigen ermöglicht habe, „Antworten zu erhalten, die im Hinblick auf ihren Entwicklungsstand und ihr Selbstbewusstsein absolut unangemessen sind“.

OpenAI verfügt über einen großen Spielraum bei der Verwendung dieser Daten, was viele Regulierungsbehörden beunruhigt, und es bestehen Sicherheitsrisiken bei der Speicherung dieser Daten. Unternehmen wie Samsung und JPMorgan Chase haben ihren Mitarbeitern die Verwendung von AIGC-Tools verboten, weil sie befürchten, dass sie sensible Daten hochladen würden. Tatsächlich erlitt ChatGPT vor der Verhängung des Verbots durch Italien ein schwerwiegendes Datenleck, das zur Offenlegung der Chatverläufe und E-Mail-Adressen einer großen Anzahl von Benutzern führte.

Darüber hinaus kann die Tendenz von ChatGPT, falsche Informationen bereitzustellen, ebenfalls zu Problemen führen. Die Datenschutz-Grundverordnung schreibt vor, dass alle personenbezogenen Daten korrekt sein müssen, ein Punkt, den die italienische Datenschutzbehörde in ihrer Ankündigung betont. Dies kann bei den meisten KI-Textgeneratoren zu Problemen führen, da diese Tools anfällig für „Halluzinationen“ sind, also sachlich falsche oder irrelevante Antworten auf Anfragen geben. Dies hat anderswo zu realen Problemen geführt, beispielsweise als ein australischer Bürgermeister damit drohte, OpenAI wegen Verleumdung zu verklagen, nachdem ChatGPT fälschlicherweise behauptet hatte, er sei wegen Bestechung ins Gefängnis gekommen.

Besondere Regulierungsregeln stehen kurz vor der Einführung

ChatGPT ist aufgrund seiner Popularität und Dominanz auf dem Markt für künstliche Intelligenz besonders anfällig für Regulierungsziele . Aber wie bei Konkurrenten und Partnern wie Googles Bard und Microsofts OpenAI-basierter Azure AI gibt es keinen Grund, warum es nicht unter die Lupe genommen werden sollte. Vor ChatGPT hatte Italien der Chatbot-Plattform Replika verboten, Informationen über Minderjährige zu sammeln. Derzeit ist die Plattform weiterhin verboten.

Obwohl es sich bei der Datenschutz-Grundverordnung um eine Reihe wirkungsvoller Gesetze handelt, wurde sie nicht geschaffen, um Probleme zu lösen, die nur mit künstlicher Intelligenz zu tun haben. Möglicherweise werden jedoch spezielle Regulierungsvorschriften eingeführt. Im Jahr 2021 hat die Europäische Union einen Entwurf für die erste Fassung ihres Künstliche-Intelligenz-Gesetz (KI-Gesetz) vorgelegt, das zusammen mit der Datenschutz-Grundverordnung umgesetzt wird. Das KI-Gesetz würde KI-Tools auf der Grundlage ihres Risikoniveaus regulieren, von „minimalem Risiko“ (z. B. Spam-Filter) über „hohes Risiko“ (KI-Tools, die für die Strafverfolgung oder Bildung verwendet werden) bis hin zu „unbrauchbarem Risiko“. (z. B. Sozialkreditsystem).

Nach der Explosion groß angelegter Sprachmodelle wie ChatGPT bemühen sich die Gesetzgeber nun darum, Regeln für „Basismodelle“ und „allgemeine künstliche Intelligenzsysteme (GPAI)“ hinzuzufügen. Beide Begriffe beziehen sich auf große KI-Systeme, einschließlich LLMs, und können diese als „Hochrisiko“-Dienste einstufen.

Die Bestimmungen des Künstliche-Intelligence-Gesetzes gehen über den Datenschutz hinaus. Eine kürzlich vorgeschlagene Änderung würde Unternehmen dazu zwingen, urheberrechtlich geschütztes Material offenzulegen, das zur Entwicklung von AIGC-Tools verwendet wird. Dies könnte einst geheime Datensätze offenlegen und mehr Unternehmen anfällig für Vertragsverletzungsklagen machen, die sich bereits auf einige Dienste ausgewirkt haben.

Spezielle KI-Gesetze könnten bis Ende 2024 verabschiedet werden

Derzeit kann es einige Zeit dauern, diesen Gesetzentwurf umzusetzen. Die EU-Gesetzgeber haben am 27. April eine Einigung über einen vorläufigen Gesetzentwurf zur künstlichen Intelligenz erzielt, ein Ausschuss muss jedoch noch am 11. Mai über den Entwurf abstimmen, wobei der endgültige Vorschlag voraussichtlich Mitte Juni veröffentlicht wird. Der Europäische Rat, das EU-Parlament und die Europäische Kommission müssen dann alle verbleibenden Streitigkeiten klären, bevor das Gesetz umgesetzt werden kann. Wenn alles gut geht, könnte es in der zweiten Hälfte des Jahres 2024 verabschiedet werden.

Der Streit zwischen Italien und OpenAI gibt uns vorerst einen ersten Einblick in die Art und Weise, wie Regulierungsbehörden und KI-Unternehmen verhandeln könnten. Die italienische Datenschutzbehörde sagte, sie werde das Verbot aufheben, wenn OpenAI bis zum 30. April mehreren vorgeschlagenen Resolutionen nachkommt.

Zu den Beschlüssen gehört die Information der Benutzer darüber, wie ChatGPT ihre Daten speichert und verwendet, die Anforderung der ausdrücklichen Zustimmung der Benutzer zur Verwendung dieser Daten, die Erleichterung der Korrektur oder Löschung falscher personenbezogener Daten, die von ChatGPT generiert wurden, und die Verpflichtung italienischer Benutzer zur Bestätigung dass Sie bei der Registrierung eines Kontos über 18 Jahre alt sind. Obwohl OpenAI diese Vorschriften nicht eingehalten hat, hat es die italienischen Regulierungsbehörden zufrieden gestellt und den Zugang in Italien wiederhergestellt.

OpenAI muss noch andere Bedingungen erfüllen, darunter die Festlegung einer strengeren Altersgrenze bis zum 30. September, das Herausfiltern von Minderjährigen unter 13 Jahren und die Verpflichtung älterer Minderjähriger, die Zustimmung der Eltern einzuholen. Wenn dies fehlschlägt, kann OpenAI erneut gesperrt werden. Allerdings scheint OpenAI ein Zeichen dafür gesetzt zu haben, dass Europa das Verhalten von KI-Unternehmen zumindest bis zur Einführung neuer Gesetze für akzeptabel hält. (Xiao Xiao)

Das obige ist der detaillierte Inhalt vonIn Italien wieder online, aber die regulatorischen Probleme von OpenAI fangen gerade erst an. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Crossplay haben?
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Aug 09, 2024 pm 09:37 PM

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

Wählen Sie das Einbettungsmodell, das am besten zu Ihren Daten passt: Ein Vergleichstest von OpenAI und mehrsprachigen Open-Source-Einbettungen Wählen Sie das Einbettungsmodell, das am besten zu Ihren Daten passt: Ein Vergleichstest von OpenAI und mehrsprachigen Open-Source-Einbettungen Feb 26, 2024 pm 06:10 PM

OpenAI kündigte kürzlich die Einführung seines Einbettungsmodells embeddingv3 der neuesten Generation an, das seiner Meinung nach das leistungsstärkste Einbettungsmodell mit höherer Mehrsprachenleistung ist. Diese Reihe von Modellen ist in zwei Typen unterteilt: das kleinere Text-Embeddings-3-Small und das leistungsfähigere und größere Text-Embeddings-3-Large. Es werden nur wenige Informationen darüber offengelegt, wie diese Modelle entworfen und trainiert werden, und auf die Modelle kann nur über kostenpflichtige APIs zugegriffen werden. Es gab also viele Open-Source-Einbettungsmodelle. Aber wie schneiden diese Open-Source-Modelle im Vergleich zum Closed-Source-Modell von OpenAI ab? In diesem Artikel wird die Leistung dieser neuen Modelle empirisch mit Open-Source-Modellen verglichen. Wir planen, Daten zu erstellen

So installieren Sie ChatGPT auf einem Mobiltelefon So installieren Sie ChatGPT auf einem Mobiltelefon Mar 05, 2024 pm 02:31 PM

Installationsschritte: 1. Laden Sie die ChatGTP-Software von der offiziellen ChatGTP-Website oder dem mobilen Store herunter. 2. Wählen Sie nach dem Öffnen in der Einstellungsoberfläche die Sprache aus. 3. Wählen Sie in der Spieloberfläche das Mensch-Maschine-Spiel aus 4. Geben Sie nach dem Start Befehle in das Chatfenster ein, um mit der Software zu interagieren.

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Warten Sie nicht auf OpenAI, sondern darauf, dass Open-Sora vollständig Open Source ist Warten Sie nicht auf OpenAI, sondern darauf, dass Open-Sora vollständig Open Source ist Mar 18, 2024 pm 08:40 PM

Vor nicht allzu langer Zeit wurde OpenAISora mit seinen erstaunlichen Videogenerierungseffekten schnell populär und stach aus der Masse der literarischen Videomodelle hervor und rückte in den Mittelpunkt der weltweiten Aufmerksamkeit. Nach der Einführung des Sora-Trainings-Inferenzreproduktionsprozesses mit einer Kostenreduzierung von 46 % vor zwei Wochen hat das Colossal-AI-Team das weltweit erste Sora-ähnliche Architektur-Videogenerierungsmodell „Open-Sora1.0“ vollständig als Open-Source-Lösung bereitgestellt, das das gesamte Spektrum abdeckt Lernen Sie den Trainingsprozess, einschließlich der Datenverarbeitung, aller Trainingsdetails und Modellgewichte, kennen und schließen Sie sich mit globalen KI-Enthusiasten zusammen, um eine neue Ära der Videoerstellung voranzutreiben. Schauen wir uns für einen kleinen Vorgeschmack ein Video einer geschäftigen Stadt an, das mit dem vom Colossal-AI-Team veröffentlichten Modell „Open-Sora1.0“ erstellt wurde. Open-Sora1.0

Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Apr 15, 2024 am 09:01 AM

Ollama ist ein superpraktisches Tool, mit dem Sie Open-Source-Modelle wie Llama2, Mistral und Gemma problemlos lokal ausführen können. In diesem Artikel werde ich vorstellen, wie man Ollama zum Vektorisieren von Text verwendet. Wenn Sie Ollama nicht lokal installiert haben, können Sie diesen Artikel lesen. In diesem Artikel verwenden wir das Modell nomic-embed-text[2]. Es handelt sich um einen Text-Encoder, der OpenAI text-embedding-ada-002 und text-embedding-3-small bei kurzen und langen Kontextaufgaben übertrifft. Starten Sie den nomic-embed-text-Dienst, wenn Sie o erfolgreich installiert haben

Kann Chatgpt in China verwendet werden? Kann Chatgpt in China verwendet werden? Mar 05, 2024 pm 03:05 PM

chatgpt kann in China verwendet werden, kann jedoch nicht registriert werden. Wenn Benutzer sich registrieren möchten, können sie zur Registrierung eine ausländische Mobiltelefonnummer verwenden. Beachten Sie, dass während des Registrierungsprozesses auf die Netzwerkumgebung umgestellt werden muss eine fremde IP.

Plötzlich! OpenAI entlässt Ilya-Verbündeten wegen Verdacht auf Informationslecks Plötzlich! OpenAI entlässt Ilya-Verbündeten wegen Verdacht auf Informationslecks Apr 15, 2024 am 09:01 AM

Plötzlich! OpenAI entließ den Mitarbeiter, der Grund: Verdacht auf Informationslecks. Einer davon ist Leopold Aschenbrenner, ein Verbündeter des vermissten Chefwissenschaftlers Ilya und Kernmitglied des Superalignment-Teams. Die andere Person ist auch nicht einfach. Er ist Pavel Izmailov, ein Forscher im LLM-Inferenzteam, der auch im Super-Alignment-Team gearbeitet hat. Es ist unklar, welche Informationen die beiden Männer genau preisgegeben haben. Nachdem die Nachricht bekannt wurde, äußerten sich viele Internetnutzer „ziemlich schockiert“: Ich habe Aschenbrenners Beitrag vor nicht allzu langer Zeit gesehen und hatte das Gefühl, dass er in seiner Karriere auf dem Vormarsch ist. Mit einer solchen Veränderung habe ich nicht gerechnet. Einige Internetnutzer auf dem Bild denken: OpenAI hat Aschenbrenner, I. verloren

See all articles