OpenAI wird die KI-Bilderkennung einführen.
Neueste Nachrichten: Ihr Unternehmen entwickelt ein Erkennungstool.
Laut Chief Technology Officer Mira Murat:
Dieses Tool verfügt über eine sehr hohe Genauigkeit mit einer Genauigkeitsrate von bis zu 99 %.
Es befindet sich derzeit im internen Testprozess und wird bald der Öffentlichkeit zugänglich gemacht.
Ich muss sagen, dass diese Genauigkeitsrate immer noch etwas aufregend ist. Schließlich sind die bisherigen Bemühungen von OpenAI in der KI-Texterkennung mit einer „Genauigkeitsrate von 26 %“ kläglich gescheitert.
OpenAI verfügt bereits über ein Layout im Bereich der Erkennung von KI-Inhalten.
Im Januar dieses Jahres haben sie einen KI-Textdetektor auf den Markt gebracht, um KI-Inhalte von von Menschen erstellten Inhalten zu unterscheiden und so den Missbrauch von KI-Texten zu verhindern.
Dieses Tool wurde jedoch im Juli leider eingestellt: Ohne Ankündigung wurde die Seite direkt 404.
Der Grund ist, dass die Genauigkeitsrate zu niedrig ist, „fast wie beim Raten“.
Laut von OpenAI selbst veröffentlichten Daten:
Es kann nur 26 % des KI-generierten Textes korrekt identifizieren, während 9 % des von Menschen geschriebenen Textes falsch identifiziert werden.
Nach diesem überstürzten Ende erklärte OpenAI, dass es Benutzerfeedback aufnehmen, sich um Verbesserungen bemühen und effektivere Textquellentechnologie erforschen werde.
Gleichzeitig kündigten sie auch an, dass auch Tools entwickelt werden, um festzustellen, ob Bilder, Audio und Video von KI erzeugt werden.
Mit der Einführung von DALL-E 3 und der kontinuierlichen Weiterentwicklung ähnlicher Tools wie Midjourney werden die KI-Malfunktionen immer stärker.
Die größte Sorge besteht darin, dass es zur Herstellung gefälschter Nachrichtenbilder auf der ganzen Welt verwendet wird.
Zum Beispiel gibt es auf Reddit eine KI-gefälschte „Szene“ des „Erdbebens und Tsunamis der Stärke 9,1 in Cascadia 2001“, die mehr als 1,2.000 Internetnutzern gefallen hat.
Im Vergleich zu KI-Texterkennungstools ist die Entwicklung von KI-Zeichnungserkennungstools offensichtlich dringender (wahrscheinlich, weil „es niemanden interessiert, ob die Rede von ihm selbst oder von einer Sekretärin geschrieben wird“, aber „bei Bildern schon Wahrheit“ Es ist schwer, den Inhalt nicht zu glauben).
Aber gerade als das KI-Texterkennungstool von OpenAI offline war, wiesen einige Internetnutzer darauf hin:
Die gleichzeitige Entwicklung von Generierungs- und Erkennungstools ist von Natur aus widersprüchlich.
Wenn es einer Seite gut geht, bedeutet das, dass es der anderen Seite nicht gut geht, und es kann auch ein Interessenkonflikt vorliegen.
Die einfachere Idee ist die Übergabe an einen Dritten.
Aber die Leistung Dritter bei KI-Texten war bisher nicht gut.
Was die Technologie selbst betrifft, besteht eine weitere praktikable Methode darin, das Wasserzeichen zu verbergen, wenn KI Inhalte generiert.
Das macht Google.
Vor ein paar Tagen (Ende August dieses Jahres) hat Google vor OpenAI eine KI-Bilderkennungstechnologie eingeführt:
SynthID.
Es arbeitet derzeit mit Googles Bildmodell Imagen zusammen, sodass jedes vom Modell generierte Bild mit einer „von KI generierten Metadaten-ID“ eingebettet ist –
Auch wenn das Bild zugeschnitten ist, werden Filter hinzugefügt, eine Reihe von Modifikationen, wie z B. wechselnde Farben oder gar verlustbehaftete Komprimierung, haben keinen Einfluss auf die Erkennung.
In internen Tests hat SynthID eine große Anzahl bearbeiteter KI-Bilder genau identifiziert, die genaue Genauigkeitsrate wurde jedoch nicht bekannt gegeben.
Ich weiß nicht, welche Technologie das kommende Tool von OpenAI verwenden wird und ob es das mit der höchsten Genauigkeit auf dem Markt sein wird.
Die oben genannten Nachrichten stammen aus den Reden, die OpenAI CTO und Ultraman diese Woche auf der Tech Live-Konferenz des Wall Street Journal gehalten haben.
Bei dem Treffen verrieten die beiden auch weitere Neuigkeiten zu OpenAI.
So könnte beispielsweise bald die nächste Generation großer Modelle auf den Markt kommen.
Der Name wird nicht bekannt gegeben, aber OpenAI hat im Juli dieses Jahres die Marke GPT-5 angemeldet.
Manche Leute sind besorgt über die Genauigkeit von „GPT-5“ und fragen sich, ob es nicht mehr zu Fehlern oder falschen Inhalten führen kann.
In dieser Hinsicht war der CTO vorsichtiger und sagte nur „vielleicht“.
Sie erklärte:
Wir haben beim Halluzinationsproblem bei GPT-4 große Fortschritte gemacht, aber es ist noch nicht dort, wo wir sein müssen.
Ultraman sprach über den „Core Building Plan“.
Nach seinen ursprünglichen Worten zu urteilen, gibt es keine „Bestätigung“, aber es lässt auch unbegrenzten Raum für Fantasie:
Wenn wir dem Standardpfad folgen, werden wir dies definitiv nicht tun, aber ich werde diese Möglichkeit niemals ausschließen. .
Im Vergleich zum „Kernherstellungsplan“ reagierte Ultraman ganz einfach auf die Gerüchte über die Herstellung von Mobiltelefonen.
Im September dieses Jahres wurde bekannt, dass Apples ehemaliger Chief Design Officer Jony Ive (der seit 27 Jahren bei Apple arbeitet) mit OpenAI in Kontakt stand. Quellen sagten, dass Altman ein Hardwaregerät entwickeln wollte, um ein natürlicheres und realistischeres Design zu ermöglichen Interaktive Möglichkeit, mit KI zu interagieren. Auf intuitive Weise kann es als „iPhone der KI-Welt“ bezeichnet werden.
Jetzt sagte er allen:Ich bin mir noch nicht sicher, was ich tun möchte, ich habe nur ein paar vage Vorstellungen.Und:
Kein KI-Gerät wird die Popularität des iPhones in den Schatten stellen, und ich habe kein Interesse daran, mit irgendeinem Smartphone zu konkurrieren.
Referenzlink:
[1]https://finance.yahoo.com/news/openai-claims-tool-detect-ai-051511179.html?guccounter=1.
[2]https://gizmodo.com/openais-sam-altman-says-he-has-no-interest-in-competing-1850937333.
Das obige ist der detaillierte Inhalt vonOpenAI-Bilderkennungstool enthüllt, CTO: 99 % der von KI generierten Bilder können erkannt werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!