Generative KI ist der allgemeine Begriff für jeden automatisierten Prozess, der Algorithmen verwendet, um Daten zu generieren, zu manipulieren oder zu synthetisieren, typischerweise in Form von Bildern oder von Menschen lesbarem Text. Man nennt es generativ, weil KI etwas erschafft, das es vorher nicht gab. Darin unterscheidet sie sich von der diskriminierenden KI, die zwischen verschiedenen Arten von Eingaben unterscheidet. Mit anderen Worten: Die diskriminierende KI versucht, Fragen wie „Ist dieses Bild ein Kaninchen oder ein Löwe?“ zu beantworten, während die generative KI auf die Aufforderung „Stellen Sie sich ein Bild von einem Löwen und einem Kaninchen vor, die zusammen sitzen“ antwortet.
Stellt hauptsächlich generative KI und deren Verwendung mit beliebten Modellen wie ChatGPT und DALL-E vor. Wir werden auch die Grenzen der Technologie berücksichtigen, einschließlich der Frage, warum „zu viele Finger“ zum eindeutigen Zeichen generativer Kunst geworden sind.
Seit das Massachusetts Institute of Technology (MIT) 1966 den Chatbot ELIZA entwickelte, der das Gespräch mit einem Therapeuten simulierte, existiert die generative künstliche Intelligenz seit vielen Jahren. Doch die jahrelange Arbeit im Bereich der künstlichen Intelligenz und des maschinellen Lernens hat kürzlich mit der Veröffentlichung neuer generativer KI-Systeme Früchte getragen. Die Leute haben definitiv von ChatGPT gehört, einem textbasierten KI-Chatbot, der sehr menschenähnliche Prosa produziert. DALL-E und StableDiffusion erregten auch Aufmerksamkeit für ihre Fähigkeit, lebendige und realistische Bilder basierend auf Texthinweisen zu erstellen. Wir bezeichnen diese und ähnliche Systeme oft als Modelle, weil sie Versuche darstellen, einen Aspekt der realen Welt auf der Grundlage einer Teilmenge (manchmal einer sehr großen Teilmenge) von Informationen zu simulieren oder zu modellieren.
Die Leistung dieser Systeme ist so unglaublich, dass viele philosophische Fragen über die Natur des Bewusstseins aufwerfen und sich Sorgen über die wirtschaftlichen Auswirkungen der generativen KI auf die menschliche Arbeit machen. Aber obwohl all diese KI-Kreationen unbestreitbar eine große Neuigkeit sind, passiert unter der Oberfläche möglicherweise weniger, als manche Leute denken. Wir werden diese großen Fragen später besprechen. Schauen wir uns zunächst an, was unter Modellen wie ChatGPT und DALL-E vor sich geht.
Generative KI nutzt maschinelles Lernen, um große Mengen visueller oder textlicher Daten zu verarbeiten, von denen viele aus dem Internet stammen, und dann zu bestimmen, welche Dinge erscheinen am wahrscheinlichsten in der Nähe anderer Dinge. Ein Großteil des Programmieraufwands bei der generativen KI fließt in die Erstellung von Algorithmen, die zwischen den „Dingen“ unterscheiden können, die die Ersteller der KI interessieren – Wörter und Sätze für einen Chatbot wie ChatGPT oder die visuellen Elemente von DALL-E. Aber im Grunde erzeugt die generative KI ihren Output durch die Auswertung eines großen Datenkorpus und reagiert dann auf Eingabeaufforderungen mit etwas innerhalb eines vom Korpus festgelegten Wahrscheinlichkeitsbereichs.
Autovervollständigung – wenn Ihr Telefon oder Gmail Sie auffordert, den Rest des Wortes oder Satzes anzugeben, den Sie eingeben – ist eine Form generativer künstlicher Intelligenz auf niedriger Ebene. Modelle wie ChatGPT und DALL-E bringen diese Idee einfach auf eine höhere Ebene. Für verschiedene Modelltypen werden hier einige grundlegende Techniken verwendet. ChatGPT verwendet sogenannte Konverter (das bedeutet das T). Der Konverter leitet die Bedeutung langer Textsequenzen ab, um die Beziehung zwischen verschiedenen Wörtern oder semantischen Komponenten zu verstehen, und bestimmt dann die Wahrscheinlichkeit, dass sie nahe beieinander vorkommen. Diese Deformer werden in einem Prozess namens Pretraining (PinChatGPT) unbeaufsichtigt auf einem großen Korpus natürlichsprachlicher Texte ausgeführt und dann von Menschen, die mit dem Modell interagieren, feinabgestimmt.
Eines der wichtigsten Dinge, an die man sich hier erinnern sollte, ist, dass trotz menschlicher Eingriffe während des Trainings der Großteil des Lernens und der Anpassung automatisch erfolgt. Damit das Modell interessante Ergebnisse liefert, sind viele Iterationen erforderlich, daher ist eine Automatisierung unerlässlich. Dieser Vorgang erfordert viele Berechnungen.
Ist generative KI empfindungsfähig?
Die Mathematik und die Codierung, die zum Erstellen und Trainieren generativer KI-Modelle verwendet werden, sind recht komplex und gehen weit über den Rahmen dieses Artikels hinaus. Aber wenn man mit dem Endergebnismodell dieses Prozesses interagiert, ist das Erlebnis sicherlich unglaublich. Sie können den Dell-e etwas produzieren lassen, das wie ein echtes Kunstwerk aussieht. Sie können mit ChatGPT ein Gespräch führen, genau wie mit einem anderen Menschen. Haben Forscher wirklich eine Denkmaschine geschaffen?
Chris Phipps ist der ehemalige Direktor für natürliche Sprachverarbeitung bei IBM und war an der Entwicklung von Watson-Produkten für künstliche Intelligenz beteiligt. Er beschrieb ChatGPT als „sehr gute Vorhersagemaschine“.
Es ist sehr gut darin, vorherzusagen, was Menschen als kohärent empfinden. Es ist nicht immer kohärent (meistens), aber das liegt nicht daran, dass ChatGPT es „versteht“. Das Gegenteil ist der Fall: Die Menschen, die die Ausgabe konsumieren, sind wirklich gut darin, alle impliziten Annahmen zu treffen, die wir benötigen, um die Ausgabe aussagekräftig zu machen.
Phipps, der auch Komiker ist, verglich es mit einem gängigen Improvisationsspiel namens MindMeld.
Zwei Personen denken sich jeweils ein Wort aus und sagen es dann gleichzeitig laut – Sie können „Stiefel“ sagen, ich sage „Baum“. Wir haben uns die Wörter völlig unabhängig ausgedacht und zunächst hatten sie keinen Bezug zueinander. Die nächsten beiden Teilnehmer nehmen die beiden Wörter und versuchen herauszufinden, was sie gemeinsam haben, indem sie sie laut aussprechen. Das Spiel geht so lange weiter, bis beide Teilnehmer dasselbe Wort sagen.
Vielleicht haben beide „Holzfäller“ gesagt. Das mag magisch erscheinen, aber in Wirklichkeit nutzen wir das menschliche Gehirn, um über die Eingabe („Stiefel“ und „Baum“) nachzudenken und Zusammenhänge zu finden. Es geht uns ums Verstehen, nicht um Maschinen. In ChatGPT und DALL-E ist viel mehr los, als die Leute zugeben. ChatGPT kann eine Geschichte schreiben, aber wir Menschen brauchen viel Arbeit, um sie sinnvoll zu gestalten.
Man könnte diesen KI-Modellen einige Hinweise geben, die Phipps‘ Standpunkt deutlich machen würden. Betrachten Sie zum Beispiel dieses Rätsel: „Was ist schwerer, ein Pfund Blei oder ein Pfund Federn?“ Die Antwort lautet natürlich, dass sie das gleiche Gewicht haben (ein Pfund), auch wenn unser Instinkt oder unser gesunder Menschenverstand es uns sagen könnten dass Federn leichter sind.
ChatGPT wird dieses Rätsel richtig beantworten, und Sie könnten denken, dass dies der Fall ist, weil es sich um einen kalten, logischen Computer handelt, der nicht durch den „gesunden Menschenverstand“ gestört wird. Aber das passiert nicht hinter den Kulissen. ChatGPT berechnet eine Antwort nicht logisch; es erzeugt lediglich eine Ausgabe basierend auf Vorhersagen aus einer Frage über ein Pfund Federn und ein Pfund Blei. Da sein Trainingssatz eine Menge Text enthält, der das Rätsel erklärt, stellt er eine Version der richtigen Antwort zusammen. Wenn Sie ChatGPT jedoch fragen, ob zwei Pfund Federn mehr wiegen als ein Pfund Blei, wird Ihnen das Programm mit Sicherheit mitteilen, dass sie dasselbe wiegen, da dies basierend auf dem Trainingssatz immer noch das wahrscheinlichste Ergebnis ist, das an eine Eingabeaufforderung ausgegeben wird Federn und Blei.
Das obige ist der detaillierte Inhalt vonNeu formuliert: Was ist generative künstliche Intelligenz und wie entwickelt sie sich?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!