


„Smart Emergence' der Spracherzeugung: 100.000 Stunden Datentraining, Amazon bietet 1 Milliarde Parameter BASE TTS
Mit der rasanten Entwicklung generativer Deep-Learning-Modelle haben die Verarbeitung natürlicher Sprache (NLP) und Computer Vision (CV) erhebliche Veränderungen erfahren. Von den früheren überwachten Modellen, die eine spezielle Schulung erforderten, bis hin zu einem allgemeinen Modell, das nur einfache und klare Anweisungen zur Erledigung verschiedener Aufgaben erfordert. Diese Transformation bietet uns eine effizientere und flexiblere Lösung.
Im Bereich der Sprachverarbeitung und Text-to-Speech (TTS) findet ein Wandel statt. Durch die Nutzung Tausender Stunden an Daten bringt das Modell die Synthese immer näher an die reale menschliche Sprache heran.
In einer aktuellen Studie hat Amazon BASE TTS offiziell eingeführt und damit die Parameterskala des TTS-Modells auf ein beispielloses Niveau von 1 Milliarde erhöht.
Titel des Papiers: BASE TTS: Lehren aus der Erstellung eines Text-to-Speech-Modells mit Milliarden Parametern auf 100.000 Stunden Daten
Link zum Papier: https://arxiv.org/pdf/2402.08093. pdf
BASE TTS ist ein groß angelegtes mehrsprachiges TTS-System (LTTS) mit mehreren Sprechern. Für das Training wurden etwa 100.000 Stunden öffentlich zugänglicher Sprachdaten verwendet, was doppelt so viel ist wie bei VALL-E, das zuvor über die höchste Menge an Trainingsdaten verfügte. Inspiriert durch die erfolgreiche Erfahrung von LLM behandelt BASE TTS TTS als das Problem der Vorhersage des nächsten Tokens und kombiniert es mit einer großen Menge an Trainingsdaten, um leistungsstarke Funktionen für mehrere Sprachen und mehrere Sprecher zu erzielen.
Die Hauptbeiträge dieses Artikels sind wie folgt zusammengefasst:
Das vorgeschlagene BASE TTS ist derzeit das größte TTS-Modell mit 1 Milliarde Parametern und wird auf der Grundlage eines Datensatzes trainiert, der aus 100.000 Stunden öffentlich zugänglicher Sprachdaten besteht. Durch die subjektive Bewertung übertrifft BASE TTS das öffentliche LTTS-Basismodell in der Leistung.
In diesem Artikel wird gezeigt, wie Sie die Fähigkeit von BASE TTS, geeignete Prosodie für komplexe Texte wiederzugeben, verbessern können, indem Sie sie auf größere Datensätze und Modellgrößen erweitern. Um das Textverständnis und die Wiedergabefähigkeiten groß angelegter TTS-Modelle zu bewerten, entwickelten die Forscher einen Testsatz für „Emergent Capability“ und berichteten über die Leistung verschiedener Varianten von BASE TTS bei diesem Benchmark. Die Ergebnisse zeigen, dass mit zunehmender Größe des Datensatzes und zunehmender Anzahl von Parametern die Qualität von BASE TTS schrittweise verbessert wird.
3. Es wird eine neue diskrete Sprachdarstellung basierend auf dem WavLM-SSL-Modell vorgeschlagen, die darauf abzielt, nur die phonologischen und prosodischen Informationen des Sprachsignals zu erfassen. Diese Darstellungen übertreffen grundlegende Quantisierungsmethoden und ermöglichen die Dekodierung in hochwertige Wellenformen durch einfache, schnelle und Streaming-Decoder trotz hoher Komprimierungsgrade (nur 400 Bit/s).
Als nächstes schauen wir uns die Papierdetails an.
BASIS-TTS-Modell
Ähnlich wie bei jüngsten Arbeiten zur Sprachmodellierung haben Forscher einen LLM-basierten Ansatz zur Bewältigung von TTS-Aufgaben übernommen. Text wird in ein transformatorbasiertes autoregressives Modell eingespeist, das diskrete Audiodarstellungen (sogenannte Sprachcodes) vorhersagt, die dann von einem separat trainierten Decoder, der aus linearen und Faltungsschichten besteht, in Wellenformen dekodiert werden.
BASE TTS wurde entwickelt, um die gemeinsame Verteilung von Text-Tokens gefolgt von diskreten Sprachdarstellungen zu simulieren, was Forscher als Sprachcodierung bezeichnen. Die Diskretisierung von Sprache durch Audio-Codecs ist von zentraler Bedeutung für den Entwurf, da sie die direkte Anwendung von für LLM entwickelten Methoden ermöglicht, die die Grundlage für aktuelle Forschungsergebnisse in LTTS bilden. Konkret modellieren wir die Sprachkodierung mithilfe eines dekodierenden autoregressiven Transformers mit einem entropieübergreifenden Trainingsziel. Obwohl dieses Ziel einfach ist, kann es die komplexe Wahrscheinlichkeitsverteilung expressiver Sprache erfassen und so das Problem der übermäßigen Glättung, das in frühen neuronalen TTS-Systemen auftritt, abmildern. Als implizites Sprachmodell wird BASE TTS auch einen qualitativen Sprung bei der Prosodie-Wiedergabe machen, sobald ausreichend große Varianten auf ausreichend Daten trainiert werden.
Diskrete Sprachdarstellung
Diskrete Darstellungen sind die Grundlage für den Erfolg von LLM, aber die Identifizierung kompakter und informativer Darstellungen in der Sprache ist nicht so offensichtlich wie im Text und wurde bisher weniger erforscht. Für BASE TTS versuchten die Forscher zunächst, die VQ-VAE-Basislinie (Abschnitt 2.2.1) zu verwenden, die auf einer Autoencoder-Architektur basiert, um das Mel-Spektrogramm durch diskrete Engpässe zu rekonstruieren. VQ-VAE hat sich zu einem erfolgreichen Paradigma für die Sprach- und Bilddarstellung entwickelt, insbesondere als Modellierungseinheit für TTS.
Die Forscher stellten außerdem eine neue Methode zum Erlernen der Sprachdarstellung durch WavLM-basierte Sprachcodierung vor (Abschnitt 2.2.2). Bei diesem Ansatz diskretisieren Forscher aus dem WavLM-SSL-Modell extrahierte Merkmale, um Mel-Spektrogramme zu rekonstruieren. Die Forscher verwendeten eine zusätzliche Verlustfunktion, um die Sprechertrennung zu erleichtern, und komprimierten die generierten Sprachcodes mithilfe von Byte-Pair-Encoding (BPE), um die Sequenzlänge zu reduzieren, was die Verwendung des Transformers für längere Audiomodellierung ermöglichte.
Beide Darstellungen sind komprimiert (325 Bit/s bzw. 400 Bit/s), um eine effizientere autoregressive Modellierung im Vergleich zu gängigen Audio-Codecs zu ermöglichen. Basierend auf dieser Komprimierungsstufe besteht das nächste Ziel darin, Informationen aus dem Sprachcode zu entfernen, die während der Dekodierung rekonstruiert werden können (Sprecher, Audiorauschen usw.), um sicherzustellen, dass die Kapazität des Sprachcodes hauptsächlich zur Kodierung von Phonetik und Prosodik genutzt wird Information.
Autoregressive Sprachmodellierung (SpeechGPT)
Die Forscher trainierten ein autoregressives Modell „SpeechGPT“ mit einer GPT-2-Architektur, das zur Vorhersage der Sprachcodierung abhängig von Text und Referenzsprache verwendet wird. Die Referenzsprachbedingung bestand aus zufällig ausgewählten Äußerungen desselben Sprechers, die als Einbettungen fester Größe codiert wurden. Referenz-Spracheinbettungen, Text- und Sprachkodierungen werden zu einer Sequenz verkettet, die durch ein Transformer-basiertes autoregressives Modell modelliert wird. Wir verwenden separate Positionseinbettungen und separate Vorhersageköpfe für Text und Sprache. Sie trainierten ein autoregressives Modell von Grund auf, ohne vorher Text zu trainieren. Um Textinformationen zur Steuerung der Lautmalerei zu bewahren, wird SpeechGPT auch mit dem Ziel trainiert, das nächste Token des Textteils der Eingabesequenz vorherzusagen, sodass der SpeechGPT-Teil ein Nur-Text-LM ist. Hier wird für Textverlust eine geringere Gewichtung angenommen als für Sprachverlust.
Wellenformerzeugung
Darüber hinaus spezifizierten die Forscher einen separaten Sprachcoder-zu-Wellenform-Decoder (genannt „Sprachcodec“), der für die Rekonstruktion der Sprecheridentität und der Aufnahmebedingungen verantwortlich ist. Um das Modell skalierbarer zu machen, ersetzten sie die LSTM-Schicht durch eine Faltungsschicht, um die Zwischendarstellung zu dekodieren. Untersuchungen zeigen, dass dieser auf Faltung basierende Sprachcodec recheneffizient ist und die Gesamtsynthesezeit des Systems im Vergleich zu diffusionsbasierten Basisdecodern um mehr als 70 % reduziert.
Die Forscher wiesen auch darauf hin, dass die Eingabe des Sprachcodecs tatsächlich nicht die Sprachkodierung ist, sondern der letzte verborgene Zustand des autoregressiven Transformators. Dies geschah, weil die dichten latenten Darstellungen in früheren TortoiseTTS-Methoden umfangreichere Informationen liefern als ein einzelner phonetischer Code. Während des Trainingsprozesses geben die Forscher Text und Zielcode in das trainierte SpeechGPT ein (Parameter-Einfrieren) und passen dann den Decoder basierend auf dem endgültigen verborgenen Zustand an. Die Eingabe des letzten verborgenen Zustands von SpeechGPT trägt zur Verbesserung der Segmentierung und akustischen Qualität der Sprache bei, bindet den Decoder aber auch an eine bestimmte Version von SpeechGPT. Dies erschwert Experimente, da die beiden Komponenten immer nacheinander erstellt werden müssen. Diese Einschränkung muss in zukünftigen Arbeiten behoben werden.
Experimentelle Bewertung
Die Forscher untersuchten, wie sich die Skalierung auf die Fähigkeit des Modells auswirkt, geeignete Prosodie und Ausdruck für anspruchsvolle Texteingaben zu erzeugen, ähnlich wie LLM durch Daten- und Parameterskalierung neue Fähigkeiten „entsteht“. Um zu testen, ob diese Hypothese auch auf LTTS zutrifft, schlugen die Forscher ein Bewertungsschema zur Bewertung potenziell entstehender Fähigkeiten in TTS vor und identifizierten sieben herausfordernde Kategorien: zusammengesetzte Substantive, Emotionen, Fremdwörter, Parasprache und Zeichensetzung, Probleme und syntaktische Komplexität.
Mehrere Experimente bestätigten die Struktur von BASE TTS sowie seine Qualität, Funktionalität und Rechenleistung:
Zuerst verglichen die Forscher die Modellqualität, die durch Autoencoder-basierte und WavLM-basierte Sprachcodierung erreicht wurde.
Die Forscher bewerteten dann zwei Ansätze zur akustischen Dekodierung von Sprachcodes: diffusionsbasierte Decoder und Sprachcodecs.
Nach Abschluss dieser strukturellen Ablationen haben wir die neuen Fähigkeiten von BASE TTS anhand von drei Variationen von Datensatzgröße und Modellparametern sowie durch Sprachexperten bewertet.
Darüber hinaus führten die Forscher subjektive MUSHRA-Tests zur Messung der Natürlichkeit sowie automatische Verständlichkeits- und Sprecherähnlichkeitsmessungen durch und berichteten über Sprachqualitätsvergleiche mit anderen Open-Source-Text-zu-Sprache-Modellen.
VQ-VAE-Sprachkodierung vs. WavLM-Sprachkodierung
Um die Qualität und Vielseitigkeit der beiden Sprach-Tokenisierungsmethoden umfassend zu testen, führten die Forscher MUSHRA an 6 amerikanischen Englisch- und 4 spanischen Sprechern durch. In Bezug auf die mittleren MUSHRA-Werte in Englisch waren die auf VQ-VAE und WavLM basierenden Systeme vergleichbar (VQ-VAE: 74,8 vs. WavLM: 74,7). Für Spanisch ist das WavLM-basierte Modell jedoch statistisch signifikant besser als das VQ-VAE-Modell (VQ-VAE: 73,3 vs. WavLM: 74,7). Beachten Sie, dass die englischen Daten etwa 90 % des Datensatzes ausmachen, während die spanischen Daten nur 2 % ausmachen.
Tabelle 3 zeigt die Ergebnisse nach Sprecher:
Da das WavLM-basierte System mindestens genauso gut oder besser als die VQ-VAE-Basislinie abschnitt, haben wir es zur Darstellung von BASE TTS in weiteren Experimenten verwendet.
Diffusionsbasierter Decoder vs. Sprachcode-Decoder
Wie oben erwähnt, vereinfacht BASE TTS den diffusionsbasierten Basisdecoder, indem es einen End-to-End-Sprachcodec vorschlägt. Die Methode ist fließend und verbessert die Inferenzgeschwindigkeit um das Dreifache. Um sicherzustellen, dass dieser Ansatz die Qualität nicht beeinträchtigt, wurde der vorgeschlagene Sprachcodec anhand von Basislinien bewertet. Tabelle 4 listet die Ergebnisse der MUSHRA-Bewertung für vier englischsprachige Amerikaner und zwei spanischsprachige Personen auf:
Die Ergebnisse zeigen, dass der Sprachcodec die bevorzugte Methode ist, da er die Qualität nicht beeinträchtigt. Und für die meisten Sprachen gilt: Es verbessert die Qualität und ermöglicht gleichzeitig eine schnellere Schlussfolgerung. Die Forscher stellten außerdem fest, dass die Kombination zweier leistungsstarker generativer Modelle zur Sprachmodellierung überflüssig ist und durch den Verzicht auf den Diffusionsdecoder vereinfacht werden kann.
Emergent Power: Ablation von Daten und Modellgröße
Tabelle 1 zeigt alle Parameter nach BASE-small-, BASE-medium- und BASE-large-Systemen:
Ergebnisse der Sprachexpertenbeurteilung für die drei Systeme und jedes Die Durchschnittswerte jeder Kategorie sind in Abbildung 4 dargestellt:
In den MUSHRA-Ergebnissen in Tabelle 5 ist zu erkennen, dass sich die Natürlichkeit der Sprache von BASE-klein auf BASE-mittel deutlich verbessert, von BASE-mittel auf BASE – Die Verbesserung von groß ist geringer:
BASE TTS im Vergleich zum Branchenstandard
Im Allgemeinen erzeugt BASE TTS die natürlichste Sprache, weist die geringste Abweichung vom Eingabetext auf und ist dem am ähnlichsten Die relevanten Ergebnisse sind in Tabelle 6 und Tabelle 7 aufgeführt:
Verbesserung der Syntheseeffizienz durch den Sprachcodec
Der Sprachcodec ist in der Lage, die Sprache zu streamen, d. h. Sprache inkrementell zu erzeugen Benehmen. Durch die Kombination dieser Fähigkeit mit autoregressivem SpeechGPT kann das System eine erste Byte-Latenz von nur 100 Millisekunden erreichen – genug, um mit nur wenigen dekodierten Sprachcodes verständliche Sprache zu erzeugen.
Diese minimale Latenz steht in scharfem Gegensatz zu diffusionsbasierten Decodern, bei denen die gesamte Sprachsequenz (ein oder mehrere Sätze) auf einmal generiert werden muss, wobei die Latenz des ersten Bytes der gesamten Generierungszeit entspricht.
Darüber hinaus stellten die Forscher fest, dass der Sprachcodec das gesamte System im Vergleich zur Diffusionsbasislinie um den Faktor 3 recheneffizienter machte. Sie führten einen Benchmark durch, der 1000 Anweisungen mit einer Dauer von etwa 20 Sekunden und einer Stapelgröße von 1 auf einer NVIDIA® V100-GPU generierte. Im Durchschnitt benötigt ein SpeechGPT mit Milliarden Parametern unter Verwendung eines Diffusionsdecoders 69,1 Sekunden, um die Synthese abzuschließen, während das gleiche SpeechGPT unter Verwendung eines Sprachcodecs nur 17,8 Sekunden benötigt.
Weitere Forschungsdetails finden Sie im Originalpapier.
Das obige ist der detaillierte Inhalt von„Smart Emergence' der Spracherzeugung: 100.000 Stunden Datentraining, Amazon bietet 1 Milliarde Parameter BASE TTS. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Herausgeber des Machine Power Report: Yang Wen Die Welle der künstlichen Intelligenz, repräsentiert durch große Modelle und AIGC, hat unsere Art zu leben und zu arbeiten still und leise verändert, aber die meisten Menschen wissen immer noch nicht, wie sie sie nutzen sollen. Aus diesem Grund haben wir die Kolumne „KI im Einsatz“ ins Leben gerufen, um detailliert vorzustellen, wie KI durch intuitive, interessante und prägnante Anwendungsfälle für künstliche Intelligenz eingesetzt werden kann, und um das Denken aller anzuregen. Wir heißen Leser auch willkommen, innovative, praktische Anwendungsfälle einzureichen. Oh mein Gott, KI ist wirklich ein Genie geworden. In letzter Zeit ist es zu einem heißen Thema geworden, dass es schwierig ist, die Authentizität von KI-generierten Bildern zu erkennen. (Weitere Informationen finden Sie unter: KI im Einsatz | In drei Schritten zur KI-Schönheit werden und in einer Sekunde von der KI wieder in ihre ursprüngliche Form zurückgeprügelt werden) Neben der beliebten KI von Google Lady im Internet gibt es verschiedene FLUX-Generatoren entstanden auf sozialen Plattformen
