Das Bildgenerierungsmodell ist aufgerollt! Generative Videomodelle aufgerollt!
Das nächste ist das Audio-Generierungsmodell.
Vor kurzem hat das Google-Forschungsteam ein KI-Modell für die Sprachgenerierung auf den Markt gebracht – AudioLM.
Mit nur wenigen Sekunden Audioansagen kann nicht nur hochwertige, kohärente Sprache, sondern auch Klaviermusik erzeugt werden. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#Papieradresse: https://www.php.cn/link/b6b3598b407b7f328e3129c74ca8ca94
🎜🎜#audiolm ist ein Langzeitsterme ist ein Langzeitmaterial konsistent Ein umfassendes, qualitativ hochwertiges Audio-Generierungs-Framework, das Eingabeaudio einer Zeichenfolge diskreter Token zuordnet und die Audio-Generierungsaufgabe in eine Sprachmodellierungsaufgabe umwandelt.Bestehende Audio-Tagger müssen einen Kompromiss zwischen der Qualität der Audioerzeugung und einer stabilen Langzeitstruktur eingehen.
Um diesen Widerspruch zu lösen, wendet Google eine „Hybrid-Tokenisierungs“-Lösung an, die eine diskretisierte Aktivierung vorab trainierter Maskensprachmodelle verwendet und diskrete Codes verwendet, die von neuronalen Audio-Codecs generiert werden, um eine hohe Leistung zu erzielen Synthese.
Das AudioLM-Modell kann lernen, natürliche und kohärente fortlaufende Wörter basierend auf kurzen Eingabeaufforderungen zu erzeugen, wenn es auf Sprache trainiert wird, ohne dass Aufzeichnung oder Anmerkung erforderlich sind. In diesem Fall Es wird eine grammatikalisch fließende und semantisch sinnvolle kontinuierliche Sprache erzeugt, während die Identität und Intonation des Sprechers erhalten bleibt. Neben Sprache kann AudioLM auch zusammenhängende Klaviermusik erzeugen, ohne dass für das Training überhaupt eine Notenschrift erforderlich ist.Vom Text zur Klaviermusik: zwei Hauptthemen
In den letzten Jahren haben Sprachmodelle, die auf umfangreichen Textkorpora trainiert wurden, ihre hervorragenden generativen Fähigkeiten unter Beweis gestellt und einen offenen Dialog, maschinelle Übersetzung, und selbst das Denken mit gesundem Menschenverstand kann auch andere Signale als Text modellieren, beispielsweise natürliche Bilder.
Die Idee von AudioLM besteht darin, diese Fortschritte in der Sprachmodellierung zu nutzen, um Audio ohne Training an annotierten Daten zu generieren.
Erstens ist die Datenrate von Audio viel höher und die Einheitensequenz ist länger. Beispielsweise enthält ein Satz Dutzende von Zeichendarstellungen, aber nach der Konvertierung in eine Audiowellenform enthält er im Allgemeinen Hunderttausende Werte.
Darüber hinaus besteht eine Eins-zu-viele-Beziehung zwischen Text und Audio. Derselbe Satz kann von verschiedenen Sprechern mit unterschiedlichem Stil, unterschiedlichem emotionalem Inhalt und unterschiedlichem Kontext vorgetragen werden.
Um diese beiden Herausforderungen zu meistern, verwendet AudioLM zwei Arten von Audio-Tags.
Zuerst werden semantische Tags aus w2v-BERT extrahiert, einem selbstüberwachten Audiomodell.
Diese Tags können sowohl lokale Abhängigkeiten (wie Sprache in Sprache, lokale Melodie in Klaviermusik) als auch globale Langzeitstrukturen (wie Sprachsyntax und Semantik in Sprache) in Inhalt, Harmonie und Rhythmus erfassen Klaviermusik), während das Audiosignal stark heruntergesampelt wird, um lange Sequenzen zu modellieren.
Die Wiedergabetreue des aus diesen Tokens rekonstruierten Audios ist jedoch nicht hoch.
Um die Klangqualität zu verbessern, verwendet AudioLM zusätzlich zum semantischen Tagging auch akustische Tags, die vom neuronalen SoundStream-Codec generiert werden, um die Details der Audiowellenform (z. B. Lautsprechereigenschaften oder Aufnahmebedingungen) für hochqualitative Zwecke zu erfassen. Qualitätssynthese.
Wie trainiere ich?
AudioLM ist ein reines Audiomodell, das ohne symbolische Darstellung von Text oder Musik trainiert wird.
Es modelliert Audiosequenzen hierarchisch durch die Verkettung mehrerer Transformer-Modelle (eines für jede Stufe) vom semantischen Tagging bis zum feinen akustischen Tagging.
In der ersten Stufe wird diese Aufgabe an semantischen Tags ausgeführt, um die übergeordnete Struktur der Audiosequenz zu modellieren.
In der zweiten Stufe wird die gesamte Sequenz semantischer Tags mit den vergangenen groben Tags verbunden und die beiden als Bedingungen der groben Stimme zugeführt Das Modell sagt dann zukünftige Token voraus. Dieser Schritt simuliert akustische Eigenschaften, wie zum Beispiel Lautsprechereigenschaften oder Klangfarbe in der Musik. In der dritten Stufe wird ein feines akustisches Modell verwendet, um das grobe akustische Signal zu verarbeiten und so dem endgültigen Audio mehr Details hinzuzufügen. Abschließend werden die akustischen Marker in den SoundStream-Decoder eingespeist, um die Wellenform zu rekonstruieren.Nach Abschluss des Trainings kann AudioLM auf ein paar Sekunden Audio eingestellt werden, wodurch eine kontinuierliche Audiowiedergabe möglich ist.
Um die allgemeine Anwendbarkeit von AudioLM zu demonstrieren, testeten die Forscher es anhand von zwei Aufgaben in verschiedenen Audiobereichen.
Das erste ist die Sprachfortsetzung. Dieses Modell behält die vorgeschlagenen Sprechereigenschaften und Prosodie bei und gibt gleichzeitig neue Inhalte aus, die grammatikalisch korrekt und semantisch konsistent sind.
Das zweite ist die Piano-Fortsetzung. Dieses Modell erzeugt Klaviermusik, die in Bezug auf Melodie, Harmonie und Rhythmus mit der Eingabeaufforderung übereinstimmt.
Wie unten gezeigt, werden alle Töne, die Sie nach den grauen vertikalen Linien hören, von AudioLM erzeugt.
Um den Effekt zu überprüfen, baten die Forscher menschliche Bewerter, sich kurze Audioclips anzuhören, um festzustellen, ob es sich um Originalaufnahmen menschlicher Sprache oder um von AudioLM generierte Aufnahmen handelte.
Den gesammelten Bewertungen zufolge hat AudioLM eine Erfolgsquote von 51,2 %, was bedeutet, dass die von diesem KI-Modell erzeugte Sprache für normale Zuhörer nur schwer von echter Sprache zu unterscheiden ist.
Rupal Patel, der Informations- und Sprachwissenschaften an der Northeastern University studiert, sagte, dass frühere Arbeiten mit künstlicher Intelligenz zur Audioerzeugung diese Nuancen nur erfassen könnten, wenn sie in den Trainingsdaten explizit annotiert würden.
Im Gegensatz dazu lernt AudioLM diese Funktionen automatisch aus den Eingabedaten und erzielt auch Ergebnisse mit hoher Wiedergabetreue.
Mit dem Aufkommen multimodaler ML-Modelle wie GPT3 und Bloom (Textgenerierung), DALLE und Stable Diffusion (Bildgenerierung), RunwayML und Make-A-Video (Videogenerierung) verändern sich die Erstellung von Inhalten und die kreative Arbeit.
Die zukünftige Welt ist eine Welt, die durch künstliche Intelligenz generiert wird.
https://www.php.cn/link/c11cb55c3d8dcc03a7ab7ab722703e0a
https://www.php.cn/link/b6b3598b407b7f328e3129c74 ca. 8ca94
https://www.php.cn/link/c5f7756d9f92a8954884ec415f79d120
https://www.php.cn/link/9b644ca9f37e3699ddf2055800130aa9
Das obige ist der detaillierte Inhalt vonDer Google AI-Sänger kommt! AudioLM kann Musik und Lieder komponieren, indem es einfach ein paar Sekunden lang zuhört.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!