Seed-TTS ist ein großes Sprachgenerierungsmodell, das kürzlich vom ByteDance Doubao-Modellteam veröffentlicht wurde.
, die Sprache, die es erzeugt, unterscheidet sich fast **nicht** von der von echten Menschen, es können sogar **Aussprachefehler** erzeugt werden, insbesondere im Hinblick auf das Erlernen der Nachahmung menschlicher Sprache, **Treue** und ** fließend **alle haben **hervorragende** Leistungen.
Stellen Sie beispielsweise Seed-TTS eine Rede zur Verfügung. Es kann basierend auf dem Text eine neue Rede generieren und die Klangeigenschaften des Originalmaterials einbringen.
Originalmaterial (Eingabeaufforderung): Seed-TTS generierte chinesische Stimme:
Plötzlich war Gelächter um mich herum. Ich sah sie an, richtete meine Brust vor Hochstimmung auf, schüttelte meine fleischigen Arme und kicherte: „Das Fleisch an meinem Körper soll meinen überwältigenden Charme verbergen, sonst würde ich euch alle nicht erschrecken? ?“
Englische Sprache kann ebenfalls erzeugt werden und kann dennoch die Eigenschaften chinesischer Sprecher „reproduzieren“. Seed-TTS erzeugte englische Sprache: Plötzlich brach neben mir ein Gelächter aus, ich richtete mich voller Hochstimmung auf, schüttelte die leicht fleischigen Arme und lächelte Leicht und sagend: „Das Fleisch an meinem Körper soll meinen platzenden Charme verbergen. Würde es dir sonst keine Angst machen?“ und bringen Sie das „Gefühl“ der Figur in der Stimme zum Ausdruck:
Hey, möchtest du auch eine süße Liebe haben? „A Little Smile Is Lovely“ ist Ihre beste Wahl. Die männlichen und weiblichen Protagonisten haben sich durch Spiele kennengelernt, und als sie sich dann trafen, gab es im gesamten Prozess kein Missverständnis Ich konnte nicht anders, als „Tante“ zu sagen, wenn ich nur darüber nachdachte. „Lachen“ Ein bisschen neugierig, warum hast du diesen Spitznamen für mich gewählt?
„Ist diese Pille... eine Droge oder ein Aphrodisiakum oder so etwas in der Art? Warum riecht mein Duft so ähnlich wie das, was die beiden Schwestern gesagt haben? Naja, denkst du nicht... Sind.“ Planst du etwas gegen mich? Leider wusste Han Li nicht, ob er die Vorsicht der anderen Partei bewundern oder dreimal schreien sollte, weil ihm ohne Grund Unrecht getan worden war. „Es scheint wahr zu sein, was Sie gesagt haben. Ich muss es jedoch noch zu meiner zweiten Schwester bringen, damit es es testen kann. Schließlich muss die Familie unserer Tochter vorsichtig sein.“ „Hust, hust, es liegt an dir.“ „Han Li war sprachlos und konnte nur ein paar Mal husten, um die Verlegenheit in seinem Gesicht zu verbergen. Er hatte nun das Gefühl, dass er sich besser von diesem kleinen Kobold fernhalten sollte, sonst würde er irgendwann von ihr zu Tode deprimiert werden. „Hmpf, aber wenn dieses Medikament so wirksam ist, wie Sie sagen, dann haben Sie den Test bestanden! Wenn der ältere Bruder von nun an irgendwelche Schwierigkeiten in Mo Mansion hat, können Sie nach Caihuan kommen, um Hilfe zu holen. Ich muss nur ein paar kleine As sammeln Als Belohnung werde ich dir auf jeden Fall helfen können, das Problem vollständig zu lösen. „Okay, jüngere Schwester, wenn mein älterer Bruder etwas zu tun hat, werde ich dich auf jeden Fall um Hilfe bitten.“ Dies mit einem Lächeln im Gesicht, aber in seinem Herzen. Dann dachte er bösartig: „Es ist seltsam, dass ich nach einem kleinen Geldfan wie dir suche.“Weitere Demonstrationen und Prinzipien finden Sie im Originalpapier und der Effektanzeige:
paper Link: https://arxiv.org/abs/2406.02430effect Anzeige:https://bytedancespeech.github.io/seedtts_tech_report/
- Vor der Veröffentlichung des technischen Berichts war ein Teil der Seed-TTS-Technologie eine Zeit lang in C-seitigen Produkten online hat viel Lob von den Benutzern erhalten und wurde von der Außenwelt weithin gelobt. Das Sprachsynthesemodell und das Bean-Bag-Tonwiedergabemodell werden für technische Kommerzialisierungsdienste bereitgestellt. Möchten Sie sich den Austausch des Teams über die technischen Highlights anhören? , Forschungswert und gemeisterte Herausforderungen
Großes Modell der Sprachgenerierungsbasis F: Seed-TTS wurde von einigen Insidern bemerkt. Welche Art von Anerkennung hat Sie beeindruckt? A: Es gibt einen Professor, der in der Spracherkennung arbeitet und später in einem Unternehmen arbeitete. Er ist ein Brancheninsider, den ich vor nicht allzu langer Zeit sehr bewundere Seed-TTS. Nachdem er es gesehen hatte, gab er mir die Rückmeldung, dass er es sich ansehen wollte, was in Richtung Spracherzeugung getan werden kann, obwohl ich das Gefühl habe, dass es in diesem Bereich nichts zu tun gibt Ich habe das Gefühl, dass es noch Raum für Verbesserungen gibt. Ich bin sehr zufrieden, nachdem ich es gehört habe Der Professor war damals auf der Suche nach verwandten Forschungsthemen, er sah unsere Ergebnisse und gab uns positive Kommentare, und ich habe das Gefühl, dass unsere Ergebnisse bereits sehr gut sind und wir andere Fragen finden müssen Anerkennung für uns F: Was ist der Unterschied zwischen Seed-TTS im Vergleich zu früheren Ergebnissen? A: Es handelt sich um ein Basismodell für die Sprachgenerierung, das sich geringfügig von den meisten Sprachen unterscheidet Konkret handelt es sich beim traditionellen TTS um ein Ein-Task-Modell, aber wir hoffen, dass es alle Aufgaben erledigen, jeden Ton erzeugen und es uns ermöglichen kann, viele Dimensionen gleichzeitig zu steuern , die mündlichen Gewohnheiten echter Menschen und sogar phonetische Mängel wie das Verschlucken von Wörtern Solange es auf der Welt Sprachmethoden gibt, Englisch und Japanisch, Chinesisch und sogar Dialekte in verschiedenen Sprachen, wie z. B. Shaanxi-Dialekt und Henan-Dialekt auf Chinesisch... Oder glücklich, traurig, weinend, wütend, solange es Menschen gibt, wollen wir alle, dass es herauskommt F: Wurden alle oben genannten Ideen umgesetzt? A: Ein großer Teil davon wurde erreicht. Natürlich gibt es einige Orte, an denen dies nicht möglich ist, aber die Technologie schreitet immer weiter voran. was ein tiefes Verständnis auf der Textebene hat. Wir hoffen auch, es zu einer wirklichen „Basis“ zu machen. Das erste ist, dass die detaillierte Modellierung besser ist In der Vergangenheit war TTS als Rundfunksystem einfach zu implementieren, aber es klang wie ein „Maschinenklang“, und es erfordert viel an Details. Insbesondere reagieren Menschen sehr empfindlich auf ihre eigenen Geräusche. Auch wenn das Miauen von Welpen und Kätzchen nicht natürlich ist, kann es sein, dass es ein Problem mit der menschlichen Sprache gibt, die sehr „mechanisch“ klingt.
Zweitens erfordert es eine hohe Natürlichkeit und hohe Stabilität. Die meisten Mainstream-TTS der letzten zwei Jahre basierten auf Vorwissen und Dauermodellen, die für jedes Telefon definiert wurden, aber die Aussagekraft von unten her begrenzte. Wenn Sie diese entfernen, kommt es zu Stabilitäts- und Natürlichkeitsproblemen, was eine weitere Herausforderung darstellt.
Der dritte Grund ist, dass die Datenabdeckung (Data Coverage) sehr groß ist. Wir möchten die Stimme eines jeden und verschiedene Sprachdialekte nachbilden, einschließlich der Nachbildung von Unvollkommenheiten in der menschlichen Aussprache, wie z. B. Wortschlucken und nicht standardmäßiger Aussprache. Um diese Merkmale zu rekonstruieren und „Unvollkommenheiten“ wiederherzustellen, muss die Datenabdeckung (Data Coverage) hoch sein. Zuvor lagen die in der Branche verwendeten Daten in der Größenordnung von Hunderten oder Tausenden von Stunden, und es gab Modelle in der Größenordnung von Zehntausenden von Stunden. Die von Seed-TTS verwendeten Daten waren viel größer als zuvor. Eine so große Datenmenge wird auch das Gleichgewicht zwischen Qualität und Quantität herbeiführen, was ebenfalls eine Schwierigkeit darstellt.Viertens , Modelldesign. In einer so großen Situation ist es auch eine große Herausforderung, ein Modell zu entwerfen, um in allen Aspekten bessere Effekte zu erzielen. Schließlich gibt es noch die technische Herausforderung. Wie oben erwähnt, führen der große Umfang unserer Daten und die hohe Komplexität des Modells natürlich zu technischen Problemen, die bisher nur wenige Menschen gelöst haben. F: Welchen Wert hat die Lösung dieser Herausforderungen aus technischer Sicht? A Sprache bevorzugt Text und Bilder und hat die Eigenschaften von Text und Bildern. Welches der beiden für die Sprachmodellierung besser geeignet ist, ist eine Frage, die wir beantworten müssen. Sprache und Text weisen viele Ähnlichkeiten auf, um die Darstellung von Sprache so zu gestalten, dass sie für die Modellierung von Sprachmodellen besser geeignet ist.
Wie man durch Verstärkungslernen verschiedene subjektive und objektive Präferenzinformationen in das Generierungssystem integrieren kann, ist ebenfalls eines der Probleme.
Es gibt viele weitere Highlights, darunter das Stabilitätsproblem des autoregressiven Sprachgenerierungsmodells. Darüber hinaus versuchen wir mit dieser Studie, TTS-Probleme auch aus einer Perspektive außerhalb des TTS-Bereichs zu betrachten.
F: Sie haben die Forschung zu Sprachmodellen und Diffusionsmodellen erwähnt. Welche Schlussfolgerungen können wir daraus ziehen?
A: Seed-TTS bietet nicht nur eine technische Lösung basierend auf dem Sprachmodell, sondern auch eine weitere technische Diffusionslösung, die vollständig vom Dauermodell getrennt ist und auch die erste in der Branche ist . Darüber hinaus haben wir nach umfangreichen Vergleichen zwischen den beiden Systemen festgestellt, dass das Sprachmodell für die Streaming-Verarbeitung relativ geeignet ist und das Diffusionsmodell meiner Meinung nach in Zukunft besser für die Bearbeitungsverarbeitung geeignet ist weiter verschmelzen.
F: Welche technischen Schwierigkeiten löst Seed-TTS konkret bei diesen beiden Systemen? A: Für Sprachmodellsysteme werden hauptsächlich der Tokenizer und die Sprachstabilität gelöst. Bei der Sprachmodellmodellierung ist die Sprachtokenisierung ein zentraler Bestandteil. Derzeit gibt es sowohl kontinuierliche als auch diskrete Tokenizer auf dem Markt, und das Team hat viele Untersuchungen durchgeführt. Wir haben festgestellt, dass die Gestaltung der im Token enthaltenen Informationen in jeder Hinsicht einen sehr entscheidenden Einfluss auf die Leistung und Stabilität des gesamten Modells hat. Dazu gehören nicht nur die Informationen des Tokens, die Bildrate usw., sondern auch die Art und Weise, wie dies geschieht es tokenisieren und wie man es wieder in Klang umwandelt. Derzeit werden diese in der Branche kaum erforscht.
Im Hinblick auf die Stabilität des Sprachmodells haben wir verschiedene Untersuchungen in den Bereichen Token, Modelldesign, Dekodierungsstrategie und Datenaufbereitung durchgeführt und die Anforderungen der Industrie und Anwendungen wirklich erfüllt. Da beim reinen Diffusionssystem das Extra-Duration-Modell entfernt wurde, liegt der Schwierigkeitsgrad auch auf der Stabilität. Nach vielen Versuchen haben wir auch auf diesem Link sehr gute Indikatoren erreicht. F: Was inspiriert uns zu „Sprach- und Textmodelle haben viele Ähnlichkeiten“? A: Aus der Perspektive großer Textmodelle können Spracherzeugungsmodelle auch in Pretrain, Instruct Fine-Tuning und Post Training unterteilt werden. Unter anderem kann Pretrain die Grundfunktionen des Modells verbessern, was sich insbesondere in den Incontext-Learning-Funktionen widerspiegelt, wie z. B. Timbre-Fortsetzung, Stimmklonen und anderen Funktionen.
Für die Instruct-Feinabstimmung besteht der Hauptzweck darin, Instruct zu verwenden, um den Spracherzeugungsprozess kontrollierbarer zu machen, genau wie der Regisseur und der Schauspieler, die Anfragen stellen, schneller und langsamer sprechen, wie man Menschen beeindruckt, das sind alles von uns integriert Gehen Sie rein. Schließlich haben wir auch herausgefunden, dass Verstärkungslernen das Modell in vielen Dimensionen verbessern kann, indem verschiedene subjektive und objektive Präferenzinformationen in das Generierungssystem integriert werden, einschließlich Stabilität, Kontrolle, Ausdruckskraft, Natürlichkeit usw. Nicht viele Leute in der Branche beschäftigen sich mit diesem Aspekt. Auf der Grundlage des oben Gesagten haben wir auch die Methode der Verwendung synthetischer Daten für die Selbstdestillation untersucht und ebenfalls sehr gute Ergebnisse erzielt. Dies wird im Text-LLM relativ häufiger verwendet und wurde in der Sprachbranche bisher relativ wenig erforscht.F: Sie haben dreimal erwähnt, dass „einige Probleme in der Branche weniger erforscht sind“. Was hat dieses Phänomen verursacht? A:Einerseits war die bisherige Forschung im Bereich der Spracherzeugung relativ unabhängig und es gab viele traditionelle Erfahrungen in der Branche, die unter diesem AIGC-Trend möglicherweise nicht mehr anwendbar sind. Aus einer breiteren Perspektive betrachtet hat die Sprachgenerierung viele Gemeinsamkeiten mit der Text- und Bildgenerierung. Die rasante Entwicklung großer Textmodelle und der Bildgenerierung hat uns auch viel neues Denken gebracht. Da die Förderung neuer Ideen Zeit braucht, gibt es in der Branche noch relativ wenig Forschung. Andererseits arbeiten viele Forscher in Schulen und verfügen nicht über entsprechende Ressourcen. Es gibt viele systematische Projekte, die wir nicht nur durchführen können, sondern wir haben sie auch im Detail untersucht und einige Modelle gefunden, die Stabilität, Ausdruckskraft und Rechenkomplexität berücksichtigen können. Aber ist das das Beste, was wir tun können? Möglicherweise muss die Erkundung noch fortgesetzt werden. F: Gibt es Meilensteine im gesamten Forschungsprozess? A: Der Grundeffekt wurde letztes Jahr vielfach anhand realer Fälle veröffentlicht. Die Arbeit umfasst: das Finden realer Fälle, verschiedene Post-Trainings und das Lösen von Implementierungsproblemen (z (z. B. verschiedene Stabilität, Verzögerung des ersten Pakets, Anzahl der Parallelitäten, Rechenaufwand usw.) in diesem Szenario. Im Vergleich zu damals hat sich die Wirkung heute deutlich verbessert. Wo ist das große Sprachgenerierungsmodell geblieben?
F: Was ist im Rückblick der Wert der gesamten Studie? A: Aus der Perspektive des Wertes von Seed-TTS selbst ist Stimme nicht nur ein Werkzeug, sondern die direkteste Form der menschlichen Interaktion. Vom Stummfilm zum Tonfilm ist beispielsweise eine kleine Veränderung ein großer Sprung in der Branche. Die emotionale Verbindung zwischen Menschen hängt mehr von der Stimme ab. Wenn ein Kind beispielsweise Papa anruft, ist die emotionale Verbindung, die dadurch entsteht, völlig anders als beim Lesen von Texten. Wenn wir uns zu echter KI bewegen wollen, ist die Natürlichkeit der Sprache eine Schlüsselkomponente. In der Vergangenheit waren die Maschinen, die wir uns vorgestellt haben, allesamt Maschinenstimmen, wie zum Beispiel Moss in „The Wandering Earth“. Wenn KI wirklich wie Ihr Assistent und Partner sein kann, ist die emotionale Verbindung, die die Stimme mit sich bringt, von entscheidender Bedeutung. Viele Menschen erinnern sich an Jarvis in „Iron Man“, weil er von einer echten Person geäußert wurde. Darüber hinaus gibt es in Bezug auf Anwendungen viele Anwendungsszenarien für Sprache, wie Romane und E-Books, Charakterdesign, Videoübersetzung, virtuelle Charaktere, Rundfunk und Schauspielerausdrücke. einschließlich Stottern und Unfähigkeit, Laute auszusprechen, können sich mithilfe der Sprachtechnologie immer noch ausdrücken. Solange das Sprachszenario kein reines Informationsmedium ist, gibt es Raum für Anwendungen. Dies ist auch unsere Motivation, das Basismodell gut zu machen. F: Das Skalierungsgesetz wurde von einigen Praktikern als „Glaube“ angesehen. Was ist das Ergebnis, nachdem wir die Daten und das Modell skaliert haben? A: Selbst in sehr großem Maßstab können wir immer Vorteile erkennen, wenn wir weiter wachsen. Im Allgemeinen sind wir angenehm überrascht, dass das Modell durch die Vergrößerung der Skalierung weiterhin neue Fähigkeiten erwirbt. F: Wo liegt nach Ihren Beobachtungen diese Grenze? A: Derzeit können wir immer noch Vorteile erkennen, und wir müssen auf jeden Fall weiter erforschen. Wir haben jedoch bewiesen, dass wir mit dem richtigen Modelldesign das traditionelle Denken von TTS durchbrechen können. In der Vergangenheit haben wir uns auf eine kleine Menge hochwertiger Daten verlassen, aber jetzt steigern wir die Menge weiter und können höhere Vorteile erzielen. F: Welche Erleuchtung bringt GPT4-o für uns? A:Es ist ein einheitliches Modell für Generierung und Verständnis. Es stellt höhere Anforderungen an die Sprachtechnologie und erfordert, dass ein Modell gleichzeitig zuhören, sprechen und denken kann. Daraus ergeben sich viele neue Anforderungen an unsere Arbeit. F: Wie ist der aktuelle Entwicklungsstand großer Modelle im Sprachbereich? A:Einerseits hoffen wir, dass das Model den Ausdruck und die Kontrolle eines professionellen Schauspielers hat. Meistens unterscheidet sich die vom Modell erzeugte Sprache nicht wesentlich von der echter Menschen. In Filmen und Fernsehserien drücken Schauspieler jedoch ihre Emotionen sehr intensiv aus und die Informationsdichte ist relativ hoch, sodass sie nicht vollständig aufeinander abgestimmt sind. Wir alle wollen den Corner Case abschließen.Auf der anderen Seite geht es um den Umgang mit Details, einschließlich der Verarbeitung und Optimierung von Bad Cases, um ungewöhnliche Long-Tail-Situationen zu lösen. Große Modellarbeit erfordert die Beteiligung einer großen Anzahl herausragender TalenteF: An dieser Veröffentlichung von Seed-TTS haben Kollegen aus der ganzen Welt teilgenommen Viele Leute nehmen teil? A:Mit der Entwicklung der Branche ist die Zusammenarbeit zwischen mehreren Personen unvermeidlich. Um das ultimative Ziel eines großen Modells zu erreichen und gleichzeitig den Anforderungen der Industrialisierung gerecht zu werden, kann es nicht durch ein oder zwei Ideen unterstützt werden, und es müssen viele Menschen teilnehmen. Alle Teilnehmer waren sehr professionell. Beispielsweise erfordern unsere Daten die Beteiligung von Berufsstudenten an der Verarbeitung. Ein weiteres Beispiel ist, dass der Implementierungsprozess viele Details erfordert und die Mitarbeit von Studierenden erfordert, die auf Evaluierung und technische Unterstützung spezialisiert sind. Sie alle haben großartige Beiträge geleistet. Wir können sehen, dass unter den Mainstream-Akteuren in der KI-Spitzenforschung ein Projekt eine sehr große Anzahl von Teilnehmern hat und professionelle Studenten für jede Verbindung mit solch hoher Dichte und hoher Komplexität verantwortlich sind Neben der Zusammenarbeit und präzisen Koordination sind auch die Anforderungen an die Organisationsfähigkeit sehr hoch. F: Wie ist Ihrer Meinung nach die Teamatmosphäre? A: Ich denke, es liegt am „Antrieb“ und an den „Details“. „Wichtigkeit“ spiegelt sich darin wider, dass jeder die Initiative ergreift, Dinge zu tun. Es war auch ein selbstgesteuerter Prozess, der aus Neugier und der Idee entstand, die Branche zu verändern. Die Atmosphäre ähnelt eher einem Start-up-Unternehmen mit weniger großen Unternehmen. F: Sie haben auch erwähnt, dass das Team „Details heraussuchen“ wird. A: Hier geht es darum, Details in realen Szenen herauszusuchen. Für die Generierungsarbeit ist es einfach, eine schöne Demo in der Demo zu erstellen, aber in der tatsächlichen Anwendung wird das System mit verschiedenen Detailproblemen konfrontiert sein. Um sicherzustellen, dass das Modell stets mit hoher Qualität generiert wird und den Bedürfnissen der Benutzer entspricht, stellen wir sehr strenge Anforderungen an die Stabilität und Robustheit des Systems, das wiederholtes Polieren erfordert, um sicherzustellen, dass jedes Detail von hoher Qualität ist. Im Gegenteil, für Demo haben wir nicht viel Optimierung vorgenommen. F: Gibt es bei uns eine interne Debatte darüber, „nicht zu viel Demo-Optimierung durchzuführen“? A: Ja, vor allem junge Studierende wollen sich schließlich von der besseren Seite zeigen, aber wir hoffen trotzdem, umsetzbare Ergebnisse zu erzielen, um zu verhindern, dass Benutzer es tatsächlich nutzen. Während des Prozesses wurde festgestellt, dass zwischen dem Produkt und der Demo eine große Lücke bestand, die die Branche wirklich veränderte. F: Wird die relevante Technologie derzeit in der Doubao-App angewendet? A: Einige verwandte Technologien werden erst seit einiger Zeit der Außenwelt angezeigt, nachdem sie von Benutzern in realen Szenarien genehmigt wurden letzte Online-Arbeit. F: Welche Schlüsselwörter können unser Team zusammenfassen? A: Der erste ist professionell. Dies spiegelt sich in vielen Aspekten wider, einschließlich Daten, Infrastruktur, Modelldesign usw. Wir achten sehr professionell auf die Details jeder Verbindung und streben danach, aus Sicht der industriellen Umsetzung die ultimative Leistung zu erzielen. Das zweite Wort ist Fokus und Antrieb. Um unsere Ziele zu erreichen, sind Konzentration und Tatendrang unabdingbar. Daher ist jeder sehr engagiert. Wenn die Ergebnisse tatsächlich erreicht werden, verspürt jeder ein Erfolgserlebnis und gewinnt an Selbstvertrauen. Das dritte Wort ist Einheit. Bei der Arbeit im Team haben alle keinen Sinn für Territorialität und die Zusammenarbeit verläuft reibungslos. Dadurch fühle ich mich sehr wohl, was in großen Unternehmen selten vorkommt. F: Welche Eigenschaften von Menschen hofft unser Team weiterhin anzuziehen? A: Schauen Sie sich zunächst an, ob die Werte konsistent sein können. Fähigkeit ist sicherlich ein Aspekt, aber noch wichtiger ist, dass wir Partner finden, die im selben Boot sitzen, damit jeder die Selbstverwirklichung erreichen kann. Die Zusammenarbeit unter solchen Werten wird natürlich reibungslos verlaufen. Das zweite ist die Vielfalt der Hintergründe. Derzeit sind die in verschiedenen Bereichen der KI verwendeten Methoden ähnlich und alle integrieren sich nach und nach in die gleiche Richtung. Daher spielen Erfahrungen in den Bereichen Verstärkungslernen, visuelle Erkennung, Audioerkennung und anderen Bereichen eine entscheidende Rolle bei der Generierung.Wir hoffen, dass Studierende mit unterschiedlichem beruflichen Hintergrund teilnehmen können. Ich bin ein sprachverstehender Mensch und bin auf TTS umgestiegen. Schließlich subjektive Initiative und Lernfähigkeit sowie hohes Streben nach Arbeit. Generative Aufgaben haben auch viele einzigartige Funktionen. Wir hoffen, dass die Kandidaten eine Kombination aus Aufgaben und eigener Erfahrung finden. Gleichzeitig hoffen wir, die beste Technologie und Produkte in der Branche herzustellen Auch von den Studierenden wird erwartet, dass sie diese Vision jeden Tag im Auge behalten.
Das haben die Studenten des Seed-TTS-Teams mitgeteilt Das Team rekrutiert weiterhin herausragende Talente. Wenn Sie auch Ideale und Begeisterung für Großmodelltechnik haben und die Atmosphäre des Doubao Large Model-Teams erkennen, melden Sie sich bitte auf der offiziellen Website des Doubao Large Model-Teams unter team.doubao.com an oder folgen Sie dem offiziellen öffentlichen Konto des Teams. Erfahren Sie mehr über technische Fortschritte, Teamgeschichten und Rekrutierungsinformationen: ByteDance Top Seed Talent Plan rekrutiert Wir hoffen, weiterhin Top-Talente mit ehrgeizigen Zielen und Ambitionen anzuziehen und zu rekrutieren. die Welt mit Technologie verändern.“ Kommen Sie zu uns und arbeiten Sie mit den besten Wissenschaftlern und Ingenieuren zusammen, um an den größten technischen Herausforderungen der Branche teilzunehmen und schwierige Probleme anzugehen. Willkommen, indem Sie den QR-Code unten gedrückt halten oder klicken, um den Originaltext zu lesen und Ihren Lebenslauf einzureichen. Das obige ist der detaillierte Inhalt vonMeine Ohren sind richtig, der Klang ist zu real, die Seed-TTS-Technologie der Byte Beanbao-Sprachsynthese wird offenbart. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!