Heim Technologie-Peripheriegeräte KI ICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen

ICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen

Jun 29, 2024 am 12:44 AM
产业

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制
Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Der Autor dieses Artikels, Li Hongkang, ist Doktorand in der Abteilung für Elektrotechnik, Computer- und Systemtechnik am Rensselaer Polytechnic Institute in den Vereinigten Staaten Er schloss sein Studium an der Universität für Wissenschaft und Technologie Chinas mit einem Bachelor ab. Zu den Forschungsrichtungen gehören Deep-Learning-Theorie, Theorie großer Sprachmodelle, statistisches maschinelles Lernen usw. Er hat viele Artikel auf führenden KI-Konferenzen wie ICLR/ICML/Neurips veröffentlicht.

In-Context-Lernen (ICL) hat in vielen LLM-bezogenen Anwendungen leistungsstarke Fähigkeiten bewiesen, seine theoretische Analyse ist jedoch noch relativ begrenzt. Es wird immer noch versucht zu verstehen, warum LLM, das auf der Transformer-Architektur basiert, die Fähigkeiten von ICL aufweisen kann.

Kürzlich analysierte ein Team der Rensselaer Polytechnic University und IBM Research die ICL von Transformer mit nichtlinearem Aufmerksamkeitsmodul (Aufmerksamkeit) und mehrschichtigem Perzeptron (MLP) aus der Perspektive der Optimierungs- und Generalisierungstheoriefähigkeit. Insbesondere haben sie den ICL-Mechanismus theoretisch bewiesen, bei dem ein einschichtiger Transformer zunächst einige kontextbezogene Beispiele basierend auf der Abfrage in der Aufmerksamkeitsschicht auswählt und dann Vorhersagen basierend auf Etiketteneinbettungen in der MLP-Schicht trifft. Dieser Artikel wurde in ICML 2024 aufgenommen.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

  • Titel des Papiers: Wie lernen und verallgemeinern nichtlineare Transformatoren beim Lernen im Kontext?

  • In-Kontext-Lernen (ICL)
  • Kontext-Lernen (ICL) ist ein neues Lernparadigma, das in großen Sprachmodellen (LLM) sehr beliebt ist. Es bezieht sich insbesondere auf das Hinzufügen von N Testbeispielen (Kontext) vor der Testabfrage (Testabfrage)
  • , d um das Modell zu leiten. Korrekte Schlussfolgerungen ziehen. Diese Methode unterscheidet sich von der klassischen Methode zur Feinabstimmung eines vorab trainierten Modells. Sie erfordert keine Änderung des Gewichtes des Modells und ist dadurch effizienter.

Fortschritte in der theoretischen ICL-Arbeit

Viele neuere theoretische Arbeiten basieren auf dem von [1] vorgeschlagenen Forschungsrahmen, das heißt, Menschen können das Eingabeaufforderungsformat direkt zum Trainieren des Transformators verwenden (dieser Schritt kann auch als Simulation verstanden werden). Ein vereinfachter LLM-Vortrainingsmodus, der dem Modell ICL-Fähigkeiten verleiht. Bestehende theoretische Arbeiten konzentrieren sich auf die Ausdruckskraft des Modells [2]. Sie fanden heraus, dass man einen Transformer mit „perfekten“ Parametern finden könnte, der ICL durch Vorwärtsoperationen durchführen und sogar implizit klassische Algorithmen für maschinelles Lernen wie den Gradientenabstieg ausführen könnte. Diese Arbeiten können jedoch nicht beantworten, warum Transformer mit ICL-Funktionen auf solch „perfekte“ Parameter trainiert werden kann. Daher gibt es auch einige Arbeiten, die versuchen, den ICL-Mechanismus aus der Perspektive des Trainings oder der Verallgemeinerung von Transformer zu verstehen [3,4]. Aufgrund der Komplexität der Analyse der Transformer-Struktur beschränken sich diese Arbeiten jedoch derzeit auf die Untersuchung linearer Regressionsaufgaben, und die betrachteten Modelle lassen normalerweise den nichtlinearen Teil des Transformers weg. Dieser Artikel analysiert die ICL-Fähigkeiten und -Mechanismen von Transformer mit nichtlinearer Aufmerksamkeit und MLP aus der Perspektive der Optimierungs- und Generalisierungstheorie:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制Basierend auf einem vereinfachten Klassifizierungsmodell quantifiziert dieser Artikel speziell, wie sich die Eigenschaften der Daten auf ein The auswirken In-Domain- und Out-of-Domain-ICL-Generalisierungsfunktionen (OOD) des Layer-Single-Head-Transformers. ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

In diesem Artikel wird weiter erläutert, wie ICL durch trainierten Transformer implementiert wird.

Basierend auf den Eigenschaften des trainierten Transformers analysiert dieser Artikel auch die Machbarkeit der Verwendung einer größenbasierten Modellbereinigung während der ICL-Inferenz.

Theoretischer Teil

Problembeschreibung

Dieser Artikel befasst sich mit einem binären Klassifizierungsproblem, d. h. der Zuordnung von ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 zu ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 durch eine Aufgabe ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制. Um ein solches Problem zu lösen, wird in diesem Artikel eine Lernaufforderung erstellt. Die Eingabeaufforderung wird hier wie folgt dargestellt:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Training des Netzwerks als einschichtiger Single-Head-Transformator:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Der Vortrainingsprozess besteht darin, eine empirische Risikominimierung für alle Trainingsaufgaben zu lösen. Die Verlustfunktion verwendet Scharnierverlust, der für binäre Klassifizierungsprobleme geeignet ist, und der Trainingsalgorithmus ist ein stochastischer Gradientenabstieg.

Dieser Artikel definiert zwei Fälle der ICL-Generalisierung. Eine davon ist domänenintern, das heißt, die Verteilung der Testdaten ist dieselbe wie die der Trainingsdaten während der Generalisierung. Beachten Sie, dass in diesem Fall die Testaufgabe nicht mit der Trainingsaufgabe identisch sein muss, d. h Hier wurde die Verallgemeinerung unsichtbarer Aufgaben berücksichtigt. Der andere ist außerhalb der Domäne, das heißt, die Verteilung von Test- und Trainingsdaten ist unterschiedlich.

Dieser Artikel befasst sich auch mit der Analyse der größenbasierten Beschneidung während der ICL-Inferenz. Die Beschneidungsmethode bezieht sich hier auf das Löschen jedes durch Training erhaltenen Neurons entsprechend seiner Amplitude.

Konstruktion von Daten und Aufgaben

Bitte beachten Sie für diesen Teil Abschnitt 3.2 des Originaltextes. Die theoretische Analyse dieses Artikels basiert auf dem in letzter Zeit beliebten Feature-Learning-Weg, das heißt, die Daten werden normalerweise als trennbare (normalerweise orthogonale) Muster angenommen, wodurch Gradientenänderungen basierend auf unterschiedlichen Mustern abgeleitet werden. In diesem Artikel werden zunächst eine Reihe domänenrelevanter (IDR) Muster zur Bestimmung der Klassifizierung domäneninterner Aufgaben und eine Reihe aufgabenunabhängiger domänenirrelevanter (IDI) Muster definiert. Diese Muster sind jeweils orthogonal andere. Es gibt ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 IDR-Muster und ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 IDI-Muster. Ein ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 wird als Summe eines IDR-Musters und eines IDI-Musters dargestellt. Eine domäneninterne Aufgabe wird als Klassifizierungsproblem definiert, das auf zwei IDR-Mustern basiert.

In ähnlicher Weise kann dieser Artikel die Daten und Aufgaben beschreiben, wenn OOD verallgemeinert wird, indem ein Muster außerhalb der Domäne (ODR) und ein Muster außerhalb der Domäne (ODI) definiert wird.

Die Darstellung der Eingabeaufforderung in diesem Artikel kann anhand des Beispiels in der folgenden Abbildung erklärt werden, wobei ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 das IDR-Muster und ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 das IDI-Muster ist. Die hier durchgeführte Aufgabe besteht darin, basierend auf ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 in x zu klassifizieren. Wenn es ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 ist, ist seine Bezeichnung + 1, was +q entspricht. Wenn es ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 ist, ist seine Bezeichnung - 1, was -q entspricht. α, α' werden als Kontextbeispiele in den Trainings- und Testaufforderungen definiert, die jeweils mit dem IDR/ODR-Muster der Abfrage übereinstimmen. Im Beispiel unten, ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Theoretische Ergebnisse

Zunächst gibt dieser Artikel für die In-Domain-Situation zunächst eine Bedingung 3.2 an, um die Bedingungen festzulegen, die die Trainingsaufgabe erfüllen muss, d. h. die Trainingsaufgabe muss alle IDR-Muster abdecken und Etiketten. Dann lauten die domäneninternen Ergebnisse wie folgt:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Dies zeigt: 1. Die Anzahl der Trainingsaufgaben muss nur einen kleinen Teil aller Aufgaben ausmachen, die Bedingung 3.2 erfüllen, und wir können eine gute Verallgemeinerung unsichtbarer Aufgaben erreichen 2. Je höher der Anteil der IDR-Muster im Zusammenhang mit der aktuellen Aufgabe in der Eingabeaufforderung ist, desto besser kann die ideale Verallgemeinerung mit weniger Trainingsdaten, einer Anzahl von Trainingsiterationen und kürzeren Trainings-/Testaufforderungen erreicht werden.

Als nächstes kommt das Ergebnis der Verallgemeinerung außerhalb der Domäne.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Hier wird erklärt, dass die OOD ICL-Verallgemeinerung zu diesem Zeitpunkt den idealen Effekt erzielen kann, wenn das ODR-Muster eine lineare Kombination des IDR-Musters ist und die Koeffizientensumme größer als 1 ist. Dieses Ergebnis liefert die intrinsische Verbindung zwischen Trainings- und Testdaten, die für eine gute OOD-Generalisierung im Rahmen von ICL erforderlich ist. Dieser Satz wurde auch durch Experimente mit GPT-2 bestätigt. Wie in der folgenden Abbildung dargestellt, kann die OOD-Klassifizierung ideale Ergebnisse erzielen, wenn die Koeffizientensumme ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 in (12) größer als 1 ist. Gleichzeitig ist die erforderliche Kontextlänge kleiner, wenn ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制, d. h. wenn der Anteil der ODR/IDR-Muster im Zusammenhang mit Klassifizierungsaufgaben in der Eingabeaufforderung höher ist.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Dann liefert dieser Artikel die ICL-Generalisierungsergebnisse mit größenbasierter Beschneidung.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Dieses Ergebnis zeigt, dass zunächst einmal einige (konstante Anteile) Neuronen im trainierten ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制 kleine Amplituden aufweisen, während die übrigen relativ groß sind (Gleichung 14). Wenn wir nur kleine Neuronen beschneiden, hat dies grundsätzlich keinen Einfluss auf die Generalisierungsergebnisse. Wenn der Anteil der Beschneidung auf die Beschneidung großer Neuronen zunimmt, nimmt der Generalisierungsfehler erheblich zu (Formel 15, 16). Das folgende Experiment bestätigt Satz 3.7. Die hellblaue vertikale Linie in Abbildung A unten stellt das durch Training erhaltene ICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen dar und stellt die Ergebnisse der Formel 14 dar. Das Beschneiden kleiner Neuronen wird die Generalisierung jedoch nicht verschlechtern. Dieses Ergebnis steht im Einklang mit der Theorie. Abbildung B zeigt, dass wir ein größeres Bereinigungsverhältnis zulassen können, um die gleiche Generalisierungsleistung zu erzielen, wenn die Eingabeaufforderung mehr aufgabenbezogenen Kontext enthält.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICL-Mechanismus

Durch die Charakterisierung des Prozesses vor dem Training erhält dieser Artikel den internen Mechanismus des einschichtigen nichtlinearen Einzelkopf-Transformators für ICL, der in Abschnitt 4 des Originalartikels enthalten ist. Dieser Vorgang kann durch das folgende Diagramm dargestellt werden.

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

Kurz gesagt: Die Aufmerksamkeitsschicht wählt denselben Kontext wie das ODR/IDR-Muster der Abfrage aus und weist ihnen fast alle Aufmerksamkeitsgewichte zu. Anschließend konzentriert sich die MLP-Schicht auf die endgültige Klassifizierung basierend auf der Etiketteneinbettung in der Aufmerksamkeitsebenenausgabe.

Zusammenfassung

Dieser Artikel erläutert den Trainingsmechanismus des nichtlinearen Transformators in ICL sowie seine Verallgemeinerungsfähigkeit auf neue Aufgaben und Verteilungsverschiebungsdaten. Die theoretischen Ergebnisse haben eine gewisse praktische Bedeutung für den Entwurf eines Prompt-Selection-Algorithmus und eines LLM-Bereinigungsalgorithmus.

参考文献

[1] Garg, et al., Neurips 2022. „Was können Transformatoren im Kontext lernen? Eine Fallstudie einfacher Funktionsklassen.“

[2] Von Oswald et al., ICML 2023. „Transformer lernen im Kontext durch Gradientenabstieg.“

[3] Zhang et al., JMLR 2024. „Geschulte Transformatoren lernen lineare Modelle im Kontext.“

[4] Huang et al., ICML 2024. „In-context convergence of transformators.“

Das obige ist der detaillierte Inhalt vonICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1676
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

See all articles