Heim Technologie-Peripheriegeräte KI Sind die Benchmarks für die Bewertung großer Modelle zuverlässig? Anthropic kommt für eine große Bewertung

Sind die Benchmarks für die Bewertung großer Modelle zuverlässig? Anthropic kommt für eine große Bewertung

Nov 06, 2023 pm 12:13 PM
产业 anthropic

Mit der Verbreitung großer Modelle (LLM) ist die Bewertung von KI-Systemen zu einem wichtigen Bestandteil geworden. Welche Schwierigkeiten werden während des Bewertungsprozesses auftreten? Ein Artikel von Anthropic verrät uns die Antwort.

Zu diesem Zeitpunkt lassen sich die meisten Diskussionen rund um die Auswirkungen künstlicher Intelligenz (KI) auf die Gesellschaft auf bestimmte Eigenschaften von KI-Systemen zurückführen, wie z. B. Authentizität, Fairness, Missbrauchspotenzial usw. Das Problem besteht nun jedoch darin, dass vielen Forschern nicht vollständig bewusst ist, wie schwierig es ist, robuste und zuverlässige Modellbewertungen zu erstellen. Viele der heute vorhandenen Evaluierungskits weisen in verschiedenen Aspekten eine eingeschränkte Leistung auf.

Das KI-Startup Anthropic hat kürzlich auf seiner offiziellen Website einen Artikel mit dem Titel „Herausforderungen bei der Bewertung von KI-Systemen“ veröffentlicht. In dem Artikel heißt es, dass sie viel Zeit damit verbracht haben, eine Bewertung des KI-Systems zu erstellen, um das KI-System besser zu verstehen.

Sind die Benchmarks für die Bewertung großer Modelle zuverlässig? Anthropic kommt für eine große Bewertung

Artikeladresse: https://www.anthropic.com/index/evaluating-ai-systems

In diesem Artikel werden hauptsächlich die folgenden Aspekte behandelt:

  • Multiple-Choice-Bewertungen;

  • Nutzen Sie Dritte

  • Lassen Sie die Mitarbeiter messen, ob Modelle hilfreich oder schädlich sind.

  • Lassen Sie Domänenexperten die Analyse relevanter Bedrohungen durchführen (rotes Team). KI zur Entwicklung von Bewertungsmethoden;

  • Zusammenarbeit mit gemeinnützigen Organisationen zur Überprüfung von Modellen auf Schaden.

  • Herausforderungen der Multiple-Choice-Bewertung

Multiple-Choice-Bewertung mag einfach erscheinen, ist es aber nicht. In diesem Artikel werden die Herausforderungen des Modells in Bezug auf die Benchmarks MMLU (Measuring Multitask Language Understanding) und BBQ (Bias Benchmark for QA) erläutert.

MMLU-Datensatz

MMLU ist ein englischer Bewertungsdatensatz mit 57 Multiple-Choice-Frage- und Antwortaufgaben zu den Themen Mathematik, Geschichte, Recht usw. und ist derzeit der gängige LLM-Bewertungsdatensatz. Je höher die Genauigkeit, desto stärker sind die Fähigkeiten des Modells. In diesem Artikel wurde jedoch festgestellt, dass die Verwendung von MMLU vier Herausforderungen mit sich bringt: 1 Da MMLU weit verbreitet ist, ist diese Situation unvermeidlich und es ist für das Modell einfacher, MMLU-Daten während des Trainingsprozesses zu integrieren. Es ist das Gleiche, als ob Schüler vor einem Test Fragen sehen würden – das ist Betrug.

2. Reagiert empfindlich auf einfache Formatierungsänderungen, wie z. B. das Ändern der Option von (A) auf (1) oder das Hinzufügen zusätzlicher Leerzeichen zwischen der Option und der Antwort. Diese Vorgehensweisen können dazu führen, dass die Auswertungsgenauigkeit um etwa 5 % schwankt.

3. Einige Entwickler haben gezielte Möglichkeiten zur Verbesserung der MMLU-Ergebnisse, wie z. B. Fow-Shot-Learning oder Thought-Chain-Argumentation. Daher ist beim Vergleich der MMLU-Ergebnisse verschiedener Labore große Sorgfalt geboten.

4.MMLU wurde möglicherweise nicht sorgfältig Korrektur gelesen – einige Forscher fanden Beispiele für Beschriftungsfehler oder unbeantwortbare Fragen in MMLU.

Aufgrund der oben genannten Probleme ist es notwendig, bei der Durchführung dieser einfachen und standardisierten Beurteilung im Voraus Urteilsvermögen und Überlegungen anzustellen. Dieser Artikel zeigt, dass die Herausforderungen bei der Verwendung von MMLU im Allgemeinen auch für andere ähnliche Multiple-Choice-Bewertungen gelten.

BBQ

Multiple-Choice-Bewertungen können auch einige KI-Gefahren messen. Um diese Gefahren in ihrem eigenen Modell zu messen, verwendeten die Forscher von Anthropic, Claude, insbesondere den BBQ-Benchmark, einen gängigen Benchmark zur Bewertung der Modellverzerrung gegenüber Populationen. Nach dem Vergleich dieses Benchmarks mit mehreren ähnlichen Bewertungen ist dieser Artikel davon überzeugt, dass BBQ ein gutes Maß für soziale Voreingenommenheit darstellt. Die Arbeit dauerte mehrere Monate. Dieser Artikel weist darauf hin, dass die Umsetzung von BBQ viel schwieriger ist als erwartet. Das erste war, dass keine funktionierende Open-Source-Implementierung von BBQ gefunden werden konnte und die besten Ingenieure von Anthropic eine Woche brauchten, um die Evaluierung durchzuführen und zu testen. Anders als bei MMLU, das anhand der Genauigkeit bewertet wird, erfordern Bias-Scores bei BBQ Nuancen und Erfahrung zum Definieren, Berechnen und Interpretieren.

BBQ-Bias-Scores reichen von - 1 bis 1, wobei 1 auf eine signifikante Stereotyp-Bias, 0 auf keine Bias und -1 auf eine signifikante Stereotyp-Bias hinweist. Nach der Implementierung von BBQ stellte dieses Papier fest, dass einige Modelle einen Bias-Score von 0 hatten. Dieses Ergebnis stimmt die Forscher auch optimistisch und zeigt an, dass sie Fortschritte bei der Reduzierung der voreingenommenen Modellausgabe gemacht haben.

Bewertungsrahmen für Dritte

In letzter Zeit haben Dritte aktiv Bewertungssuiten entwickelt. Anthropic hat bisher an zwei dieser Projekte teilgenommen: BIG-bench und HELM (Holistic Evaluation of Language Models) der Stanford University. Obwohl die Einschätzungen Dritter sinnvoll erscheinen, stehen beide Projekte vor neuen Herausforderungen.

BIG-bench

BIG-bench besteht aus 204 Bewertungen, die gemeinsam von mehr als 450 Forschern durchgeführt wurden und eine Reihe von Themen abdecken, von der Wissenschaft bis zum sozialen Denken. Anthropic gab an, bei der Verwendung dieses Benchmarks auf einige Herausforderungen gestoßen zu sein: Für die Installation von BIG-bench sei viel Zeit aufgewendet worden. BIG-Bench ist nicht so Plug-and-Play wie MMLU – die Implementierung ist noch aufwändiger als die Verwendung von BBQ.

BIG-Bench kann nicht effektiv skaliert werden und es ist sehr schwierig, alle 204 Bewertungen abzuschließen. Daher muss es neu geschrieben werden, damit es gut mit der verwendeten Infrastruktur funktioniert, was einen enormen Arbeitsaufwand darstellt.

Darüber hinaus stellte dieser Artikel während des Implementierungsprozesses fest, dass die Bewertung einige Fehler aufwies, die sehr umständlich zu verwenden waren, sodass die Anthropic-Forscher nach diesem Experiment darauf verzichteten.

HELM: Kuratieren einer Reihe von Bewertungen von oben nach unten

BIG-Bench ist ein „Bottom-up“-Ansatz, bei dem jeder eine beliebige Aufgabe einreichen kann, die dann einer begrenzten Überprüfung durch eine Gruppe erfahrener Organisatoren unterliegt. HELM verfolgt einen „Top-Down“-Ansatz, bei dem Experten entscheiden, welche Aufgaben zur Bewertung des Modells verwendet werden sollen.

Konkret bewertet HELM das Modell in mehreren Szenarien wie Inferenzszenarien und Szenarien mit falschen Informationen, wobei Standardindikatoren wie Genauigkeit, Robustheit und Fairness verwendet werden. Anthropic bietet HELM-Entwicklern API-Zugriff, um Benchmarks für ihre Modelle durchzuführen.

Im Vergleich zu BIG-Bench hat HELM zwei Vorteile: 1) es erfordert keine umfangreiche technische Arbeit, 2) Experten können sich darauf verlassen, dass sie spezifische, qualitativ hochwertige Bewertungen auswählen und interpretieren.

HELM bringt jedoch auch einige Herausforderungen mit sich. Methoden, die zur Bewertung anderer Modelle funktionieren, funktionieren möglicherweise nicht unbedingt für die Modelle von Anthropic und umgekehrt. Beispielsweise ist die Claude-Modellfamilie von Anthropic darauf trainiert, einem bestimmten Textformat zu folgen, das als Mensch/Assistent-Format bezeichnet wird. Anthropic folgt intern diesem spezifischen Format bei der Bewertung seiner Modelle. Wenn dieses Format nicht befolgt wird, gibt Claude manchmal ungewöhnliche Antworten, wodurch die Ergebnisse der Standardbewertungsmetriken weniger glaubwürdig werden.

Darüber hinaus dauert die Fertigstellung von HELM lange, und die Evaluierung neuer Modelle kann Monate dauern und erfordert Koordination und Kommunikation mit externen Parteien.

Künstliche Intelligenzsysteme sind für eine offene und dynamische Interaktion mit Menschen konzipiert. Wie kann man das Modell also näher an realen Anwendungen bewerten?

A/B-Tests durch Crowdsourcing-Personen

Derzeit stützt sich das Feld hauptsächlich (aber nicht ausschließlich) auf eine grundlegende Art der menschlichen Bewertung – A/B-Tests auf einer Crowdsourcing-Plattform, bei der Menschen mit zwei Personen interagieren und einen offenen Dialog führen mit Modellen und wählen Sie, ob die Reaktion von Modell A oder B hilfreicher oder harmloser ist, und ordnen Sie die Modelle nach ihrer Nützlichkeit oder Harmlosigkeit ein. Der Vorteil dieser Bewertungsmethode besteht darin, dass sie realen Umgebungen entspricht und eine Rangfolge verschiedener Modelle ermöglicht.

Allerdings weist diese Bewertungsmethode einige Einschränkungen auf und die Durchführung der Experimente ist teuer und zeitaufwändig.

Erstens erfordert dieser Ansatz die Zusammenarbeit mit einer Crowdsourcing-Plattform eines Drittanbieters und die Bezahlung dafür, den Aufbau einer benutzerdefinierten Webschnittstelle für das Modell, die Gestaltung detaillierter Anweisungen für A/B-Tester, die Analyse und Speicherung der resultierenden Daten sowie die Lösung von Einstellungsproblemen und ethischen Herausforderungen gestellt von Crowdsourcing-Mitarbeitern.

Bei harmlosen Tests bergen Experimente auch das Risiko, Menschen schädlichen Emissionen auszusetzen. Die Ergebnisse menschlicher Bewertungen können auch erheblich variieren, abhängig von den Eigenschaften des menschlichen Bewerters, einschließlich der Kreativität, Motivation und Fähigkeit des menschlichen Bewerters, potenzielle Fehler im getesteten System zu erkennen.

Außerdem gibt es eine inhärente Spannung zwischen nützlich und harmlos. Das System kann den Schaden verringern, indem es nicht hilfreiche Antworten wie „Ich kann Ihnen leider nicht helfen“ bereitstellt.

Was ist die richtige Balance zwischen nützlich und harmlos? Welcher Indikatorwert zeigt an, dass das Modell nützlich und harmlos genug ist? Viele Fragen erfordern von den Forschern auf diesem Gebiet mehr Arbeit, um Antworten zu finden.

Weitere Informationen finden Sie im Originalartikel.

Originallink: https://www.anthropic.com/index/evaluating-ai-systems

Das obige ist der detaillierte Inhalt vonSind die Benchmarks für die Bewertung großer Modelle zuverlässig? Anthropic kommt für eine große Bewertung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

See all articles