Heim > web3.0 > Forscher äußern Bedenken hinsichtlich ideologischer Voreingenommenheit in großen Sprachmodellen (LLMs)

Forscher äußern Bedenken hinsichtlich ideologischer Voreingenommenheit in großen Sprachmodellen (LLMs)

DDD
Freigeben: 2024-10-29 04:00:10
Original
333 Leute haben es durchsucht

Diese Modelle, die häufig für Aufgaben wie Zusammenfassungen und Fragenbeantwortung verwendet werden, spiegeln die Weltanschauungen ihrer Ersteller wider. Eine neue Studie der Universität Gent zeigt, dass LLMs je nach Sprache, Region und Ausbildungsdaten unterschiedliche ideologische Standpunkte vertreten.

Forscher äußern Bedenken hinsichtlich ideologischer Voreingenommenheit in großen Sprachmodellen (LLMs)

Große Sprachmodelle (LLMs) sind leistungsstarke Werkzeuge, die für eine Vielzahl von Aufgaben verwendet werden können, von der Zusammenfassung von Text bis zur Beantwortung von Fragen. Eine aktuelle Studie der Universität Gent hat jedoch gezeigt, dass LLMs auch voreingenommen sein können und die ideologischen Weltanschauungen ihrer Schöpfer widerspiegeln.

Die Studie untersuchte ideologische Unterschiede in LLM-Antworten auf Englisch und Chinesisch. Die Forscher baten die Modelle, historische Persönlichkeiten zu beschreiben, und analysierten dann die moralischen Urteile in jeder Antwort. Sie fanden heraus, dass LLMs je nach Sprach- und geografischer Ausbildung unterschiedlich reagierten. Dies zeigte sich daran, wie westliche und nicht-westliche LLMs mit Beschreibungen globaler Konflikte und politischer Persönlichkeiten umgingen.

Paolo Ardoino, CEO von Tether, äußerte in einem aktuellen Beitrag Bedenken zu diesem Problem. Er betonte die Bedeutung der Benutzerkontrolle über KI-Modelle und äußerte Bedenken hinsichtlich des Einflusses großer Technologieunternehmen, der seiner Meinung nach zur Gestaltung der öffentlichen Meinung genutzt werden könnte.

Bei der Lugano Plan B-Veranstaltung stellte Ardoino das Local AI Development Kit von Tether als Lösung vor. Das datenschutzorientierte Kit nutzt Peer-to-Peer-Technologie (P2P), um eine Alternative zu großen, technologiegesteuerten KI-Modellen zu bieten.

Wir müssen die Modelle kontrollieren, die wir ausführen und auf die wir uns verlassen.

Und lassen Sie nicht zu, dass große Tech-Herren unsere Gedanken zwingen und kontrollieren.

Eine Lösung https://t.co/1MyRIUXwit

Das Tether AI SDK ist hochgradig modular und anpassungsfähig, sodass Entwickler es auf verschiedenen Geräten verwenden können, von preisgünstigen Telefonen bis hin zu fortschrittlichen Computern. Das Open-Source-Kit unterstützt verschiedene Modelle wie Marian und LLaMA und ermöglicht Benutzern die Speicherung von Daten in P2P-Strukturen für mehr Privatsphäre. Dieser dezentrale Ansatz bietet eine lokale und private Methode zur Ausführung von KI-Anwendungen.

Die Studie der Universität Gent fand auch Unterschiede in der Art und Weise, wie LLMs historische und politische Ereignisse thematisierten. Westliche Modelle orientierten sich in ihren Beschreibungen tendenziell an westlichen Ideologien, während nicht-westliche Modelle diese Themen unterschiedlich angingen, was eine Kluft in den Erzählperspektiven verdeutlichte. Diese Erkenntnisse unterstreichen die Herausforderungen beim Aufbau „neutraler“ KI-Systeme.

Ardoinos Initiative für eine dezentrale KI-Plattform steht im Einklang mit einem breiteren Trend in der Technologiebranche zu mehr Privatsphäre. Während das Local AI-Kit von Tether getestet wird, zeigt es einen neuen Weg für modulare KI auf, die vom Benutzer gesteuert wird. Dieser Ansatz könnte möglicherweise Datenschutzbedenken ausräumen und die Abhängigkeit von großen Technologieunternehmen für KI-Anforderungen verringern.

Dieser Artikel hat lehrreichen und informativen Charakter. Es handelt sich nicht um eine Finanzberatung oder Beratung jeglicher Art. Coin Edition haftet nicht für Verluste, die durch die Nutzung der genannten Inhalte, Produkte oder Dienstleistungen entstehen. Bitte konsultieren Sie einen lizenzierten Fachmann, bevor Sie finanzielle oder andere Entscheidungen treffen.

Das obige ist der detaillierte Inhalt vonForscher äußern Bedenken hinsichtlich ideologischer Voreingenommenheit in großen Sprachmodellen (LLMs). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage