Inhaltsverzeichnis
Brachman sagte: „In den letzten 10 bis 12 Jahren, als die Menschen eine außergewöhnliche Begeisterung für Deep Learning zeigten, wurde viel über Deep-Learning-basierte Systeme geforscht, die das können, was wir können.“ Ursprünglich hoffte man, dass künstliche Intelligenz es schaffen würde unter bestimmten Umständen wenig oder gar kein menschliches Eingreifen.
KI ohne Common Sinn Die Gefahren, denen man ausgesetzt ist
Er sagte: „Ich würde nicht darauf drängen, Prädikatenrechnungen erster Ordnung zur Verarbeitung von Pixeln auf einer künstlichen Netzhaut oder symbolische Betriebssysteme zur Verarbeitung von Geschwindigkeitssignalen zu verwenden. Diese maschinellen Lernsysteme eignen sich sehr gut für Erkennungsaufgaben auf niedriger sensorischer Ebene.“ , die noch nicht verstanden werden Wie hoch die Dinge in der kognitiven Kette stehen, aber sie schaffen es nicht bis zum Ende, weil sie keine Konzepte und Verbindungen zwischen dem, was die Menschen in der Szene sehen, und der natürlichen Sprache herstellen.
Heim Technologie-Peripheriegeräte KI Wie man das „gesunde Menschenverstand'-Problem der künstlichen Intelligenz löst

Wie man das „gesunde Menschenverstand'-Problem der künstlichen Intelligenz löst

Apr 14, 2023 am 11:19 AM
人工智能 深度学习 常识

​Übersetzer |. Li Rui

Rezensent |.In den letzten Jahren hat Deep Learning in einigen der anspruchsvollsten Bereiche der künstlichen Intelligenz große Fortschritte gemacht, darunter Computer Vision, Spracherkennung und Verarbeitung natürlicher Sprache.

Wie man das „gesunde Menschenverstand'-Problem der künstlichen Intelligenz löstAllerdings haben Deep-Learning-Systeme einige Probleme immer noch nicht gelöst. Da Deep-Learning-Systeme nicht gut im Umgang mit neuen Situationen sind, benötigen sie zum Trainieren große Datenmengen und machen manchmal bizarre Fehler, die selbst ihre Entwickler verwirren.

Einige Wissenschaftler glauben, dass diese Probleme gelöst werden können, indem immer größere neuronale Netze geschaffen und auf immer größeren Datensätzen trainiert werden. Manche Leute glauben auch, dass der Bereich der künstlichen Intelligenz etwas „gesunden Menschenverstand“ von Seiten der Menschen braucht.

In ihrem neuen Buch „Machines Like Us“ äußern die Informatiker Ronald J. Brachman und Hector J. Levesque ihre Gedanken und mögliche Lösungen zu diesem fehlenden Teil des Puzzles der künstlichen Intelligenz, dem „gesunden Menschenverstand“. Ein Problem, das Forschern Rätsel aufgibt seit Jahrzehnten. In einem Interview mit Branchenmedien diskutierte Brachman, was gesunder Menschenverstand ist und was nicht, warum Maschinen keinen gesunden Menschenverstand haben und wie das Konzept der „Wissensrepräsentation“ die Gemeinschaft der künstlichen Intelligenz in die richtige Richtung führen kann. Das Konzept der „Wissensrepräsentation“ gibt es schon seit Jahrzehnten, wurde aber während des Deep-Learning-Trends auf Eis gelegt.

Obwohl das Buch „Machines Like Us“ immer noch im Bereich der Hypothesen steckt, bietet es eine neue Perspektive auf potenzielle Forschungsbereiche, dank zweier Personen, die sich seit den 1970er-Jahren intensiv mit künstlicher Intelligenz beschäftigen.

Gute KI-Systeme machen seltsame Fehler

Brachman sagte: „In den letzten 10 bis 12 Jahren, als die Menschen eine außergewöhnliche Begeisterung für Deep Learning zeigten, wurde viel über Deep-Learning-basierte Systeme geforscht, die das können, was wir können.“ Ursprünglich hoffte man, dass künstliche Intelligenz es schaffen würde unter bestimmten Umständen wenig oder gar kein menschliches Eingreifen.

Brachman sagte: „Heutzutage sind viele Menschen davon begeistert, was Deep Learning bewirken kann, und der Umfang der Forschung ist stark eingeschränkt. Vor allem im industriellen Bereich wurde die erfahrungsbasierte Forschung durch große Mittel und die Rekrutierung von Talenten gefördert.“ oder an Beispielen geschult. Da den Systemen so viel Aufmerksamkeit geschenkt wird, dass viele behaupten, sie seien der allgemeinen künstlichen Intelligenz oder der „guten altmodischen künstlichen Intelligenz“ (GOFAI) nahe, oder symbolische Ansätze seien völlig veraltet oder unnötig.“

Das ist offensichtlich Obwohl beeindruckend, stehen Deep-Learning-Systeme vor rätselhaften Problemen, die noch gelöst werden müssen. Neuronale Netze sind anfällig für gegnerische Angriffe, bei denen speziell gestaltete Änderungen an Eingabewerten dazu führen, dass das Modell des maschinellen Lernens plötzliche, fehlerhafte Änderungen an seinen Ausgaben vornimmt. Deep Learning hat auch Schwierigkeiten, einfache Ursache-Wirkungs-Beziehungen zu verstehen, und ist schlecht darin, Konzepte zu konzipieren und sie zusammenzusetzen. Große Sprachmodelle waren in letzter Zeit ein Bereich von besonderem Interesse, machen aber manchmal sehr dumme Fehler bei der Generierung kohärenter und eindrucksvoller Texte.

Brachman sagte: „Die Menschen nehmen diese Fehler, die durch künstliche Intelligenz gemacht werden, so wahr, dass sie dumm und unwissend aussehen, und Menschen machen solche Fehler selten. Aber das Wichtigste ist, dass die Gründe für diese Fehler etwas schwer zu erklären sind.“ Diese Fehler veranlassten Brachman und Levesque dazu, darüber nachzudenken, was der heutigen KI-Technologie fehlt und was erforderlich ist, um beispielgesteuerte Trainingssysteme für neuronale Netzwerke zu ergänzen oder zu ersetzen.

Brachman sagte: „Wenn Sie darüber nachdenken, fehlt diesen Systemen eindeutig das, was Menschen gesunden Menschenverstand nennen, also die Fähigkeit, Dinge zu sehen, die für viele Menschen offensichtlich sind, und schnell zu einfachen und offensichtlichen Schlussfolgerungen zu gelangen.“ in der Lage, Entscheidungen zu treffen, wenn Sie sich davon abhalten, etwas zu tun, von dem Sie sofort erkennen, dass es lächerlich oder die falsche Wahl ist.“

Was ist gesunder Menschenverstand?

Die KI-Community spricht seit ihren Anfängen über gesunden Menschenverstand. Tatsächlich trug einer der frühesten Artikel über künstliche Intelligenz von John McCarthy aus dem Jahr 1958 den Titel „Programme mit gesundem Menschenverstand“.

Brachman sagte: „Das ist nichts Neues und es ist kein Name, den wir erfunden haben, aber das Fachgebiet hat die Kernbedeutung dessen, was die Pioniere der künstlichen Intelligenz gesagt haben, aus den Augen verloren, wenn wir besser verstehen, was gesunder Menschenverstand ist und was er bedeutet.“ Um es zu haben, wird es für uns von Nutzen sein. Noch wichtiger ist, wie es funktioniert und wie es umgesetzt werden würde. In dem Buch „Machines Like Us“ greifen Brachman und Levesque auf den gesunden Menschenverstand zurück. Beschrieben als „die Fähigkeit, gewöhnliches, alltägliches Erfahrungswissen effektiv zu nutzen, um gewöhnliche, routinemäßige, praktische Ziele zu erreichen.“

Der gesunde Menschenverstand ist überlebenswichtig. Menschen und höhere Tiere haben sich so entwickelt, dass sie durch Erfahrung lernen und Routine- und Autopilotfähigkeiten entwickeln, mit denen sie die meisten Situationen, mit denen sie täglich konfrontiert werden, meistern können. Aber das tägliche Leben ist mehr als nur die Routine, die Menschen immer wieder sehen. Menschen werden oft mit neuen Situationen konfrontiert, die sie noch nie zuvor gesehen haben. Manche davon unterscheiden sich vielleicht stark vom Normalzustand, aber meistens sehen die Menschen die Dinge etwas anders, als sie es gewohnt sind. In KI-Diskussionen wird dies manchmal als „Long Tail“ bezeichnet.

Brachman sagte: „Wenn diese Routinen unterbrochen werden, wird unserer Meinung nach als Erstes der gesunde Menschenverstand aktiviert, der es den Menschen ermöglicht, neue Situationen schnell zu verstehen, sich an das zu erinnern, was sie zuvor getan haben, und ihr Gedächtnis schnell anzupassen und es darauf anzuwenden.“

In gewisser Weise unterscheidet sich der gesunde Menschenverstand etwas von dem vom Psychologen und Nobelpreisträger Daniel Kahneman populären Denkparadigma des dualen Systems. Der gesunde Menschenverstand ist nicht das schnelle Autopilot-System-1-Denken, das die meisten alltäglichen Aufgaben erledigt, die Menschen ohne besondere Konzentration erledigen können (z. B. Zähne putzen, Schuhe binden, Knöpfe zuknöpfen, in einem vertrauten Bereich fahren). Es erfordert positives Denken, um aus der aktuellen Routine auszubrechen.

Gleichzeitig ist gesunder Menschenverstand kein System-2-Denken. System-2-Denken ist ein langsamer Denkmodus, der volle Konzentration und schrittweises Denken erfordert (zum Beispiel die Planung einer sechswöchigen Reise, das Entwerfen von Software, das Lösen komplexer Probleme). mathematische Gleichungen).

Brachman sagt: „Diese Art des Denkens ermüdet das Gehirn und macht es langsam.“ darüber, was als nächstes zu tun ist.“

In ihrer veröffentlichten Arbeit betonen Brachman und Levesque, dass der gesunde Menschenverstand ein „oberflächliches kognitives Phänomen“ ist, das schneller funktioniert als eine durchdachte, methodische Analyse.

„Wenn es viel Nachdenken erfordert, um es herauszufinden, ist das kein gesunder Menschenverstand. Wir können es uns als ‚reflexives Denken‘ vorstellen, und ‚reflexiv‘ ist genauso wichtig wie ‚Denken‘“,

KI ohne Common Sinn Die Gefahren, denen man ausgesetzt ist

Gesunder Menschenverstand erfordert Vorhersehbarkeit, Vertrauen, Erklärbarkeit und Verantwortlichkeit.

Brachman sagte: „Die meisten Menschen machen keine seltsamen Fehler. Obwohl Menschen einige dumme Dinge tun, können sie solche Fehler nach Überlegung vermeiden. Obwohl Menschen nicht perfekt sind, werden einige Fehler bis zu einem gewissen Grad gemacht. Die Herausforderung mit KI.“ Systeme ohne gesunden Menschenverstand können Fehler machen, wenn sie an die Grenzen ihrer Ausbildung stoßen. Brachman sagte, die Fehler seien völlig unvorhersehbar und unerklärlich gewesen.

Brachman sagte: „KI-Systeme ohne gesunden Menschenverstand haben diese Perspektive nicht, keinen Ausweg, der sie davon abhält, seltsame Dinge zu tun, und sie werden zerbrechlich. Wenn sie Fehler machen, bedeuten ihnen die Fehler überhaupt nichts.“ Diese Fehler können harmlos sein, wie z. B. die falsche Beschriftung eines Bildes, bis hin zu äußerst schädlichen Fehlern, wie z. B. wenn ein selbstfahrendes Auto auf die falsche Spur fährt.

Brachman und Levesque schreiben in dem Buch: „Wenn das Problem, auf das ein KI-System stößt, darin besteht, Schach zu spielen, und es ihm darum geht, das Spiel zu gewinnen, dann kommt für sie der gesunde Menschenverstand nicht ins Spiel, und wenn Menschen Schach spielen, ist das üblich.“ Der gesunde Menschenverstand wird ins Spiel kommen.“ In diesen Bereichen passiert immer etwas Neues und Spannendes.

Brachman und Levesque schreiben in ihrem Buch Machines Like Us: „Wenn wir wollen, dass Systeme der künstlichen Intelligenz in der Lage sind, mit alltäglichen Vorkommnissen in der realen Welt vernünftig umzugehen, müssen wir mehr tun, als nur zu verstehen, was bereits passiert ist.“ Die Vorhersage der Zukunft allein auf der Grundlage des Sehens und Verinnerlichens dessen, was in der Vergangenheit passiert ist, wird nicht funktionieren. Allerdings gibt es oft Uneinigkeit, wenn es um Lösungen geht. Ein beliebter Trend besteht weiterhin darin, neuronale Netze immer größer zu machen. Es gibt Hinweise darauf, dass größere neuronale Netze weiterhin schrittweise Verbesserungen erzielen. In einigen Fällen weisen große neuronale Netze Zero-Shot-Lernfähigkeiten auf und führen Aufgaben aus, für die sie nicht trainiert wurden.

Allerdings gibt es auch viele Studien und Experimente, die zeigen, dass mehr Daten und Berechnungen das Problem künstlicher Intelligenzsysteme ohne gesunden Menschenverstand nicht lösen, sondern sie nur in größeren und verwirrenderen numerischen Gewichten und Matrixoperationen verbergen.

Brachman sagte: „Diese Systeme bemerken und verinnerlichen Korrelationen oder Muster. Sie bilden keine ‚Konzepte‘. Selbst wenn diese Systeme mit der Sprache interagieren, ahmen sie einfach menschliches Verhalten nach, ohne die zugrunde liegende Psychologie und Konzepte, von denen die Menschen glauben, dass sie einen Mechanismus besitzen.“

Brachman und Levesque befürworten die Schaffung eines Systems, das gesundes Menschenverstandswissen und ein vernünftiges Verständnis der Welt kodiert.

Sie schreiben in dem Buch: „Beim gesunden Menschenverstand geht es um Dinge in der Welt und die Eigenschaften, die sie haben, vermittelt durch das, was wir konzeptionelle Strukturen nennen. Es geht um die verschiedenen Dinge, die existieren können, und die verschiedenen Eigenschaften, die sie haben können.“ Das Wissen wird durch symbolische Darstellungen und die Durchführung rechnerischer Operationen an diesen symbolischen Strukturen genutzt. Es kommt darauf hinaus, dass dieses repräsentative Wissen genutzt wird, um zu überlegen, wie man auf beobachtete Situationen reagiert.

Brachman und Levesque glauben, dass das Fachgebiet zurückblicken und einige seiner früheren Arbeiten zur symbolischen künstlichen Intelligenz überdenken muss, um Computern gesunden Menschenverstand zu verleihen. Sie nennen dies die „Wissensrepräsentations“-Hypothese. In diesem Buch wird detailliert beschrieben, wie man Systeme zur Wissensrepräsentation (Knowledge Representation, KR) aufbaut und wie man verschiedene Wissensteile kombiniert, um komplexere Wissens- und Argumentationsformen zu bilden.

Gemäß der Knowledge Representation (KR)-Hypothese wird die Darstellung von Common Sense-Wissen in zwei Teile unterteilt: „Der eine ist ein Weltmodell, das den Zustand der Welt darstellt, und der andere ist ein konzeptionelles Modell, das das Konzeptuelle darstellt.“ Struktur, und dies ist ein Modell, das verwendet werden kann, um die Welt darzustellen.“ und Symbolmanipulationsprogramme (was die Leute früher Inferenzmaschinen nannten) können codiert und verwendet werden. Das grundlegende Wissen über die Welt, das die Leute gesunden Menschenverstand nennen: intuitive oder naive Physik, ein grundlegendes Verständnis dafür, wie sich Menschen und andere Agenten verhalten und Absichten haben Überzeugungen, wie Zeit und Ereignisse funktionieren, Ursache und Wirkung usw. Das ist es, was wir am Anfang lernen. Das formal dargestellte Wissen über die Welt kann tatsächlich einen kausalen Einfluss auf das Verhalten der Maschine haben. und auch all die Dinge wie Kompositionalität tun und bekannte Dinge auf neue Weise präsentieren.“

Brachman betonte, dass die Annahmen, die sie in dem Buch vorbringen, in Zukunft widerlegt werden können.

Brachman sagte: „Auf lange Sicht weiß ich nicht, ob es darum geht, all dieses Wissen vorab aufzubauen, vorzucodieren oder das KI-System auf andere Weise lernen zu lassen Experiment, ich denke, der nächste Schritt für KI. Ein erster Schritt sollte darin bestehen, zu versuchen, diese Wissensbasen aufzubauen und das System damit zu veranlassen, mit den unerwarteten Ereignissen des täglichen Lebens umzugehen und grobe Vermutungen darüber anzustellen, wie mit vertrauten und unbekannten Situationen umzugehen ist.

Die Hypothese von Brachman und Levesque baut auf früheren Bemühungen auf, groß angelegte Systeme wie Cyc zu schaffen. Das Projekt reicht bis in die 1980er Jahre zurück und hat Millionen von Regeln und Konzepten über die Welt gesammelt.

Brachman sagte: „Ich denke, wir müssen uns darauf konzentrieren, wie autonome Entscheidungsmaschinen diese Dinge in alltäglichen Entscheidungskontexten nutzen. Es ist eine Sache, Faktenwissen zu sammeln und in der Lage zu sein, auf gefährliche Arten zu antworten.“ von Fragen; aber in dieser lauten Welt zu arbeiten und auf unvorhergesehene Überraschungen rational und schnell reagieren zu können, ist eine ganz andere Sache. „

Spielt maschinelles Lernen eine Rolle? Brachman sagte, dass auf maschinellem Lernen basierende Systeme weiterhin eine Schlüsselrolle bei der Wahrnehmung künstlicher Intelligenz spielen werden.

Er sagte: „Ich würde nicht darauf drängen, Prädikatenrechnungen erster Ordnung zur Verarbeitung von Pixeln auf einer künstlichen Netzhaut oder symbolische Betriebssysteme zur Verarbeitung von Geschwindigkeitssignalen zu verwenden. Diese maschinellen Lernsysteme eignen sich sehr gut für Erkennungsaufgaben auf niedriger sensorischer Ebene.“ , die noch nicht verstanden werden Wie hoch die Dinge in der kognitiven Kette stehen, aber sie schaffen es nicht bis zum Ende, weil sie keine Konzepte und Verbindungen zwischen dem, was die Menschen in der Szene sehen, und der natürlichen Sprache herstellen.

Neuronale Netze und Symbolsysteme sind eine Idee, die in den letzten Jahren immer mehr an Bedeutung gewonnen hat. Gary Marcus, Luis Lamb und Joshua Tenenbaum schlagen unter anderem die Entwicklung „neurosymbolischer“ Systeme vor, die das Beste aus symbolischen und lernbasierten Systemen kombinieren würden, um aktuelle Herausforderungen in der künstlichen Intelligenz anzugehen. Wie man das „gesunde Menschenverstand'-Problem der künstlichen Intelligenz löst

Obwohl Brachman einem Großteil der Arbeit auf diesem Gebiet zustimmt, sagte er auch, dass die aktuelle Sicht auf hybride künstliche Intelligenz einer Anpassung bedarf.

Er sagte: „Ich denke, dass jedes aktuelle neurosymbolische System Schwierigkeiten haben wird, den Unterschied zwischen dem gesunden Menschenverstand und dem strukturierteren, tieferen symbolischen Denken zu erklären, das der Mathematik, der intensiven Planung und der tiefgreifenden Analyse zugrunde liegt. Ich hoffe, was Sie in dieser hybriden KI-Welt sehen.“ Den gesunden Menschenverstand wirklich berücksichtigen, die Maschine wie einen Menschen nutzen lassen und sie die gleichen Dinge tun lassen wie Menschen.“ Sinn“-Problem

​, von Ben Dickson​

Das obige ist der detaillierte Inhalt vonWie man das „gesunde Menschenverstand'-Problem der künstlichen Intelligenz löst. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Crossplay haben?
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Jun 28, 2024 am 03:51 AM

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Jun 11, 2024 pm 03:57 PM

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Sieben coole technische Interviewfragen für GenAI und LLM Sieben coole technische Interviewfragen für GenAI und LLM Jun 07, 2024 am 10:06 AM

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Fünf Schulen des maschinellen Lernens, die Sie nicht kennen Jun 05, 2024 pm 08:51 PM

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

AlphaFold 3 wird auf den Markt gebracht und sagt die Wechselwirkungen und Strukturen von Proteinen und allen Lebensmolekülen umfassend und mit weitaus größerer Genauigkeit als je zuvor voraus AlphaFold 3 wird auf den Markt gebracht und sagt die Wechselwirkungen und Strukturen von Proteinen und allen Lebensmolekülen umfassend und mit weitaus größerer Genauigkeit als je zuvor voraus Jul 16, 2024 am 12:08 AM

Herausgeber | Rettichhaut Seit der Veröffentlichung des leistungsstarken AlphaFold2 im Jahr 2021 verwenden Wissenschaftler Modelle zur Proteinstrukturvorhersage, um verschiedene Proteinstrukturen innerhalb von Zellen zu kartieren, Medikamente zu entdecken und eine „kosmische Karte“ jeder bekannten Proteininteraktion zu zeichnen. Gerade hat Google DeepMind das AlphaFold3-Modell veröffentlicht, das gemeinsame Strukturvorhersagen für Komplexe wie Proteine, Nukleinsäuren, kleine Moleküle, Ionen und modifizierte Reste durchführen kann. Die Genauigkeit von AlphaFold3 wurde im Vergleich zu vielen dedizierten Tools in der Vergangenheit (Protein-Ligand-Interaktion, Protein-Nukleinsäure-Interaktion, Antikörper-Antigen-Vorhersage) deutlich verbessert. Dies zeigt, dass dies innerhalb eines einzigen einheitlichen Deep-Learning-Frameworks möglich ist

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen Jul 17, 2024 pm 06:37 PM

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

See all articles