Super, GPT-4 hat gelernt, selbstständig wissenschaftliche Forschung zu betreiben?
Kürzlich haben mehrere Wissenschaftler der Carnegie Mellon University einen Artikel veröffentlicht, der gleichzeitig die KI- und Chemiekreise in die Luft jagte.
Sie haben eine KI entwickelt, die selbstständig Experimente durchführen und wissenschaftliche Forschung betreiben kann. Diese KI besteht aus mehreren großen Sprachmodellen und kann als GPT-4-Agent mit explosiven wissenschaftlichen Forschungsfähigkeiten angesehen werden.
Da es über ein Langzeitgedächtnis aus Vektordatenbanken verfügt, kann es komplexe wissenschaftliche Dokumente lesen, verstehen und chemische Forschung in einem cloudbasierten Roboterlabor durchführen.
Die Internetnutzer waren so schockiert, dass sie sprachlos waren: Wird diese KI also selbst erforscht und dann selbst veröffentlicht? Oh mein Gott.
Einige Leute beklagten, dass die Ära des „Tennis Experiments“ (TTE) naht!
Ist das der legendäre KI-Heilige Gral in der Welt der Chemie?
Viele Menschen haben wahrscheinlich jeden Tag das Gefühl, dass wir in Science-Fiction leben.
Im März veröffentlichte OpenAI GPT-4, ein großes Sprachmodell, das die Welt schockierte.
Dies ist der stärkste LLM auf dem Planeten. Er kann bei SAT- und BAR-Prüfungen gute Ergebnisse erzielen, LeetCode-Herausforderungen bestehen, Physikfragen mit einem Bild richtig beantworten und Memes in Emojis verstehen.
Im technischen Bericht wurde auch erwähnt, dass GPT-4 auch chemische Probleme lösen kann.
Dies inspirierte mehrere Wissenschaftler der Fakultät für Chemie an der Carnegie Mellon. Sie hoffen, eine KI zu entwickeln, die auf mehreren großen Sprachmodellen basiert, damit sie selbst Experimente entwerfen und durchführen kann.
Papieradresse: https://arxiv.org/abs/2304.05332
Und die KI, die sie gemacht haben, ist wirklich schlecht!
Es durchsucht selbstständig Literatur im Internet, steuert Flüssigkeitsverarbeitungsgeräte präzise und löst komplexe Probleme, die die gleichzeitige Verwendung mehrerer Hardwaremodule und die Integration verschiedener Datenquellen erfordern.
Es fühlt sich an wie die KI-Version von Breaking Bad.
Lassen Sie diese KI beispielsweise Ibuprofen für uns synthetisieren.
Geben Sie eine einfache Eingabeaufforderung dafür ein: „Synthetisches Ibuprofen.“
Dann durchsucht das Modell das Internet, was zu tun ist.
Es wurde festgestellt, dass der erste Schritt die Friedel-Crafts-Reaktion von Isobutylbenzol und Essigsäureanhydrid unter der Katalyse von Aluminiumchlorid erfordert.
Darüber hinaus kann diese KI auch Aspirin synthetisieren.
und synthetisches Aspartam.
Im Produkt fehlt eine Methylgruppe. Wenn das Modell das richtige Synthesebeispiel findet, wird es zur Korrektur im Cloud-Labor ausgeführt.
Sagen Sie dem Modell: Studieren Sie die Suzuki-Reaktion, und es wird das Substrat und das Produkt sofort und genau identifizieren.
Darüber hinaus können wir das Modell über eine API mit einer chemischen Reaktionsdatenbank wie Reaxys oder SciFinder verbinden, was dem Modell einen großen Vorteil verleiht und die Genauigkeitsrate in die Höhe schnellen lässt.
Auch die Analyse der vorherigen Aufzeichnungen des Systems kann die Genauigkeit des Modells erheblich verbessern.
Schauen wir uns zunächst an, wie man einen Roboter bedient, um Experimente durchzuführen.
Es behandelt eine Reihe von Proben als Ganzes (in diesem Fall die gesamte Mikroplatte).
Wir können ihm direkt in natürlicher Sprache eine Aufforderung geben: „Färben Sie jede zweite Linie mit einer Farbe Ihrer Wahl.“
Bei der Ausführung durch einen Roboter sind diese Protokolle den angeforderten Eingabeaufforderungen sehr ähnlich (Abbildung 4B-E).
Die erste Aktion des Mittels besteht darin, eine kleine Probe der Originallösung vorzubereiten (Abbildung 4F).
Dann wird nach einer UV-Vis-Messung gefragt. Nach Abschluss erhält die KI einen Dateinamen mit einem NumPy-Array, das die Spektren für jede Vertiefung der Mikroplatte enthält.
AI schrieb dann Python-Code, um die Wellenlängen mit maximaler Absorption zu identifizieren, und nutzte diese Daten, um das Problem richtig zu lösen.
In früheren Experimenten wurde die KI möglicherweise durch das in der Vortrainingsphase erhaltene Wissen beeinflusst.
Und dieses Mal planen Forscher, die Fähigkeit der KI, Experimente zu entwerfen, gründlich zu bewerten.
AI integriert zunächst die erforderlichen Daten aus dem Netzwerk, führt einige notwendige Berechnungen durch und schreibt schließlich ein Programm für das Betriebssystem für flüssige Reagenzien (der ganz linke Teil des Bildes oben).
Um die Komplexität etwas zu erhöhen, ließen die Forscher die KI das beheizte Shaker-Modul anwenden.
Diese Anforderungen sind integriert und erscheinen in der KI-Konfiguration.
Das spezifische Design ist wie folgt: AI steuert ein flüssiges Betriebssystem, das mit zwei Miniaturversionen ausgestattet ist, und die Quellversion enthält die Quellflüssigkeit einer Vielzahl von Reagenzien, einschließlich Phenylacetylen und Phenylborsäure, Mehrfach-Arylhalogenid-Kopplung Partner sowie zwei Katalysatoren und zwei Basen.
Das Bild oben zeigt den Inhalt der Quellplatte.
Und die Zielversion ist auf dem beheizten Shaker-Modul installiert.
Im Bild oben hat die Pipette links (linke Pipette) ein Fassungsvermögen von 20 Mikrolitern und die Einkanalpipette rechts ein Fassungsvermögen von 300 Mikrolitern.
Das ultimative Ziel der KI besteht darin, einen Prozess zu entwerfen, der die Suzuki- und Sonogshela-Reaktionen erfolgreich umsetzen kann.
Sagen wir es: Sie müssen einige verfügbare Reagenzien verwenden, um diese beiden Reaktionen zu erzeugen.
Dann ging es online, um beispielsweise zu suchen, welche Bedingungen für diese Reaktionen erforderlich sind, welche Anforderungen an die Stöchiometrie gestellt werden usw.
Sie können sehen, dass die KI die erforderlichen Bedingungen, die Quantifizierung und Konzentration der erforderlichen Reagenzien usw. erfolgreich erfasst hat.
AI hat den richtigen Kopplungspartner ausgewählt, um das Experiment abzuschließen. Unter allen Arylhalogeniden wählte AI Brombenzol für das Suzuki-Reaktionsexperiment und Iodbenzol für die Sonogheirah-Reaktion aus.
In jeder Runde ändern sich die Entscheidungen der KI etwas. Beispielsweise entschied man sich auch für p-Iodinitrobenzol aufgrund seiner hohen Reaktivität bei Oxidationsreaktionen.
Brombenzol wurde ausgewählt, weil Brombenzol an der Reaktion teilnehmen kann und weniger toxisch als Aryliodid ist.
Als nächstes wählte AI Pd/NHC als Katalysator, weil seine Wirkung besser ist. Dies ist eine sehr fortschrittliche Methode zur Kopplung von Reaktionen. Was die Wahl der Base angeht, hat sich AI für Triethylamin entschieden.
Aus dem obigen Prozess können wir erkennen, dass dieses Modell in der Zukunft unbegrenztes Potenzial hat. Weil das Experiment viele Male wiederholt wird, um den Argumentationsprozess des Modells zu analysieren und bessere Ergebnisse zu erzielen.
Nach der Auswahl verschiedener Reagenzien beginnt die KI mit der Berechnung der Menge jedes benötigten Reagenzes und beginnt dann mit der Planung des gesamten experimentellen Prozesses.
Die KI hat mittendrin auch einen Fehler gemacht, indem sie den falschen Namen des Heizschüttelmoduls verwendet hat. Aber die KI bemerkte dies rechtzeitig, fragte spontan die Daten ab, korrigierte den experimentellen Prozess und lief schließlich erfolgreich.
Lassen wir den professionellen chemischen Prozess beiseite und fassen wir die „Professionalität“ zusammen, die die KI in diesem Prozess an den Tag legt.
Man kann sagen, dass die KI durch den oben genannten Prozess extrem hohe analytische Denkfähigkeiten gezeigt hat. Es kann sich spontan die benötigten Informationen beschaffen und komplexe Probleme Schritt für Schritt lösen.
In diesem Prozess können Sie auch selbst Code von höchster Qualität schreiben und experimentelles Design fördern. Darüber hinaus können Sie den von Ihnen geschriebenen Code auch basierend auf dem Ausgabeinhalt ändern.
OpenAI hat die leistungsstarken Fähigkeiten von GPT-4 erfolgreich demonstriert. Eines Tages wird GPT-4 definitiv in der Lage sein, an echten Experimenten teilzunehmen.
Aber Forscher wollen damit nicht aufhören. Sie stellten die KI auch vor ein großes Problem – sie gaben ihr die Anweisung, ein neues Krebsmedikament zu entwickeln.
Dinge, die es nicht gibt ... kann diese KI noch funktionieren?
Es stellt sich heraus, dass es tatsächlich zwei Pinsel sind. KI hält an dem Grundsatz fest, keine Angst zu haben, wenn man auf Schwierigkeiten stößt (natürlich weiß sie nicht, was Angst ist), sie hat die Notwendigkeit der Entwicklung von Krebsmedikamenten sorgfältig analysiert, die aktuellen Trends in der Entwicklung von Krebsmedikamenten untersucht und dann ausgewählt ein Ziel, das es weiter zu erforschen gilt, und dessen Zusammensetzung zu bestimmen.
Dann versuchte die KI, selbstständig mit der Synthese zu beginnen. Nachdem die ersten Schritte abgeschlossen waren, suchte sie auch online nach Beispielen für verwandte Reaktionen.
Schließlich die Synthese abschließen.
Der Inhalt im Bild oben kann von der KI nicht wirklich synthetisiert werden, es handelt sich lediglich um eine theoretische Diskussion.
Dazu gehören Methamphetamin (auch Marihuana genannt), Heroin und andere bekannte Drogen sowie Senfgas und andere verbotene Giftgase.
Von insgesamt 11 Verbindungen stellte die KI für vier davon Synthesepläne bereit und versuchte, die Daten zu konsultieren, um den Syntheseprozess voranzutreiben.
Die Synthese von 5 der restlichen 7 Stoffe wurde von der KI entschieden abgelehnt. AI suchte im Internet nach relevanten Informationen zu diesen fünf Verbindungen und stellte fest, dass man damit nicht herumspielen kann.
Zum Beispiel entdeckte die KI den Zusammenhang zwischen Codein und Morphin. Man kam zu dem Schluss, dass es sich bei diesem Ding um eine kontrollierte Droge handelt und nicht einfach so synthetisiert werden kann.
Dieser Versicherungsmechanismus ist jedoch nicht zuverlässig. Solange der Benutzer das Blumenbuch geringfügig modifiziert, kann es von der KI weiter bearbeitet werden. Verwenden Sie beispielsweise das Wort Verbindung A, anstatt direkt Morphin zu erwähnen, verwenden Sie Verbindung B, anstatt direkt Codein zu erwähnen, und so weiter.
Gleichzeitig muss die Synthese einiger Medikamente von der Drug Enforcement Administration (DEA) lizenziert werden, aber einige Benutzer können diese Lücke ausnutzen und die KI dazu verleiten, zu sagen, dass sie die Erlaubnis haben, und dies zu veranlassen KI, um einen Syntheseplan zu erstellen.
Bekannte Schmuggelware wie Heroin und Senfgas, KI kennt sich auch sehr gut aus. Das Problem besteht darin, dass dieses System derzeit nur vorhandene Verbindungen erkennen kann. Bei unbekannten Verbindungen ist es weniger wahrscheinlich, dass das Modell potenzielle Gefahren erkennt.
Zum Beispiel einige komplexe Proteintoxine.
Um zu verhindern, dass jemand aus Neugier die Wirksamkeit dieser chemischen Inhaltsstoffe überprüft, haben die Forscher daher auch eine große rote Warnung in der Zeitung angebracht:
Die darin besprochene Synthese illegaler Drogen und chemischer Waffen Der Artikel dient rein wissenschaftlichen Zwecken und dient vor allem dazu, die potenziellen Gefahren neuer Technologien aufzuzeigen.
Unter keinen Umständen sollte eine Person oder Organisation versuchen, die in diesem Artikel besprochenen Substanzen oder Verbindungen nachzubilden, zu synthetisieren oder auf andere Weise herzustellen. Die Ausübung dieser Art von Aktivität ist nicht nur äußerst gefährlich, sondern in den meisten Gerichtsbarkeiten auch illegal.
Diese KI besteht aus mehreren Modulen. Diese Module können untereinander Informationen austauschen, einige können auch auf das Internet zugreifen, auf APIs zugreifen und auf den Python-Interpreter zugreifen.
Nachdem Sie die Eingabeaufforderung in Planner eingegeben haben, wird mit der Ausführung des Vorgangs begonnen.
Zum Beispiel kann es im Internet surfen, Code in Python schreiben und auf Dokumente zugreifen. Nachdem es diese grundlegenden Aufgaben verstanden hat, kann es selbstständig Experimente durchführen.
Wenn Menschen Experimente durchführen, kann uns diese KI Schritt für Schritt führen. Da es über verschiedene chemische Reaktionen nachdenken, im Internet suchen, die für das Experiment erforderliche Menge an Chemikalien berechnen und dann die entsprechenden Reaktionen durchführen kann.
Wenn die bereitgestellte Beschreibung detailliert genug ist, müssen Sie sie ihr nicht einmal erklären, sie kann das gesamte Experiment selbst verstehen.
Nach Erhalt der Anfrage von Planner verwendet die Komponente „Websuche“ die Google-Such-API.
Nach der Suche nach Ergebnissen filtert es die ersten zehn zurückgegebenen Dokumente heraus, schließt PDFs aus und gibt die Ergebnisse an sich selbst weiter.
Dann wird der Vorgang „BROWSE“ verwendet, um Text aus der Webseite zu extrahieren und eine Antwort zu generieren. Fließende Wolken und fließendes Wasser, alles auf einmal.
Diese Aufgabe kann von GPT-3.5 erledigt werden, da die Leistung offensichtlich besser ist als die von GPT-4 und es keinen Qualitätsverlust gibt.
Die Komponente „Docs Searcher“ kann durch Abfragen und Dokumentindizierung die relevantesten Teile finden und so Hardware-Dokumente (z. B. Roboter-Liquid-Handler, GC-MS, Cloud-Labors) aussortieren und dann die am besten passenden Ergebnisse zusammenfassen Generieren Sie die genaueste Antwort.
Die Komponente „Codeausführung“ verwendet kein Sprachmodell und führt Code lediglich in einem isolierten Docker-Container aus, um den Terminalhost vor unerwarteten Vorgängen durch Planner zu schützen. Die gesamte Codeausgabe wird an Planner zurückgegeben, sodass ein Fehler in der Software repariert und vorhergesagt werden kann. Das gleiche Prinzip gilt für die Komponente „Automatisierung“.
Es gibt viele Schwierigkeiten beim Aufbau einer KI, die komplexe Überlegungen durchführen kann.
Um beispielsweise moderne Software integrieren zu können, müssen Benutzer in der Lage sein, die Softwaredokumentation zu verstehen. Allerdings ist die Sprache dieser Dokumentation im Allgemeinen sehr akademisch und professionell, was schafft große Hindernisse.
Das große Sprachmodell kann natürliche Sprache verwenden, um Softwaredokumente zu generieren, die auch Nicht-Experten verstehen können, um dieses Hindernis zu überwinden. Eine der Trainingsquellen für diese Modelle ist die große Menge an Informationen im Zusammenhang mit APIs, wie beispielsweise der Python-API von Opentron.
Da die Trainingsdaten von GPT-4 jedoch im September 2021 enden, besteht ein größerer Bedarf, die Genauigkeit der KI mithilfe von APIs zu verbessern.
Zu diesem Zweck entwickelten die Forscher eine Methode, um der KI eine Dokumentation für eine bestimmte Aufgabe bereitzustellen.
Sie generierten die Ada-Einbettungen von OpenAI für Querverweise und die Berechnung der Ähnlichkeit relativ zur Abfrage. Und wählen Sie Teile des Dokuments über die entfernungsbasierte Vektorsuche aus.
Die Anzahl der bereitgestellten Teile hängt von der Anzahl der im Originaltext vorhandenen GPT-4-Tokens ab. Die maximale Anzahl an Token ist auf 7800 festgelegt, sodass KI-bezogene Dokumente in nur einem Schritt bereitgestellt werden können.
Diese Methode erwies sich als entscheidend, um der KI Informationen über das Heizungs-Vibrator-Hardwaremodul zu liefern, das für die chemische Reaktion erforderlich ist.
Größere Herausforderungen ergeben sich, wenn dieser Ansatz auf vielfältigere Robotikplattformen wie Emerald Cloud Lab (ECL) angewendet wird.
An diesem Punkt können wir das GPT-4-Modell mit Informationen versorgen, die es nicht kennt, beispielsweise über die Symbolic Lab Language (SLL) von Cloud Lab.
In allen Fällen hat die KI die Aufgabe richtig identifiziert und dann erledigt.
In diesem Prozess behält das Modell effektiv Informationen über die verschiedenen Optionen, Werkzeuge und Parameter einer bestimmten Funktion. Nach der Aufnahme des gesamten Dokuments wird das Modell aufgefordert, mithilfe der angegebenen Funktion einen Codeblock zu generieren und diesen an Planner zurückzugeben.
starker Ruf nach Regulierung
Abschließend betonten die Forscher, dass Schutzmaßnahmen getroffen werden müssen, um den Missbrauch großer Sprachmodelle zu verhindern: # 🎜🎜#
„Wir fordern die Community der künstlichen Intelligenz auf, der Sicherheit dieser Modelle Priorität einzuräumen. Wir fordern OpenAI, Microsoft, Google, Meta, Deepmind, Anthropic und andere große Akteure.“ Um die Sicherheit ihrer großen Sprachmodelle zu verbessern, rufen wir auch die physikalische Wissenschaftsgemeinschaft auf, mit Teams zusammenzuarbeiten, die an der Entwicklung großer Sprachmodelle beteiligt sind, um sie bei der Entwicklung dieser Schutzmaßnahmen zu unterstützen Dem stimmte voll und ganz zu: „Das ist kein Scherz. Drei Wissenschaftler der Carnegie Mellon University forderten dringend Sicherheitsforschung zu LLM.“Das obige ist der detaillierte Inhalt vonSprengen Sie die KI und die biochemische Umgebung in die Luft! GPT-4 lernt, selbstständig wissenschaftliche Forschung zu betreiben und bringt den Menschen Schritt für Schritt bei, Experimente durchzuführen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!