Inhaltsverzeichnis
Methode zum Schreiben von Abschlussarbeiten
Inhalt des Papiers
Heim Technologie-Peripheriegeräte KI Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes' Werkzeug für die Wasserinjektion

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes' Werkzeug für die Wasserinjektion

Apr 08, 2023 am 11:41 AM
人工智能 chatgpt 论文

​ChatGPT strebt mit seinen leistungsstarken Funktionen zur Texterstellung direkt danach, das stärkste Frage- und Antwortmodell der Welt zu sein.

Aber leistungsstarke KI wird auch einige negative Auswirkungen haben, wie zum Beispiel das Schreiben ernsthaft falscher Antworten in Q&A-Communitys, das Helfen von Studenten beim Verfassen von Arbeiten usw.

Ein aktueller Artikel über arXiv hat die Aufmerksamkeit der Branche auf sich gezogen: „Herausforderungen, Chancen und Strategien der künstlichen Intelligenz in der Arzneimittelforschung“. dass der Autor ChatGPT verwendet, um beim Schreiben des Artikels zu helfen.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes Werkzeug für die Wasserinjektion

Link zum Papier: https://arxiv.org/abs/2212.08104

Das Autorenteam gab im letzten Absatz der Zusammenfassung „Anmerkung von menschlichen Autoren“ an, dass dieses Papier erstellt wurde Testen Sie, ob die Schreibfunktionen von ChatGPT, einem Chatbot basierend auf dem GPT-3.5-Sprachmodell, menschlichen Autoren beim Schreiben von Rezensionsartikeln helfen können.

Der Autor hat eine Anleitung als erste Anregung zur Textgenerierung entworfen und anschließend den automatisch generierten Inhalt ausgewertet. Nach einer gründlichen Prüfung haben die menschlichen Autoren das Manuskript tatsächlich umgeschrieben, um ein Gleichgewicht zwischen dem ursprünglichen Vorschlag und wissenschaftlichen Standards zu wahren. Der Artikel schließt mit einer Diskussion der Vorteile und Grenzen des Einsatzes künstlicher Intelligenz zur Erreichung dieses Ziels.

Aber es gibt noch eine andere Frage: Warum gibt es kein ChatGPT in der Autorenliste? (Manueller Hundekopf)

Methode zum Schreiben von Abschlussarbeiten

Dieser Artikel wurde mit Hilfe von ChatGPT erstellt, einem System zur Verarbeitung natürlicher Sprache, das am 30. November 2022 veröffentlicht wurde. Es wurde von OpenAI mithilfe einer großen Anzahl von Textkorpora trainiert . Kann auf der Grundlage der eingegebenen Eingaben Text generieren, der der menschlichen Schrift ähnelt.

Für diesen Artikel umfassten die Eingaben der menschlichen Autoren das Thema des Artikels (Anwendungen künstlicher Intelligenz in der Arzneimittelforschung), die Anzahl der zu berücksichtigenden Kapitel sowie spezifische Tipps und Anweisungen für jedes Kapitel.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes Werkzeug für die Wasserinjektion

Der von ChatGPT generierte Text muss manuell bearbeitet werden, bevor er fertiggestellt werden kann, um den Inhalt zu korrigieren und zu bereichern und Duplikate und Inkonsistenzen zu vermeiden. Außerdem müssen alle von der künstlichen Intelligenz vorgeschlagenen Verweise bearbeitet werden.

Die endgültige Version dieser Arbeit ist das Ergebnis wiederholter Überarbeitungen durch menschliche Autoren mit Hilfe künstlicher Intelligenz. Die Gesamtähnlichkeit zwischen dem direkt von ChatGPT erhaltenen vorläufigen Text und der aktuellen Version des Manuskripts beträgt: identische 4,3 %. Kleine Änderungen 13,3 %, relevante Signifikanz 16,3 %. Im direkt von ChatGPT bezogenen Vortext betrug der Anteil korrekter Referenzen nur 6 %.

Die von ChatGPT generierte Originalversion und die zur Erstellung dieser Version verwendeten Eingabeinformationen werden als unterstützende Informationen behandelt.

Die Abbildung in der Zusammenfassung des Papiers wurde von DALL-E erstellt.

Inhalt des Papiers

Das Papier umfasst insgesamt 10 Abschnitte und 56 Referenzen, von denen die Abschnitte 1–9 nur 1–2 Absätze enthalten und hauptsächlich das Thema des Papiers „Herausforderungen, Chancen und Herausforderungen der künstlichen Intelligenz“ beschreiben in der Arzneimittelforschung“ „Strategie“-bezogene Inhalte; im zehnten Abschnitt geht es hauptsächlich um „Expertenmeinungen menschlicher Autoren zu wissenschaftlichen Schreibwerkzeugen auf Basis von ChatGPT und KI“; nur der abstrakte Teil des Artikels enthält eine Illustration.

Abstract

Künstliche Intelligenz hat das Potenzial, den Prozess der Arzneimittelentwicklung zu revolutionieren und für mehr Effizienz, Genauigkeit und Geschwindigkeit zu sorgen. Der erfolgreiche Einsatz von KI hängt jedoch von der Verfügbarkeit qualitativ hochwertiger Daten, dem Umgang mit ethischen Fragen und einem Bewusstsein für die Grenzen KI-basierter Methoden ab.

Dieser Artikel geht auf die Vorteile, Herausforderungen und Mängel der künstlichen Intelligenz in diesem Bereich ein und schlägt mögliche Strategien und Methoden zur Überwindung aktueller Hindernisse vor.

Der Artikel diskutiert auch den Einsatz von Datenerweiterung, erklärbarer künstlicher Intelligenz, die Integration künstlicher Intelligenz mit traditionellen experimentellen Methoden und die potenziellen Vorteile künstlicher Intelligenz in der medizinischen Forschung.

Insgesamt unterstreicht diese Rezension das Potenzial künstlicher Intelligenz in der Arzneimittelforschung und bietet eine eingehende Untersuchung der Herausforderungen und Möglichkeiten, ihr Potenzial in diesem Bereich auszuschöpfen.

Expertenmeinungen von menschlichen Autoren zu wissenschaftlichen Schreibtools auf Basis von ChatGPT und KI

ChatGPT ist ein Chatbot, der auf dem GPT-3.5-Sprachmodell basiert. Er ist nicht als Assistent für das Schreiben wissenschaftlicher Arbeiten konzipiert, sondern mit der Fähigkeit der Menschheit vereinbar ist, zusammenhängende Gespräche zu führen und neue Informationen zu einem breiten Themenspektrum bereitzustellen, sowie mit ihrer Fähigkeit, Computercode zu korrigieren oder sogar zu generieren, hat die wissenschaftliche Gemeinschaft in Erstaunen versetzt.

Deshalb haben wir uns entschieden, sein Potenzial zu testen und einen Beitrag zum Verfassen einer kurzen Rezension über die Rolle von Algorithmen der künstlichen Intelligenz bei der Arzneimittelentwicklung zu leisten.

Als Assistent zum Verfassen wissenschaftlicher Arbeiten bietet ChatGPT mehrere Vorteile, darunter die Möglichkeit, Texte schnell zu generieren und zu optimieren sowie Benutzer bei der Erledigung verschiedener Aufgaben zu unterstützen, darunter das Organisieren von Informationen und in einigen Fällen sogar das Verknüpfen von Ideen.

Allerdings ist dieses Tool keineswegs ideal für die Generierung neuer Inhalte.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes Werkzeug für die Wasserinjektion

Nach der Eingabe von Anweisungen muss der Mensch den durch künstliche Intelligenz generierten Text noch ändern, und es handelt sich um eine umfangreiche Bearbeitung und Korrektur, einschließlich des Ersetzens fast aller Referenzen, da die von ChatGPT bereitgestellten Referenzen offensichtlich falsch sind.

Dies ist derzeit auch ein großes Problem bei ChatGPT. Es weist einen wesentlichen Unterschied zu anderen Computertools (z. B. Suchmaschinen) auf, die hauptsächlich zuverlässige Referenzen für die erforderlichen Informationen liefern.

Es gibt ein weiteres wichtiges Problem bei der Verwendung von auf künstlicher Intelligenz basierenden Tools zur Schreibunterstützung: Es wurde im Jahr 2021 trainiert und enthält daher nicht die neuesten Informationen.

Die Ergebnisse dieses Schreibexperiments sind: Wir können sagen, dass ChatGPT kein nützliches Werkzeug zum Schreiben zuverlässiger wissenschaftlicher Texte ohne starken menschlichen Eingriff ist.

ChatGPT mangelt es an Wissen und Fachwissen, um komplexe wissenschaftliche Konzepte und Informationen genau und angemessen zu kommunizieren.

Darüber hinaus sind die von ChatGPT verwendete Sprache und der Stil möglicherweise nicht für akademisches Schreiben geeignet, und um qualitativ hochwertige wissenschaftliche Texte zu erstellen, sind menschliche Eingaben und Überprüfungen unerlässlich.

Einer der Hauptgründe, warum diese Art von künstlicher Intelligenz noch nicht zur Erstellung wissenschaftlicher Artikel eingesetzt werden kann, ist, dass ihr die Fähigkeit fehlt, die Authentizität und Zuverlässigkeit verarbeiteter Informationen zu bewerten. Daher werden von ChatGPT generierte wissenschaftliche Texte definitiv falsche Inhalte enthalten oder irreführende Informationen.

Beachten Sie außerdem, dass es für Rezensenten möglicherweise schwierig ist, zwischen Artikeln zu unterscheiden, die von Menschen oder dieser künstlichen Intelligenz verfasst wurden.

Daher muss der Überprüfungsprozess gründlich sein, um die Veröffentlichung falscher oder irreführender Informationen zu verhindern.

Ist es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes Werkzeug für die Wasserinjektion

Ein echtes Risiko besteht darin, dass räuberische Zeitschriften die schnelle Produktion wissenschaftlicher Artikel ausnutzen, um große Mengen an Inhalten von geringer Qualität zu produzieren Künstliche Intelligenz kann zur schnellen Erstellung von Artikeln eingesetzt werden, wodurch der Markt mit minderwertiger Forschung überschwemmt und die Glaubwürdigkeit der wissenschaftlichen Gemeinschaft untergraben wird.

Eine der größten Gefahren ist die potenzielle Verbreitung falscher Informationen in wissenschaftlichen Artikeln, die zur Entwertung des wissenschaftlichen Unternehmens selbst, zu einem Vertrauensverlust in die Genauigkeit und Integrität der wissenschaftlichen Forschung führen und sich negativ auf den Fortschritt auswirken können der Wissenschaft.

Es gibt mehrere mögliche Lösungen, um die Risiken zu mindern, die mit der Verwendung künstlicher Intelligenz zur Erstellung wissenschaftlicher Artikel verbunden sind.

Eine Lösung besteht darin, Algorithmen der künstlichen Intelligenz speziell für die Erstellung wissenschaftlicher Artikel zu entwickeln. Diese Algorithmen können auf großen Datensätzen hochwertiger, von Experten überprüfter Forschung trainiert werden, was dazu beiträgt, die Authentizität der von ihnen generierten Informationen sicherzustellen.

Darüber hinaus können diese Algorithmen so programmiert werden, dass sie potenziell problematische Informationen kennzeichnen, z. B. das Zitieren unzuverlässiger Quellen, wodurch Forscher auf die Notwendigkeit einer weiteren Überprüfung und Verifizierung aufmerksam gemacht werden.

Ein anderer Ansatz besteht darin, künstliche Intelligenzsysteme zu entwickeln, die die Richtigkeit und Zuverlässigkeit der von ihnen verarbeiteten Informationen besser beurteilen können. Dies kann das Training der KI anhand großer Datensätze hochwertiger wissenschaftlicher Artikel sowie den Einsatz von Techniken wie Kreuzvalidierung und Peer-Review umfassen, um sicherzustellen, dass die KI genaue und vertrauenswürdige Ergebnisse liefert.

Eine weitere mögliche Lösung besteht darin, strengere Richtlinien und Vorschriften für den Einsatz künstlicher Intelligenz in der wissenschaftlichen Forschung zu entwickeln, einschließlich der Verpflichtung von Forschern, ihren Einsatz künstlicher Intelligenz bei der Erstellung von Artikeln offenzulegen, und der Einführung von Überprüfungsverfahren, um sicherzustellen, dass KI-generierte Inhalte einer bestimmten Qualität entsprechen und Genauigkeitsstandards.

Darüber hinaus könnte die Verpflichtung von Forschern, die Richtigkeit aller von KI generierten Informationen vor der Veröffentlichung gründlich zu überprüfen und zu verifizieren, sowie Strafen für diejenigen, die dies nicht tun, die Aufklärung der Öffentlichkeit über die Grenzen von KI und das Potenzial umfassen Die Gefahren, die sich daraus ergeben, dass man sich bei der wissenschaftlichen Forschung auf KI verlässt, können auch dazu beitragen, die Verbreitung von Fehlinformationen zu verhindern und sicherzustellen, dass die Öffentlichkeit besser zwischen zuverlässigen und unzuverlässigen Quellen wissenschaftlicher Informationen unterscheiden kann.

Finanzierungsagenturen und akademische Institutionen können eine Rolle bei der Förderung des verantwortungsvollen Einsatzes von KI in der wissenschaftlichen Forschung spielen, indem sie Schulungen und Ressourcen bereitstellen, um Forschern zu helfen, die Grenzen der Technologie zu verstehen.

Insgesamt erfordert die Bewältigung der Risiken, die mit dem Einsatz künstlicher Intelligenz bei der Produktion wissenschaftlicher Artikel verbunden sind, eine Kombination aus technischen Lösungen, regulatorischen Rahmenbedingungen und öffentlicher Aufklärung.

Durch die Umsetzung dieser Maßnahmen können wir sicherstellen, dass der Einsatz künstlicher Intelligenz in der wissenschaftlichen Gemeinschaft verantwortungsvoll und effektiv ist. Forscher und politische Entscheidungsträger müssen die potenziellen Gefahren des Einsatzes künstlicher Intelligenz in der wissenschaftlichen Forschung sorgfältig abwägen und Maßnahmen ergreifen, um diese Risiken zu reduzieren.

Bis man darauf vertrauen kann, dass KI zuverlässige und genaue Informationen liefert, sollte ihr Einsatz in der wissenschaftlichen Gemeinschaft vorsichtig sein und die von KI-Tools bereitgestellten Informationen müssen sorgfältig ausgewertet und anhand zuverlässiger Quellen überprüft werden.

Referenz: https://arxiv.org/abs/2212.08104

Das obige ist der detaillierte Inhalt vonIst es zuverlässig, ChatGPT zum Schreiben von Arbeiten zu verwenden? Einige Gelehrte haben es versucht: voller Schlupflöcher, aber ein „gutes' Werkzeug für die Wasserinjektion. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Aug 09, 2024 pm 09:37 PM

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Jun 28, 2024 am 03:51 AM

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Jun 11, 2024 pm 03:57 PM

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen Jul 17, 2024 pm 06:37 PM

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

ChatGPT ist jetzt mit der Veröffentlichung einer speziellen App für macOS verfügbar ChatGPT ist jetzt mit der Veröffentlichung einer speziellen App für macOS verfügbar Jun 27, 2024 am 10:05 AM

Die ChatGPT-Mac-Anwendung von Open AI ist jetzt für alle verfügbar, während sie in den letzten Monaten nur denjenigen mit einem ChatGPT Plus-Abonnement vorbehalten war. Die App lässt sich wie jede andere native Mac-App installieren, sofern Sie über ein aktuelles Apple S verfügen

SearchGPT: Open AI tritt mit seiner eigenen KI-Suchmaschine gegen Google an SearchGPT: Open AI tritt mit seiner eigenen KI-Suchmaschine gegen Google an Jul 30, 2024 am 09:58 AM

Open AI macht endlich seinen Vorstoß in die Suche. Das Unternehmen aus San Francisco hat kürzlich ein neues KI-Tool mit Suchfunktionen angekündigt. The Information berichtete erstmals im Februar dieses Jahres über das neue Tool, das treffend SearchGPT heißt und über ein c

See all articles