Inhaltsverzeichnis
Fließend, aber nicht authentisch
Können die Mängel überwunden werden?
Sicherheit und Verantwortung
Förderung einer ehrlichen Nutzung
Heim Technologie-Peripheriegeräte KI Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Apr 10, 2023 pm 03:51 PM
人工智能 chatgpt

Im Dezember starteten die Computerbiologen Casey Greene und Milton Pividori ein ungewöhnliches Experiment: Sie baten einen nichtwissenschaftlichen Assistenten, ihnen bei der Verbesserung von drei Forschungsarbeiten zu helfen.

Ihre fleißigen Assistenten empfehlen, verschiedene Teile des Dokuments in Sekundenschnelle zu überarbeiten, was etwa fünf Minuten pro Manuskript dauert. In einem Biologiemanuskript fanden ihre Assistenten sogar einen Fehler beim Zitieren einer Gleichung.

Rezensionen verlaufen nicht immer reibungslos, aber das endgültige Manuskript ist leichter zu lesen – und die Kosten sind mit weniger als 0,50 $ pro Dokument moderat. T-Thesis-Adresse: https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1

Was bedeuten ChatGPT und generative KI für die Wissenschaft? Wie berichtet, handelt es sich bei dem Assistenten nicht um einen Menschen, sondern um einen Algorithmus der künstlichen Intelligenz namens GPT-3, der der Erste war im Jahr 2020 veröffentlicht.

Es handelt sich um ein vielgepriesenes generatives KI-Tool im Chatbot-Stil, egal ob Sie Prosa, Gedichte, Computercode erstellen oder eine Forschungsarbeit bearbeiten sollen.

Das bekannteste dieser Tools (auch bekannt als Large Language Models oder LLMs) ist ChatGPT, eine Version von GPT-3, die nach ihrer Veröffentlichung im vergangenen November großen Ruhm erlangte, weil sie kostenlos und leicht zugänglich war. Andere generative KI kann Bilder oder Töne erzeugen.

Artikeladresse: https://www.nature.com/articles/d41586-021-00530-0

Was bedeuten ChatGPT und generative KI für die Wissenschaft? „Ich bin sehr beeindruckt“, sagte Liu, die arbeitet an der University of Pennsylvania in Philadelphia, sagte Pividori. „Dies wird uns helfen, die Produktivität der Forscher zu steigern.“ Andere Wissenschaftler sagten, dass sie LLM jetzt regelmäßig nutzen, nicht nur zum Bearbeiten von Manuskripten, sondern auch, um ihnen beim Schreiben oder Überprüfen von Code und beim Brainstorming von Ideen zu helfen.

„Ich benutze LLM jetzt jeden Tag“, sagt Hafsteinn Einarsson, Informatiker an der Universität von Island in Reykjavik.

Er begann mit GPT-3, wechselte aber später zu ChatGPT, was ihm dabei half, Präsentationsfolien, Studentenprüfungen und Kursarbeiten zu schreiben und Studentenarbeiten in Dissertationen umzuwandeln. „Viele Leute nutzen es als digitale Sekretärin oder Assistentin“, sagte er.

LLM ist teils eine Suchmaschine, teils ein Code-Schreibassistent und teils sogar ein Chatbot, der mit den Chatbots anderer Unternehmen verhandeln kann, um bessere Preise für Produkte zu erzielen. Die Entwickler von

ChatGPTs Entwickler OpenAI mit Sitz in San Francisco, Kalifornien, haben einen Abonnementdienst für 20 US-Dollar pro Monat angekündigt, der schnellere Reaktionszeiten und bevorzugten Zugriff auf neue Funktionen verspricht (die Testversion bleibt kostenlos).

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Der Technologieriese Microsoft, der bereits in OpenAI investiert hatte, kündigte im Januar eine weitere Investition an, angeblich rund 10 Milliarden US-Dollar.

LLM soll in allgemeine Text- und Datenverarbeitungssoftware integriert werden. Die zukünftige Allgegenwärtigkeit der generativen KI in der Gesellschaft scheint sicher, insbesondere da die heutigen Werkzeuge noch in den Kinderschuhen der Technologie stecken.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Aber LLMs haben auch eine Vielzahl von Bedenken geäußert – von ihrer Tendenz, Lügen zu erwidern, bis hin zu der Sorge, dass Menschen KI-generierte Texte als ihre eigenen ausgeben.

Artikeladresse: https://www.nature.com/articles/d41586-023-00288-7

Als Nature Forscher nach den möglichen Einsatzmöglichkeiten von Chatbots wie ChatGPT fragte, insbesondere in der Wissenschaft, ihren Aufregung vermischt sich mit Besorgnis.

„Wenn Sie glauben, dass diese Technologie das Potenzial hat, transformativ zu sein, dann müssen Sie meiner Meinung nach nervös sein“, sagte Greene von der University of Colorado School of Medicine in Aurora. Forscher sagen, dass viel davon abhängen wird, wie künftige Vorschriften und Richtlinien den Einsatz von KI-Chatbots einschränken.

Fließend, aber nicht authentisch

Einige Forscher glauben, dass LLM großartig ist, um Aufgaben wie das Schreiben einer Arbeit oder eines Stipendiums zu beschleunigen, solange es eine Aufsicht gibt.

„Wissenschaftler setzen sich nicht länger hin und schreiben lange Einführungen für Förderanträge“, sagt die Neurobiologin Almira Osmanovic Thunström vom Sahlgrenska-Universitätskrankenhaus in Göteborg, Schweden, die eine Studie mit GPT-3 als experimentelles Manuskript mitverfasst hat. „Sie werden das System einfach darum bitten.“

Tom Tumiel, ein Forschungsingenieur bei der in London ansässigen Softwareberatung InstaDeep, sagte, er nutze LLM jeden Tag als Assistent, um beim Schreiben von Code zu helfen.

„Es ist fast wie ein besserer Stack Overflow“, sagte er und bezog sich dabei auf die beliebte Community-Site, auf der Programmierer sich gegenseitig Fragen beantworten.

Aber die Forscher betonten, dass LLM bei der Beantwortung von Fragen einfach unzuverlässig ist und manchmal falsche Antworten liefert. „Wir müssen wachsam sein, wenn wir diese Systeme nutzen, um Wissen zu generieren.“

Diese Unzuverlässigkeit spiegelt sich in der Art und Weise wider, wie LLM aufgebaut ist. ChatGPT und seine Konkurrenten lernen statistische Muster in der Sprache – einschließlich unechtem, voreingenommenem oder veraltetem Wissen – aus riesigen Datenbanken mit Online-Texten.

Wenn LLM eine Aufforderung erhält (z. B. die ausführliche Bitte von Greene und Pividori, Teile des Manuskripts neu zu schreiben), spucken sie einfach wörtlich aus, was stilistisch sinnvoll erscheint, um das Gespräch fortzusetzen.

Das Ergebnis ist, dass LLMs dazu neigen, falsche und irreführende Informationen zu produzieren, insbesondere bei technischen Themen, zu denen sie möglicherweise nicht viele Daten zum Trainieren haben. LLMs können auch nicht die Quellen ihrer Informationen angeben; wenn sie gebeten werden, eine wissenschaftliche Arbeit zu verfassen, erfinden sie fiktive Zitate.

„Dem Tool kann man nicht vertrauen, dass es die Fakten korrekt verarbeitet oder verlässliche Referenzen generiert“, heißt es in einem Leitartikel, der im Januar in der Zeitschrift Nature Machine Intelligence auf ChatGPT veröffentlicht wurde.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Artikeladresse: https://www.nature.com/articles/d41586-023-00107-z

Mit diesen Überlegungen können ChatGPT und andere LLMs zu effektiven Forschungsassistenten werden an Forscher, die über ausreichende Fachkenntnisse verfügen, um ein Problem direkt zu entdecken oder leicht zu überprüfen, ob eine Antwort, beispielsweise eine Erklärung des Computercodes oder ein Vorschlag, richtig ist.

Aber diese Tools können naive Benutzer in die Irre führen. Im vergangenen Dezember beispielsweise verbot Stack Overflow vorübergehend die Verwendung von ChatGPT, nachdem die Moderatoren der Website mit falschen, aber scheinbar überzeugenden LLM-generierten Antworten begeisterter Benutzer überschwemmt wurden.

Das kann für Suchmaschinen ein Albtraum sein.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Können die Mängel überwunden werden?

Einige Suchmaschinentools, wie etwa das auf Forscher ausgerichtete Elicit, lösen das Attributionsproblem von LLM, indem sie zunächst ihre Fähigkeiten nutzen, um Suchanfragen nach relevanter Literatur zu leiten, und dann jede von der Suchmaschine gefundene Website oder jedes gefundene Dokument kurz zusammenfassen – – und so eine Ausgabe erzeugen das eindeutig auf den Inhalt verweist (obwohl LLM möglicherweise immer noch jedes einzelne Dokument falsch zusammenfasst).

Unternehmen, die LLMs etablieren, sind sich dieser Probleme ebenfalls bewusst.

Im vergangenen September veröffentlichte DeepMind einen Artikel über einen „Konversationsagenten“ namens Sparrow. Kürzlich sagte CEO und Mitbegründer Demis Hassabis dem Time Magazine, dass das Papier dieses Jahr in der privaten Betaversion veröffentlicht wird. Ziel sei es, Funktionen zu entwickeln, darunter die Möglichkeit, Quellen zu zitieren, heißt es in dem Bericht.

Andere Konkurrenten wie Anthropic geben an, einige Probleme mit ChatGPT behoben zu haben.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Einige Wissenschaftler sagen, dass ChatGPT derzeit nicht genügend professionelle Inhaltsschulungen erhalten hat, um bei technischen Themen hilfreich zu sein.

Kareem Carr, ein Biostatistik-Doktorand an der Harvard University in Cambridge, Massachusetts, war enttäuscht, als er es bei der Arbeit ausprobierte.

„Ich denke, dass es ChatGPT schwerfallen würde, das von mir benötigte Maß an Spezifität zu erreichen“, sagte er. (Trotzdem sagt Carr, als er ChatGPT nach 20 Möglichkeiten zur Lösung eines Forschungsproblems fragte, antwortete es mit Kauderwelsch und einer hilfreichen Idee – ein statistischer Begriff, von dem er noch nie gehört hatte, der ihn zu „Eine neue Grenze für akademische Literatur“ führte.)

Einige Technologieunternehmen trainieren Chatbots auf der Grundlage professioneller wissenschaftlicher Literatur – obwohl sie ihre eigenen Probleme haben.

Im vergangenen November startete Meta, der Technologieriese, dem Facebook gehört, ein LLM-Projekt namens Galactica, das sich auf wissenschaftliche Zusammenfassungen konzentriert und besonders gut darin sein soll, akademische Inhalte zu produzieren und Forschungsfragen zu beantworten. Die Demo wurde aus dem öffentlichen Zugriff entfernt (obwohl ihr Code noch verfügbar ist), nachdem Benutzer sie ungenau und rassistisch gemacht hatten.

„Es ist nicht mehr möglich, Spaß zu haben, indem man es wahllos missbraucht. Glücklich?“ Yann LeCun, Chef-KI-Wissenschaftler bei Meta, reagierte auf die Kritik auf Twitter.


Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Sicherheit und Verantwortung

Galactica stieß auf ein bekanntes Sicherheitsproblem, auf das Ethiker seit Jahren hinweisen: Ohne Ausgabekontrollen können LLMs leicht dazu verwendet werden, Hassreden und Spam-Informationen zu generieren. sowie rassistische, sexistische und andere schädliche Assoziationen, die in den Trainingsdaten enthalten sein können.

Neben der direkten Generierung toxischer Inhalte gibt es Bedenken, dass KI-Chatbots historische Vorurteile oder Vorstellungen über die Welt, wie etwa die Überlegenheit einer bestimmten Kultur, aus ihren Trainingsdaten einbetten können, University of Michigan Science, Technology and Public Shobita Parthasarathy, Direktorin des Politikprogramms, sagt, dass die Unternehmen, die große LLMs schaffen, größtenteils in diesen Kulturen leben und aus diesen Kulturen stammen, daher möglicherweise kaum Anstrengungen unternehmen, um diese systemische und schwer zu korrigierende Voreingenommenheit zu überwinden.

OpenAI versuchte, viele dieser Probleme zu umgehen, als es beschloss, ChatGPT öffentlich zu veröffentlichen. Es beschränkt seine Wissensbasis auf das Jahr 2021, blockiert das Surfen im Internet und installiert Filter, um zu verhindern, dass das Tool Inhalte für sensible oder giftige Tipps generiert.

Damit dies jedoch geschieht, sind menschliche Moderatoren erforderlich, um giftige Texte zu kennzeichnen. Journalisten berichteten, dass die Arbeiter schlecht bezahlt wurden und einige Traumata erlitten hatten. Ähnliche Bedenken hinsichtlich der Ausbeutung von Arbeitnehmern wurden von Social-Media-Unternehmen geäußert, die Mitarbeiter einstellen, die autonome Bots trainieren, um giftige Inhalte zu kennzeichnen.

Aber die Realität ist, dass die Leitplanken von OpenAI nicht ganz funktioniert haben. Im Dezember twitterte Steven Piantadosi, ein Computerneurowissenschaftler an der University of California in Berkeley, dass er ChatGPT gebeten habe, ein Python-Programm zu entwickeln, um zu bestimmen, ob eine Person aufgrund ihres Herkunftslandes gefoltert werden sollte. Der Chatbot antwortete mit einem Code, der den Benutzer zur Eingabe eines Landes aufforderte; im Falle bestimmter Länder gab er aus: „Diese Person sollte gefoltert werden.“ (OpenAI hat solche Probleme anschließend geschlossen.)

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Letztes Jahr veröffentlichte eine Gruppe von Wissenschaftlern eine Alternative namens BLOOM. Die Forscher versuchten, die schädliche Ausgabe zu reduzieren, indem sie sie auf eine kleine Anzahl hochwertiger mehrsprachiger Textquellen trainierten. Das betreffende Team hat auch seine Trainingsdaten vollständig offengelegt (im Gegensatz zu OpenAI). Forscher haben große Technologieunternehmen aufgefordert, diesem Beispiel verantwortungsvoll zu folgen – es ist jedoch unklar, ob sie dem nachkommen werden.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Einige Forscher sagen, die Wissenschaft sollte die Unterstützung großer kommerzieller LLMs insgesamt ablehnen. Neben Problemen wie Voreingenommenheit, Sicherheitsbedenken und ausgebeuteten Arbeitskräften erfordern diese rechenintensiven Algorithmen auch große Energiemengen zum Trainieren, was Bedenken hinsichtlich ihres ökologischen Fußabdrucks aufkommen lässt.

Noch besorgniserregender ist, dass Forscher durch die Übertragung ihres Denkens auf automatisierte Chatbots möglicherweise die Fähigkeit verlieren, ihre Gedanken auszudrücken.

„Warum sollten wir als Akademiker so gerne ein solches Produkt nutzen und bewerben?“ Iris van Rooij, eine computergestützte Kognitionswissenschaftlerin an der Radboud-Universität in Nijmegen, Niederlande, forderte Akademiker dazu auf Widerstehen Sie ihrem Appell.

Weitere Verwirrung entsteht durch den rechtlichen Status einiger LLMs, die auf aus dem Internet gecrawlten Inhalten geschult werden, manchmal mit weniger klaren Berechtigungen. Urheberrechts- und Lizenzgesetze decken derzeit die direkte Reproduktion von Pixeln, Texten und Software ab, nicht jedoch die Nachahmung ihres Stils.

Das Problem entsteht, wenn diese KI-generierten Imitationen durch die Aufnahme der Originale trainiert werden. Die Entwickler einiger KI-Kunstprogramme, darunter Stable Diffusion und Midjourney, werden derzeit von Künstlern und Fotoagenturen OpenAI verklagt, und Microsoft (zusammen mit seiner Tochter-Technologieseite GitHub) wird ebenfalls wegen der Entwicklung von Nachahmersoftware für ihren KI-Codierungsassistenten Copilot verklagt . Lilian Edwards, Expertin für Internetrecht an der Universität Newcastle im Vereinigten Königreich, sagte, der Aufschrei könne Gesetzesänderungen erzwingen.

Förderung einer ehrlichen Nutzung

Daher kann es entscheidend sein, Grenzen für diese Tools zu setzen, sagen einige Forscher. Edwards weist darauf hin, dass die bestehenden Gesetze zu Diskriminierung und Voreingenommenheit (sowie die geplante Regulierung gefährlicher Nutzungen von KI) dazu beitragen werden, die Nutzung von LLM ehrlich, transparent und fair zu halten. „Es gibt eine Menge Gesetze da draußen“, sagte sie, „es geht nur darum, sie anzuwenden oder ein wenig zu optimieren.“

Gleichzeitig gibt es einen Drang nach Transparenz bei der Verwendung von LLMs. Akademische Verlage, darunter Nature, sagen, dass Wissenschaftler die Verwendung von LLM in Forschungsarbeiten offenlegen sollten; Lehrer geben an, dass sie von ihren Schülern ähnliche Maßnahmen erwarten. Die Wissenschaft ging noch einen Schritt weiter und sagte, dass mit ChatGPT oder einem anderen Tool der künstlichen Intelligenz generierte Texte nicht in Arbeiten verwendet werden dürfen.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Artikeladresse: https://www.nature.com/articles/d41586-023-00191-1

Eine zentrale technische Frage ist, ob die durch künstliche Intelligenz generierten Inhalte dies können leicht entdeckt werden. Viele Forscher arbeiten daran, wobei die zentrale Idee darin besteht, LLM selbst zu verwenden, um die Ausgabe von KI-erstelltem Text zu ermitteln.

Zum Beispiel hat Edward Tian, ​​​​ein Informatikstudent an der Princeton University in New Jersey, im vergangenen Dezember GPTZero veröffentlicht. Dieses KI-Erkennungstool analysiert Text auf zwei Arten.

Einer ist „Perplexität“, der die Vertrautheit von LLM mit dem Text misst. Tians Tool verwendet ein früheres Modell namens GPT-2; wenn es feststellt, dass die meisten Wörter und Sätze vorhersehbar sind, ist der Text wahrscheinlich KI-generiert.

Das andere ist „plötzlich“, das zur Überprüfung von Textänderungen verwendet wird. KI-generierter Text ist tendenziell konsistenter in Ton, Tempo und Verwirrung als von Menschen geschriebener Text.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Für die Zwecke von Wissenschaftlern können die vom Anti-Plagiat-Softwareentwickler Turnitin entwickelten Tools von besonderer Bedeutung sein, da die Produkte von Turnitin von Schulen, Universitäten und wissenschaftlichen Verlagen auf der ganzen Welt verwendet werden. Das Unternehmen gab an, seit der Veröffentlichung von GPT-3 im Jahr 2020 KI-Erkennungssoftware zu entwickeln und rechnet damit, diese in der ersten Hälfte dieses Jahres auf den Markt zu bringen.

Darüber hinaus hat OpenAI selbst einen Detektor für GPT-2 veröffentlicht und im Januar ein weiteres Erkennungstool veröffentlicht.

Was bedeuten ChatGPT und generative KI für die Wissenschaft?

Allerdings erhebt keines dieser Tools den Anspruch, narrensicher zu sein, insbesondere wenn der KI-generierte Text nachträglich bearbeitet wird.

Als Reaktion darauf sagte Scott Aaronson, Informatiker an der University of Texas in Austin und Gastforscher bei OpenAI, der Detektor könnte fälschlicherweise suggerieren, dass von Menschen geschriebener Text durch künstliche Intelligenz generiert wurde. Das Unternehmen gab an, dass sein neuestes Tool in Tests in 9 % der Fälle von Menschen geschriebenen Text fälschlicherweise als KI-geschrieben bezeichnete und nur in 26 % der Fälle KI-geschriebenen Text korrekt identifizierte. Aaronson sagte, dass möglicherweise weitere Beweise erforderlich seien, bevor man einen Studenten beschuldigen könne, seinen Einsatz von KI beispielsweise allein aufgrund von Detektortests verschwiegen zu haben.

Eine weitere Idee ist, KI-Inhalten ein eigenes Wasserzeichen zu geben. Im vergangenen November gab Aaronson bekannt, dass er und OpenAI an einer Möglichkeit arbeiten, die ChatGPT-Ausgabe mit einem Wasserzeichen zu versehen. Obwohl es noch nicht veröffentlicht wurde, schlug ein Team unter der Leitung von Tom Goldstein, einem Informatiker an der University of Maryland, College Park, in einem am 24. Januar veröffentlichten Vorabdruck eine Möglichkeit vor, ein Wasserzeichen zu erstellen. Die Idee besteht darin, zu dem bestimmten Zeitpunkt, an dem das LLM die Ausgabe generiert, einen Zufallszahlengenerator zu verwenden, um eine Liste sinnvoller alternativer Wörter zu erstellen, aus denen das LLM auswählen soll. Dies hinterlässt Spuren ausgewählter Wörter im endgültigen Text, die statistisch identifizierbar, für den Leser jedoch nicht offensichtlich sind. Durch Bearbeiten könnte diese Spur entfernt werden, aber Goldstein glaubt, dass dafür mehr als die Hälfte der Wörter geändert werden müsste.

Aaronson weist darauf hin, dass ein Vorteil des Wasserzeichens darin besteht, dass es niemals zu Fehlalarmen führt. Wenn ein Wasserzeichen vorhanden ist, wurde der Text mithilfe von KI generiert. Allerdings werde es nicht narrensicher sein, sagte er. „Wenn Sie entschlossen genug sind, gibt es definitiv eine Möglichkeit, jedes Wasserzeichenschema zu umgehen.“ Erkennungstools und Wasserzeichen machen es nur schwieriger – nicht unmöglich –, KI betrügerisch einzusetzen.

In der Zwischenzeit sind die Entwickler von LLM damit beschäftigt, ausgefeiltere Chatbots auf der Grundlage größerer Datensätze zu entwickeln (OpenAI wird voraussichtlich dieses Jahr GPT-4 veröffentlichen) – einschließlich Tools, die speziell auf akademische oder medizinische Arbeiten ausgerichtet sind. Ende Dezember veröffentlichten Google und DeepMind einen klinisch fokussierten Vorabdruck zu einem Medikament namens Med-PaLM. Das Tool kann einige offene medizinische Fragen fast so gut beantworten wie ein normaler menschlicher Arzt, obwohl es immer noch Mängel und Unzuverlässigkeit aufweist.

Eric Topol, Direktor des Scripps Research Translational Institute in San Diego, Kalifornien, sagte, er hoffe, dass KI, einschließlich LLM, in Zukunft sogar dabei helfen könnte, Krebs zu diagnostizieren und die Krankheit zu verstehen, indem sie Texte aus der Wissenschaft begutachtet. Krankheit. Literatur gegen Bodyscan-Bilder. Er betonte jedoch, dass dies alles eine umsichtige Überwachung durch Experten erfordere.

Die Informatik hinter der generativen künstlichen Intelligenz schreitet so schnell voran, dass jeden Monat Innovationen entstehen. Wie Forscher sie nutzen, wird ihre und unsere Zukunft bestimmen. „Es ist verrückt zu glauben, dass wir Anfang 2023 das Ende davon gesehen haben“, sagte Topol. „Das ist wirklich erst der Anfang.“

Das obige ist der detaillierte Inhalt vonWas bedeuten ChatGPT und generative KI für die Wissenschaft?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Mit ChatGPT können kostenlose Benutzer jetzt Bilder mithilfe von DALL-E 3 mit einem Tageslimit generieren Aug 09, 2024 pm 09:37 PM

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Bytedance Cutting führt SVIP-Supermitgliedschaft ein: 499 Yuan für ein fortlaufendes Jahresabonnement, das eine Vielzahl von KI-Funktionen bietet Jun 28, 2024 am 03:51 AM

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag Jun 10, 2024 am 11:08 AM

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Kann LLM durch Feinabstimmung wirklich neue Dinge lernen: Die Einführung neuen Wissens kann dazu führen, dass das Modell mehr Halluzinationen hervorruft Jun 11, 2024 pm 03:57 PM

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Um ein neues wissenschaftliches und komplexes Frage-Antwort-Benchmark- und Bewertungssystem für große Modelle bereitzustellen, haben UNSW, Argonne, die University of Chicago und andere Institutionen gemeinsam das SciQAG-Framework eingeführt Jul 25, 2024 am 06:42 AM

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen SOTA Performance, eine multimodale KI-Methode zur Vorhersage der Protein-Ligand-Affinität in Xiamen, kombiniert erstmals molekulare Oberflächeninformationen Jul 17, 2024 pm 06:37 PM

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

ChatGPT ist jetzt mit der Veröffentlichung einer speziellen App für macOS verfügbar ChatGPT ist jetzt mit der Veröffentlichung einer speziellen App für macOS verfügbar Jun 27, 2024 am 10:05 AM

Die ChatGPT-Mac-Anwendung von Open AI ist jetzt für alle verfügbar, während sie in den letzten Monaten nur denjenigen mit einem ChatGPT Plus-Abonnement vorbehalten war. Die App lässt sich wie jede andere native Mac-App installieren, sofern Sie über ein aktuelles Apple S verfügen

SK Hynix wird am 6. August neue KI-bezogene Produkte vorstellen: 12-Layer-HBM3E, 321-High-NAND usw. SK Hynix wird am 6. August neue KI-bezogene Produkte vorstellen: 12-Layer-HBM3E, 321-High-NAND usw. Aug 01, 2024 pm 09:40 PM

Laut Nachrichten dieser Website vom 1. August hat SK Hynix heute (1. August) einen Blogbeitrag veröffentlicht, in dem es ankündigt, dass es am Global Semiconductor Memory Summit FMS2024 teilnehmen wird, der vom 6. bis 8. August in Santa Clara, Kalifornien, USA, stattfindet viele neue Technologien Generation Produkt. Einführung des Future Memory and Storage Summit (FutureMemoryandStorage), früher Flash Memory Summit (FlashMemorySummit), hauptsächlich für NAND-Anbieter, im Zusammenhang mit der zunehmenden Aufmerksamkeit für die Technologie der künstlichen Intelligenz wurde dieses Jahr in Future Memory and Storage Summit (FutureMemoryandStorage) umbenannt Laden Sie DRAM- und Speicheranbieter und viele weitere Akteure ein. Neues Produkt SK Hynix wurde letztes Jahr auf den Markt gebracht

See all articles