aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Die Einbettung von Lama-Molekülen ist besser als GPT. Kann LLM Moleküle verstehen? Meta besiegte OpenAI in dieser Runde
- Herausgeber | Radish Skin Große Sprachmodelle (LLMs) wie GPT von OpenAI und Llama von MetaAI werden zunehmend für ihr Potenzial im Bereich der Cheminformatik anerkannt, insbesondere für das Verständnis des Simplified Molecular Input Line Input System (SMILES). Diese LLMs sind auch in der Lage, SMILES-Strings in Vektordarstellungen zu dekodieren. Forscher an der University of Windsor in Kanada verglichen die Leistung von GPT und Llama mit vorab trainierten Modellen auf SMILES zur Einbettung von SMILES-Strings in nachgelagerte Aufgaben und konzentrierten sich dabei auf zwei Schlüsselanwendungen: Vorhersage molekularer Eigenschaften und Vorhersage von Arzneimittelwechselwirkungen. Die Studie nutzt „Canlargelingualmod“
- KI 737 2024-07-16 13:33:18
-
- Zum ersten Mal konnte die neuronale Aktivierung der Sprache auf zellulärer Ebene lokalisiert werden
- Die bislang höchstaufgelöste Karte von Neuronen, die Wortbedeutungen kodieren, finden Sie hier. 1. Menschen können über die Sprache, die für die menschliche Kommunikation von entscheidender Bedeutung ist, auf reichhaltige und subtile Bedeutungen zugreifen. Trotz des zunehmenden Verständnisses der Gehirnregionen, die Sprache und semantische Verarbeitung unterstützen, bleibt viel Unbekanntes über neurosemantische Ableitungen auf zellulärer Ebene. Kürzlich entdeckte eine in der Zeitschrift Nature veröffentlichte Forschungsarbeit die feine kortikale Darstellung semantischer Informationen durch einzelne Neuronen, indem sie die Aktivität von Neuronen während der natürlichen Sprachverarbeitung verfolgte. Der Artikel trägt den Titel „Semantische Kodierung für Sprachverständnis bei Einzelzellenauflösung“. 1. Papieradresse: https://www.nature.com/articles/s41586-024-07643-
- KI 919 2024-07-16 12:12:59
-
- Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
- Der 2,4B Memory3 erreicht eine bessere Leistung als die größeren LLM- und RAG-Modelle. In den letzten Jahren haben große Sprachmodelle (LLMs) aufgrund ihrer außergewöhnlichen Leistung beispiellose Aufmerksamkeit erhalten. Allerdings sind die Schulungs- und Inferenzkosten von LLM hoch, und es wird versucht, die Kosten durch verschiedene Optimierungsmethoden zu senken. In diesem Artikel ließen sich Forscher des Shanghai Algorithm Innovation Research Institute, der Peking-Universität und anderer Institutionen von der Speicherhierarchie des menschlichen Gehirns inspirieren. Sie reduzierten dieses Problem, indem sie LLM mit explizitem Speicher ausstatteten (einem günstigeren Speicherformat als Modellparameter und RAG). kosten. Konzeptionell kann LLM von geringeren Parametergrößen, Trainingskosten und Inferenzkosten profitieren, da der Großteil seines Wissens in den expliziten Speicher externalisiert wird. Papieradresse: https:
- KI 707 2024-07-16 11:57:51
-
- Das Embodied-Intelligence-Team der Peking-Universität schlägt eine bedarfsgesteuerte Navigation vor, um menschliche Bedürfnisse in Einklang zu bringen und Roboter effizienter zu machen
- Stellen Sie sich vor, ein Roboter könnte Ihre Bedürfnisse verstehen und hart arbeiten, um sie zu erfüllen. Wäre das nicht großartig? Wenn Sie möchten, dass Ihnen ein Roboter hilft, müssen Sie normalerweise einen präziseren Befehl geben, aber die tatsächliche Umsetzung des Befehls ist möglicherweise nicht ideal. Wenn wir die reale Umgebung betrachten und der Roboter aufgefordert wird, ein bestimmtes Element zu finden, existiert das Element möglicherweise nicht tatsächlich in der aktuellen Umgebung und der Roboter kann es trotzdem nicht finden. Ist es jedoch möglich, dass es ein anderes Element in der Umgebung gibt? was mit dem Benutzer zusammenhängt? Hat der angeforderte Artikel ähnliche Funktionen und kann er auch die Bedürfnisse des Benutzers erfüllen? Dies ist der Vorteil der Verwendung von „Anforderungen“ als Aufgabenanweisungen. Kürzlich schlug das Team der Peking-Universität Dong Hao eine neue Navigationsaufgabe vor – die bedarfsgesteuerte Navigation (
- KI 1166 2024-07-16 11:27:39
-
- Der Gigant hinter den Kulissen bringt die industrielle KI auf die nächste Stufe
- Es gibt keinen neuen König in der industriellen KI. Sie ist hell, aber nicht brillant, und das Wasser ist still und tief. Gegen die Aussage, dass generative KI heute das Königsthema ist, würde niemand etwas dagegen haben. Mit ein paar einfachen Worten können die Terrakotta-Krieger „wiederbelebt“ werden, um die Qin-Oper zu singen, und Trump kann in einer Talkshow auftreten. Wenn der emotionale Wert voll ist, trauen Sie sich dann, sich coolere Dinge vorzustellen, wie zum Beispiel die Möglichkeit, nur mit Ihren Worten das zu erschaffen, was Sie wollen? KI kann nicht nur ein Video erzeugen, sondern auch einen immersiven, hochgradig simulierten virtuellen Raum aufbauen, der physikalischen Gesetzen folgt. Sie benötigt nur die natürliche Stimme, um Anweisungen einzugeben, und sie kann diese in professionelle Industriesprache umwandeln und sie dann an die Intelligenz übergeben der echten Fabrik wird die chemische Produktionslinie zu einer „echten Sache“. Wagen Sie es, sich etwas Cooleres vorzustellen? Sie können allein mit Ihren Worten das erschaffen, was Sie wollen! Eine solch wunderbare Zukunft scheint weit weg zu sein, doch nach der Darstellung von Siemens ist sie nicht mehr in der Luft.
- KI 1249 2024-07-16 09:50:46
-
- Die Peking-Universität stellt neues multimodales Robotermodell vor! Effiziente Argumentation und Operationen für allgemeine und Roboterszenarien
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dieser Artikel wurde von HMILab vervollständigt. HMILab stützt sich auf die beiden Hauptplattformen des National Engineering Research Center for Video and Visual Technology der Peking University und des National Key Laboratory of Multimedia Information Processing und beschäftigt sich seit langem mit der Forschung in Richtung maschinelles Lernen, multimodales Lernen und verkörperte Intelligenz. Dieses Werk Nr.
- KI 513 2024-07-16 03:51:40
-
- ICML 2024-Papier mit hoher Punktzahl |. Der Optimierer nullter Ordnung optimiert große Modelle und reduziert den Speicher erheblich
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Einführung in den Co-Erstautor dieses Artikels: Zhang Yihua: Doktorand im dritten Jahr am Institut für Informatik der Michigan State University unter der Leitung von Professor Sijia Liu. Seine Hauptforschungsrichtung ist die Sicherheit, Privatsphäre und Effizienz großer Modelle. Li Pingzhi: Absolvent der Universität für Wissenschaft und Technologie in China
- KI 1095 2024-07-16 03:17:30
-
- Mit einer mit AlphaFold vergleichbaren Genauigkeit gleicht die KI-Methode der EPFL Proteininteraktionen aus Sequenzen ab
- 1. Bedeutung von Proteininteraktionen Proteine sind die Bausteine des Lebens und an nahezu allen biologischen Prozessen beteiligt. Um die Komplexität der Zellfunktion zu erklären, ist es wichtig zu verstehen, wie Proteine interagieren. 2. Neue Methode: Paarung interagierender Proteinsequenzen Anne-Florence Bitbols Team an der Ecole Polytechnique Fédérale de Lausanne (EPFL) schlug eine Methode zur Paarung interagierender Proteinsequenzen vor. Diese Methode nutzt die Leistungsfähigkeit von Proteinsprachmodellen, die auf mehreren Sequenzausrichtungen trainiert wurden. 3. Vorteile der Methode Diese Methode eignet sich gut für kleine Datensätze und kann die Strukturvorhersage von Proteinkomplexen durch überwachte Methoden verbessern. 4. Die Forschungsergebnisse werden unter dem Titel „Pairinginteractingprotein“ veröffentlicht
- KI 969 2024-07-16 01:18:30
-
- Als Karpathy vor 12 Jahren mit Deep Learning begann, löste er eine Welle von Erinnerungen an die AlexNet-Ära aus, und am Ende waren es LeCun, Goodfellow usw
- Unerwarteterweise sind 12 Jahre vergangen, seit AlexNet 2012 die Deep-Learning-Revolution ins Leben gerufen hat. Jetzt sind auch wir in die Ära der großen Modelle eingetreten. Kürzlich löste ein Beitrag des bekannten KI-Forschers Andrej Karpathy bei vielen großen Köpfen, die an dieser Welle der Deep-Learning-Revolution beteiligt waren, Erinnerungen aus. Vom Turing-Preisträger Yann LeCun bis hin zu Ian Goodfellow, dem Vater von GAN, alle erinnerten sich an die Vergangenheit. Bisher hatte der Beitrag mehr als 630.000 Aufrufe. In dem Beitrag erwähnte Karpathy: „Eine interessante Tatsache ist, dass viele Menschen möglicherweise vom ImageNet/AlexNet-Moment im Jahr 2012 und der damit ausgelösten Deep-Learning-Revolution gehört haben.“ Es kann jedoch sein, dass es nur wenige gibt
- KI 1154 2024-07-16 01:08:30
-
- AlphaFold 3 wird auf den Markt gebracht und sagt die Wechselwirkungen und Strukturen von Proteinen und allen Lebensmolekülen umfassend und mit weitaus größerer Genauigkeit als je zuvor voraus
- Herausgeber | Rettichhaut Seit der Veröffentlichung des leistungsstarken AlphaFold2 im Jahr 2021 verwenden Wissenschaftler Modelle zur Proteinstrukturvorhersage, um verschiedene Proteinstrukturen innerhalb von Zellen zu kartieren, Medikamente zu entdecken und eine „kosmische Karte“ jeder bekannten Proteininteraktion zu zeichnen. Gerade hat Google DeepMind das AlphaFold3-Modell veröffentlicht, das gemeinsame Strukturvorhersagen für Komplexe wie Proteine, Nukleinsäuren, kleine Moleküle, Ionen und modifizierte Reste durchführen kann. Die Genauigkeit von AlphaFold3 wurde im Vergleich zu vielen dedizierten Tools in der Vergangenheit (Protein-Ligand-Interaktion, Protein-Nukleinsäure-Interaktion, Antikörper-Antigen-Vorhersage) deutlich verbessert. Dies zeigt, dass dies innerhalb eines einzigen einheitlichen Deep-Learning-Frameworks möglich ist
- KI 787 2024-07-16 00:08:11
-
- Tatsächlicher Test des neuesten KI-Sprachmodells: Wenn man Trump und Ding Zhen bittet, Zungenbrecher zu sagen, kann man sagen, dass sie gefälscht sind, aber die Sätze sind in Stücke gebrochen.
- Herausgeber des Machine Power Report: Yang Wen, dieses neue KI-Sprachmodell FishSpeech, imitiert den Klang der Stimme. In letzter Zeit ist die KI-Sprachspur plötzlich lebhaft geworden. Vor mehr als einem Monat wurde ChatTTS, bekannt als „Ceiling Level of Open Source Voice TTS“, populär. Wie beliebt ist es? In nur drei Tagen sammelte es 9,2kStar-Traffic auf GitHub, stand einst an der Spitze der Liste der GitHub-Trends und dominiert weiterhin die Liste. Nicht lange danach startete Byte auch ein ähnliches Projekt, Seed-TTS, mit dem gleichen Slogan „Erzeugung natürlicher und echter Sprache“. In den letzten Tagen ist ein neuer Spieler in diesen Track eingestiegen – FishSpeech. Es wird berichtet, dass das Modell nach 150.000 Stunden Datentraining die Daten beherrscht
- KI 573 2024-07-15 20:44:38
-
- Jeder kann ein prompter Ingenieur sein! Neu in Claude: Eingabeaufforderungen mit einem Klick generieren, testen und auswerten
- Wenn Sie nicht wissen, wie man Aufforderungen schreibt, schauen Sie sich das bitte an. Beim Erstellen von KI-Anwendungen hat die schnelle Qualität einen erheblichen Einfluss auf die Ergebnisse. Die Erstellung qualitativ hochwertiger Eingabeaufforderungen ist jedoch eine Herausforderung und erfordert von den Forschern ein tiefgreifendes Verständnis der Anwendungsanforderungen und Fachkenntnisse in großen Sprachmodellen. Um die Entwicklung zu beschleunigen und die Ergebnisse zu verbessern, hat das KI-Startup Anthropic diesen Prozess optimiert, um es Benutzern zu erleichtern, hochwertige Eingabeaufforderungen zu erstellen. Konkret fügten die Forscher AnthropicConsole neue Funktionen hinzu, um Eingabeaufforderungen zu generieren, zu testen und auszuwerten. Anthropic-Prompt-Ingenieur Alex Albert sagte: Dies ist das Ergebnis einer Menge Arbeit, die sie in den letzten Wochen investiert haben, und jetzt ist C
- KI 747 2024-07-15 20:13:31
-
- Der Schwerpunkt liegt auf personalisierten Erlebnissen und die Bindung von Benutzern hängt ausschließlich von AIGC ab?
- 1. Vor dem Kauf eines Produkts suchen und durchsuchen Verbraucher Produktbewertungen in sozialen Medien. Daher wird es für Unternehmen immer wichtiger, ihre Produkte auf sozialen Plattformen zu vermarkten. Der Zweck des Marketings besteht darin, den Verkauf von Produkten zu fördern, ein Markenimage zu etablieren, die Markenbekanntheit zu verbessern, Kunden zu gewinnen und zu binden, letztendlich die Rentabilität des Unternehmens zu verbessern. Das große Modell verfügt über hervorragende Verständnis- und Generierungsfähigkeiten und kann Benutzern durch Durchsuchen und Analysieren personalisierte Informationen bereitstellen Empfehlungen zum Inhalt von Benutzerdaten. In der vierten Ausgabe der „AIGC Experience School“ werden zwei Gäste ausführlich über die Rolle der AIGC-Technologie bei der Verbesserung der „Marketing Conversion Rate“ diskutieren. Live-Übertragungszeit: 10. Juli, 19:00–19:45 Uhr Live-Übertragungsthema: Wie verbessert AIGC die Konversionsrate durch Personalisierung, um Benutzer zu binden? Die vierte Folge der Sendung lud zwei wichtige ein
- KI 726 2024-07-15 18:48:52
-
- Eine eingehende Analyse von Wissenskonflikten im RAG-Großmodell, gemeinsam veröffentlicht von der Tsinghua West Lake University in Hongkong und Chinesisch
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels sind Xu Rongwu, ein Masterstudent im zweiten Jahr, und Qi Zehan, ein Doktorand im ersten Jahr an der School of Interdisciplinary Information der Tsinghua-Universität sind auch die Hauptautoren dieser Rezension. Mit der rasanten Entwicklung der künstlichen Intelligenz und der groß angelegten Modelltechnologie wurde die retrieval-enhanced generation (Retrieval-A
- KI 861 2024-07-15 18:44:12
-
- Nach der Umstellung auf mehr als 30 Dialekte haben wir den Test des großen Sprachmodells von China Telecom nicht bestanden
- Egal aus welcher Stadt Sie kommen, ich glaube, Sie haben Ihren eigenen „Heimatstadtdialekt“ im Gedächtnis: Der Wu-Dialekt ist sanft und zart, der Guanzhong-Dialekt ist einfach und dick, der Sichuan-Dialekt ist humorvoll, das Kantonesische ist urig und hemmungslos ... In In gewisser Weise sind Dialekte nicht nur eine Sprachgewohnheit, sondern auch eine emotionale Verbindung und eine kulturelle Identität. Viele der neuen Wörter, die uns beim Surfen im Internet begegnen, stammen aus lokalen Dialekten verschiedener Orte. Natürlich ist Dialekt manchmal auch ein „Barriere“ für die Kommunikation. Im wirklichen Leben sehen wir oft „Hühner sprechen wie Enten“, die durch Dialekte verursacht werden, wie zum Beispiel diesen: Wenn Sie auf die jüngsten Trends im Technologiekreis achten, werden Sie wissen, dass der aktuelle KI-Sprachassistent das Niveau von „echt“ erreicht hat -Zeit-Antwort". Sogar schneller als die menschliche Reaktion. Darüber hinaus war die KI in der Lage, dies vollständig zu tun
- KI 1130 2024-07-15 17:44:57