aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Runway und Luma kämpfen wieder! Yann LeCun bombardiert: Egal wie gut du bist, du bist kein „Weltmodel'
- Herausgeber des Machine Power Report: Yang Wen Die Welle der künstlichen Intelligenz, repräsentiert durch große Modelle und AIGC, hat unsere Lebens- und Arbeitsweise still und leise verändert, aber die meisten Menschen wissen immer noch nicht, wie sie sie nutzen sollen. Aus diesem Grund haben wir die Kolumne „KI im Einsatz“ ins Leben gerufen, um detailliert vorzustellen, wie KI durch intuitive, interessante und prägnante Anwendungsfälle für künstliche Intelligenz genutzt werden kann, und um das Denken aller anzuregen. Wir heißen Leser auch willkommen, innovative, praktische Anwendungsfälle einzureichen. Die KI-Videobranche „kämpft“ wieder! Am 29. Juni gab die bekannte generative KI-Plattform Runway bekannt, dass ihr neuestes Modell Gen-3Alpha mit dem Testen für einige Benutzer begonnen hat. Am selben Tag führte Luma eine neue Keyframe-Funktion ein und steht allen Benutzern kostenlos zur Verfügung. Man kann sagen: „Du hast einen guten Plan, ich habe eine Wandleiter“
- KI 1090 2024-07-03 09:13:06
-
- Das in der Unterzeitschrift „Nature' veröffentlichte topologische Transformer-Modell sagt Multiskalen-Protein-Ligand-Wechselwirkungen voraus, um die Arzneimittelentwicklung zu unterstützen
- Herausgeber | Radieschenhaut Eine neue Anwendung künstlicher Intelligenz wird Forschern helfen, ihre Fähigkeiten in der Arzneimittelentwicklung zu verbessern. Das Projekt mit dem Namen TopoFormer wurde von einem interdisziplinären Team unter der Leitung von Professor Guowei Wei vom Fachbereich Mathematik der Michigan State University entwickelt. TopoFormer wandelt dreidimensionale Informationen über Moleküle in Daten um, die von typischen KI-basierten Medikamenteninteraktionsmodellen verwendet werden können, und erweitert so die Fähigkeit dieser Modelle, die Wirksamkeit von Medikamenten vorherzusagen. „Mit künstlicher Intelligenz können Sie die Arzneimittelentwicklung schneller, effizienter und kostengünstiger gestalten“, sagte Wei, der sowohl in der Abteilung für Biochemie und Molekularbiologie als auch in der Abteilung für Elektrotechnik und Informationstechnik tätig ist. Professor Wei erklärte, dass in den Vereinigten Staaten
- KI 1217 2024-07-02 15:23:21
-
- Ich kann es kaum erwarten, dass OpenAIs Q*, Huawei Noahs Geheimwaffe MindStar zur Erforschung von LLM-Argumentation, als Erstes hier ist
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Papiers stammen vom Huawei-Labor „Arche Noah“ in Montreal, darunter Kang Jikun, Li Xinze, Chen Xi, Amirreza Kazemi und Chen Boxing. Künstliche Intelligenz (KI) hat im letzten Jahrzehnt große Fortschritte gemacht, insbesondere in der Verarbeitung natürlicher Sprache und Computer Vision.
- KI 681 2024-07-02 05:01:41
-
- Komm schnell! Luchen Open-Sora kann Wolle sammeln und Sie können für 10 Yuan ganz einfach mit der Videoerstellung beginnen.
- In letzter Zeit boomt der Bereich der Videogenerierungsmodelle mit Vincent-basierten Videos, T-basierten Videos usw. Trotz der großen Anzahl an Modellen auf dem Markt können die meisten Menschen diese jedoch noch nicht erleben, da sie nicht über die Qualifikation für interne Tests verfügen und nur die „Modelle“ betrachten und seufzen können. Vor nicht allzu langer Zeit haben wir über das Open-Sora-Modell von Luchen Technology berichtet. Als weltweit erstes Open-Source-Sora-Modell funktioniert es nicht nur gut bei mehreren Arten von Videos, sondern ist auch kostengünstig und für jedermann verfügbar. Funktioniert es? wie benutzt man? Werfen wir einen Blick auf die Rezension dieser Website. Seit Kurzem kann die neue Open-Source-Version 1.2 von Open-Sora hochauflösende 720p-Videos mit einer Länge von bis zu 16 Sekunden erzeugen. Der erzeugte Effekt ist wirklich erstaunlich Hintergrund wollen loslegen und es erleben. Verglichen
- KI 1183 2024-07-02 04:22:00
-
- Amazon Cloud-Innovation „Neural Sparse Retrieval': Für eine semantische Suche ist nur ein Textabgleich erforderlich
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels sind Dr. Yang Yang, Leiter für maschinelles Lernen, und die Ingenieure für maschinelles Lernen Geng Zhichao und Guan Cong vom Forschungs- und Entwicklungsteam von OpenSearch China. OpenSearch ist ein reines Open-Source-Such- und Echtzeit-Analyse-Engine-Projekt, das von Amazon Cloud Technology initiiert wurde
- KI 1028 2024-07-02 02:55:57
-
- Erstellen Sie ein Grafikprogramm, indem Sie sich nur eine handgezeichnete Skizze ansehen. Berkeley, Kalifornien, vermittelt Diffusionsmodellen neue Fähigkeiten
- Es zeigt sich, dass Diffusionsmodelle nicht nur zur Generierung von Bildern und Videos, sondern auch zur Synthese neuer Programme verwendet werden können. Angenommen, wir geben dem Modell eine handgezeichnete „5“-förmige Grafik, es kann das Programm durch kontinuierliche Mutation modifizieren und erhält schließlich ein Programm, das die Zielgrafik ausgeben kann. Das Modell stammt von einem Forschungsteam der University of California in Berkeley, das eine neue Methode der Programmsynthese vorschlug, die ein neuronales Diffusionsmodell verwendet, um Syntaxbäume direkt zu manipulieren. These 1 ist Shreyas Kapur, ein Doktorand der Schule, dessen Betreuer Stuart Russell, Professor für Informatik an der Schule, ist. Papiertitel: DiffusionOnSyntaxTreesForProgramSynthesis Papieradresse: https://arxiv.
- KI 1086 2024-07-02 01:14:04
-
- Georgia Tech, die University of Toronto und Cornell besiegten 25 Algorithmen für das molekulare Design und schlugen das große Sprachmodell MOLLEO vor
- Autor |. Herausgeber Wang Haorui, Georgia Institute of Technology |. Die molekulare Entdeckung stellt als Optimierungsproblem erhebliche rechnerische Herausforderungen dar, da ihre Optimierungsziele möglicherweise nicht differenzierbar sind. Evolutionäre Algorithmen (EAs) werden häufig verwendet, um Black-Box-Ziele in der molekularen Entdeckung zu optimieren, indem sie den chemischen Raum durch zufällige Mutation und Crossover durchqueren. Dies führt jedoch zu einer umfangreichen und teuren Zielevaluierung. In dieser Arbeit arbeiteten Forscher des Georgia Institute of Technology, der University of Toronto und der Cornell University zusammen, um Molecular Language Enhanced Evolutionary Optimization (MOLLEO) vorzuschlagen, indem sie vorab trainierte große Sprachmodelle (LLMs) mit chemischem Wissen in evolutionäre Algorithmen integrieren. die molekularen Optimierungsfähigkeiten evolutionärer Algorithmen erheblich verbessern. Die Studie trägt den Titel „EfficientEvolutionarySearc“
- KI 1307 2024-07-02 01:07:36
-
- ICML 2024|. Großes Sprachmodell unterstützt CLIP-basierte Out-of-Distribution-Erkennungsaufgaben
- Modelle für maschinelles Lernen können eine überlegene Leistung zeigen, wenn die Verteilungen der Trainings- und Testdatensätze gleich sind. In einer Open-World-Umgebung stoßen Modelle jedoch häufig auf OOD-Proben (Out-of-Distribution), was dazu führen kann, dass sich das Modell unvorhersehbar verhält und die Folgen von Fehlern fatal sein können, insbesondere in Hochrisikoszenarien wie dem autonomen Fahren [1,2]. Daher ist die OOD-Erkennung von entscheidender Bedeutung, um die Zuverlässigkeit von Modellen für maschinelles Lernen im tatsächlichen Einsatz sicherzustellen. Die meisten OOD-Erkennungsmethoden [1, 3] können OOD-Proben basierend auf gut trainierten In-Distribution-Klassifikatoren (ID) effektiv erkennen. Ran
- KI 724 2024-07-01 23:29:18
-
- ICML 2024 Spotlight |. Durch die Neuausrichtung der Dekodierung werden Sprachmodelle weniger halluzinatorisch und entsprechen eher den menschlichen Vorlieben
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dieser Artikel stellt einen Artikel zur Sprachmodellausrichtungsforschung vor, der von Doktoranden von drei Universitäten in der Schweiz, im Vereinigten Königreich und in Frankreich sowie von Forschern von Google DeepMind erstellt wurde Google-Recherche. Unter ihnen der korrespondierende Autor Ti
- KI 595 2024-07-01 22:09:56
-
- Entwickler sind begeistert! Metas neueste Version des LLM Compilers erreicht eine automatische Optimierungseffizienz von 77 %
- Meta hat einen fantastischen LLMCompiler entwickelt, um Programmierern dabei zu helfen, Code effizienter zu schreiben. Gestern haben sich die drei großen KI-Giganten OpenAI, Google und Meta zusammengetan, um die neuesten Forschungsergebnisse ihrer eigenen großen Modelle zu veröffentlichen – OpenAI hat CriticGPT auf den Markt gebracht, ein neues Modell, das speziell zum Auffinden von Fehlern entwickelt wurde, basierend auf dem GPT-4-Training, das Google als Open-Source-Lösung veröffentlicht hat 9B- und 27B-Versionen von Gemma2, und Meta entwickelte einen neuesten Durchbruch im Bereich der künstlichen Intelligenz – LLMCompiler. Hierbei handelt es sich um einen leistungsstarken Satz von Open-Source-Modellen, die darauf ausgelegt sind, Code zu optimieren und das Compiler-Design zu revolutionieren. Diese Innovation hat das Potenzial, die Art und Weise, wie Entwickler an die Codeoptimierung herangehen, zu verändern und sie schneller, effizienter und wirtschaftlicher zu machen
- KI 1433 2024-07-01 18:16:39
-
- Das Transformer-Deep-Learning-Modell des Teams der Chinesischen Akademie der Wissenschaften ist 30-mal effizienter als herkömmliche Methoden und sagt die Interaktionsorte zwischen Zucker und Protein voraus
- Zucker ist die am häufigsten vorkommende organische Substanz in der Natur und lebensnotwendig. Das Verständnis, wie Kohlenhydrate Proteine während physiologischer und pathologischer Prozesse regulieren, kann Möglichkeiten bieten, wichtige biologische Fragen zu beantworten und neue Behandlungen zu entwickeln. Die Vielfalt und Komplexität von Zuckermolekülen stellt jedoch eine Herausforderung dar, wenn es darum geht, Bindungs- und Interaktionsstellen zwischen Zucker und Protein experimentell zu identifizieren. Hier entwickelte ein Team der Chinesischen Akademie der Wissenschaften DeepGlycanSite, ein Deep-Learning-Modell, das Zuckerbindungsstellen auf einer bestimmten Proteinstruktur genau vorhersagen kann. DeepGlycanSite integriert die geometrischen und evolutionären Eigenschaften von Proteinen in ein tiefes äquivariantes graphisches neuronales Netzwerk mit einer Transformer-Architektur. Seine Leistung übertrifft frühere fortschrittliche Methoden deutlich und kann effektiv vorhersagen
- KI 1100 2024-07-01 15:17:50
-
- Mehr als 300 verwandte Studien, die neuesten Übersichtsartikel zur multimodalen Bildbearbeitung der Fudan-Universität und der Nanyang Technological University
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail zur Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Shuai Xincheng, der erste Autor dieses Artikels, studiert derzeit am FVL-Labor der Fudan-Universität und schloss sein Studium an der Shanghai Jiao Tong University mit einem Bachelor ab. Zu seinen Forschungsschwerpunkten zählen Bild- und Videobearbeitung sowie multimodales Lernen. Einleitung Dieser Artikel schlägt einen einheitlichen Ansatz zur Lösung allgemeiner Bearbeitungsaufgaben vor.
- KI 620 2024-06-29 06:14:41
-
- Mit einer Genauigkeit von 0,96 wird ein neuronales Netzwerk mit physikalischen und chemischen Beschränkungsgraphen verwendet, um Protein-Ligand-Wechselwirkungen anhand von Sequenzen vorherzusagen.
- Herausgeber |. Rettichhaut Bei der Arzneimittelentwicklung ist es von entscheidender Bedeutung, die Bindungsaffinität und funktionelle Wirkung kleiner Molekülliganden auf Proteine zu bestimmen. Aktuelle Computermethoden können diese Protein-Ligand-Wechselwirkungseigenschaften vorhersagen, aber ohne hochauflösende Proteinstrukturen geht häufig die Genauigkeit verloren und funktionelle Auswirkungen können nicht vorhergesagt werden. Forscher der Monash University und der Griffith University haben PSICHIC (PhySIcoCHhemICalgraphneuralnetwork) entwickelt, ein Framework, das physikalisch-chemische Einschränkungen kombiniert, um Interaktionsfingerabdrücke direkt aus Sequenzdaten zu dekodieren. Dies ermöglicht es PSICHIC, die Mechanismen hinter Protein-Ligand-Wechselwirkungen zu entschlüsseln und so Genauigkeit und Interpretierbarkeit auf dem neuesten Stand der Technik zu erreichen. In Ermangelung strukturierter Daten
- KI 810 2024-06-29 05:16:50
-
- Googles „aufrichtige Arbeit', Open-Source-9B- und 27B-Versionen von Gemma2, mit Schwerpunkt auf Effizienz und Wirtschaftlichkeit!
- Wie kann Gemma2, das die doppelte Leistung hat, mit Llama3 spielen, das die gleiche Leistung hat? Auf der KI-Strecke konkurrieren die Technologiegiganten hart. GPT-4o kam vorne heraus und Claude3.5Sonnet erschien hinten. Obwohl Google seine Bemühungen in einem so erbitterten Kampf erst spät startete, verfügt es über erhebliche Fähigkeiten, die es in kurzer Zeit weiterverfolgen kann, was sein Potenzial für technologische Entwicklung und Innovation zeigt. Neben dem Gemini-Modell scheint uns Gemma, eine Reihe leichter SOTA-Open-Modelle, näher zu sein. Es basiert auf der gleichen Forschung und Technologie wie das Gemini-Modell und zielt darauf ab, jedem die Werkzeuge zum Aufbau von KI an die Hand zu geben. Google erweitert die Gemma-Familie weiter, darunter CodeGemma, RecurrentGemma und P
- KI 1147 2024-06-29 00:59:21
-
- ICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Der Autor dieses Artikels, Li Hongkang, ist Doktorand in der Abteilung für Elektrotechnik, Computer- und Systemtechnik am Rensselaer Polytechnic Institute in den Vereinigten Staaten Universität für Wissenschaft und Technologie Chinas mit einem Bachelor-Abschluss. Zu den Forschungsrichtungen gehören Deep-Learning-Theorie, Theorie großer Sprachmodelle, statistisches maschinelles Lernen usw. Derzeit im ICLR/
- KI 503 2024-06-29 00:44:41