aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Verdammt, ich bin von digitalen Kollegen umgeben! Die digitalen Mitarbeiter von Xiaobing AI werden erneut aufgerüstet, mit Anpassung ohne Muster und sofortiger Beschäftigung
- „Hallo, ich bin gerade unserem Unternehmen beigetreten. Wenn ich Fragen zum Geschäft habe, geben Sie mir bitte Ihren Rat!“ Was, diese Kollegen sind alles „digitale Menschen“, die von großen Vorbildern angetrieben werden? Es dauert nur 30 Sekunden Bild, 10 Sekunden Ton und 10 Minuten, um schnell einen „digitalen Kollegen“ anzupassen, der sich nicht von einer echten Person unterscheidet. Es kann in Echtzeit direkt mit Ihnen interagieren und verfügt über eine hochwertige Audio- und Videoübertragung mit geringer Latenz auf der Ebene des Kommunikationsbetreibers. So: So: Dies ist die neueste von Xiaoice eingeführte „Zero-Shot Xiaoice Neural Rendering, Zero-XNR“-Technologie, die auf einer großen Modellbasis von über 100 Milliarden neuer Technologien basiert
- KI 357 2024-07-19 17:52:22
-
- Huawei GTS LocMoE+: MoE-Architektur mit hoher Skalierbarkeit und Affinität, geringer Overhead für aktives Routing
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Co-Autoren dieses Papiers sind Dr. Li Jing, Sun Zhijie und Dr. Lin Dachao. Die wichtigsten Forschungs- und Implementierungsbereiche umfassen LLM-Trainingsbeschleunigung, KI-Trainingsgarantie und Diagrammberechnung. MoE zeichnet sich durch niedrige Kosten und hohe Effizienz im Schulungs- und Beförderungsprozess aus.
- KI 957 2024-07-19 17:31:50
-
- LLama+Mistral+…+Yi=? Das trainingsfreie heterogene große Modell integrierte Lernframework DeePEn ist da
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Der Hauptautor dieses Artikels ist Huang Yichong. Huang Yichong ist Doktorand am Social Computing and Information Retrieval Research Center des Harbin Institute of Technology und Praktikant am Pengcheng Laboratory, wo er bei Professor Qin Bing und Professor Feng Xiaocheng studiert. Zu den Forschungsrichtungen gehören Ensemble-Lernen großer Sprachmodelle, mehrsprachige große Modelle und Korrelationstheorie
- KI 1188 2024-07-19 17:10:50
-
- Neue Transformer-basierte Methode sagt die DNA-Methylierung anhand der Nanoporensequenzierung genau voraus
- Herausgeber |. Die DNA-Methylierung von Rettichschalen spielt eine wichtige Rolle bei verschiedenen biologischen Prozessen, einschließlich Zelldifferenzierung, Alterung und Krebsentstehung. Die wichtigste Methylierung bei Säugetieren ist 5-Methylcytosin, die hauptsächlich im Zusammenhang mit CpG-Dinukleotiden auftritt. Sequenzierungsmethoden wie die Bisulfitsequenzierung des gesamten Genoms können erfolgreich 5-Methylcytosin-DNA-Modifikationen nachweisen. Allerdings haben sie den gravierenden Nachteil kurzer Leselängen, die zu einer Verstärkungsverzerrung führen können. Forscher von A*STAR in Singapur haben Rockfish entwickelt, einen Deep-Learning-Algorithmus, der die Erkennungsfähigkeiten von 5-Methylcytosin auf Leseebene durch den Einsatz von Nanoporensequenzierung (Oxford Nanopore Sequencing, ONT) erheblich verbessert. Die Studie trägt den Titel „Rockfis
- KI 620 2024-07-19 14:55:29
-
- GitHub-Sterne übersteigen 160.000 und die beliebte erweiterte Version von AutoGPT ist da: benutzerdefinierte Knoten, Zusammenarbeit mit mehreren Agenten
- Natürlich ist die nächste Generation von AutoGPT weiterhin Open Source. Erinnern Sie sich noch an das Projekt „AutoGPT“, das KI-Guru Andrej Karpathy letztes Jahr energisch vorangetrieben hat? Es handelt sich um eine experimentelle Open-Source-Anwendung, die auf GPT-4 basiert und jedes vom Benutzer gesetzte Ziel autonom erreichen kann, was den Entwicklungstrend der autonomen KI demonstriert. In mehr als einem Jahr hat die Gesamtzahl der GitHub-Sterne für dieses Projekt 160.000 überschritten, was seine anhaltende Beliebtheit zeigt. GitHub-Adresse: https://github.com/Significant-Gravitas/AutoGPT Gestern kündigte der Projektautor die Ankunft der nächsten Generation „AutoGPT“ auf Social Media X an, die derzeit Pre-
- KI 391 2024-07-19 14:36:17
-
- Ich habe arXiv vor einem halben Jahr veröffentlicht, wurde aber des Plagiats beschuldigt: CAMEL steht im Schatten von Microsoft AutoGen
- arXiv ist keine peer-reviewte Zeitschrift, daher müssen auf arXiv veröffentlichte Artikel nicht zitiert werden. Ist das sinnvoll? Wenn Sie sich für KI-Agenten interessieren, müssen Sie AutoGen von Microsoft kennen. Dabei handelt es sich um ein Open-Source-Programmierframework zum Aufbau von KI-Agenten, das es mehreren Agenten ermöglicht, Aufgaben per Chat zu lösen. Mittlerweile kann der LLM-Agent eine Vielzahl von Rollen einnehmen, beispielsweise Programmierer, Designer oder eine Kombination verschiedener Rollen. Auf GitHub hat dieses Projekt 28.000 Sterne erhalten und der Artikel gewann außerdem den Best Paper Award beim ICLR2024LLMAgentWorkshop. Allerdings gibt es tatsächlich Kontroversen hinter diesem Papier. Im November 2023 hat ein KI-Forscher (Abdullah Gu
- KI 915 2024-07-19 14:28:48
-
- Das Team von Jia Jiaya hat sich mit der Cambridge Tsinghua University und anderen zusammengetan, um ein neues Bewertungsparadigma zu fördern, um „hohe Werte und niedrige Energie' in großen Modellen in einer Sekunde zu erkennen
- Der neueste, vollständigste und maßgeblichste Bewertungsdatensatz von MR-Ben untergräbt die bisherigen Standards für die Bewertung großer Modelle und ist da! Hierbei handelt es sich um eine äußerst repräsentative Arbeit, die vom chinesischen Jiajiaya-Team aus Hongkong nach der Veröffentlichung von Mini-Gemini, einem supervisuellen Sprachmodell namens GPT-4+DALL-E-3, im April dieses Jahres erneut vorgeschlagen wurde. Unter der „Aufsicht“ von MR-Ben muss das große Modell nicht nur Fragen wie ein Schüler beantworten, sondern auch Arbeiten wie ein Lehrer benoten, damit seine wahre Denkfähigkeit zum Vorschein kommt. MR-Ben hat viele in- und ausländische First-Line-Open-Source- und Closed-Source-Modelle sorgfältig evaluiert, wie z. B. GPT4-Turbo, Cluade3.5-Sonnet, Mistral-Large, Zhipu-GLM4,
- KI 456 2024-07-19 13:55:25
-
- ACL 2024 |. Bei der mathematischen Bewertung von 25 Open- und Closed-Source-Modellen hat GPT-3.5-Turbo knapp bestanden
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen von der University of Hong Kong und Tencent. Autorenliste: Li Qintong, LeyangCui, Zhao Xueliang, Kong Lingpeng, WeiBi. Unter ihnen ist der Erstautor Li Qintong Doktorand am Natural Language Processing Laboratory der Universität Hongkong. Seine Forschungsrichtung umfasst die Erzeugung natürlicher Sprache.
- KI 1024 2024-07-19 13:53:41
-
- Verlustfreie Beschleunigung bis zu 5x, EAGLE-2 ermöglicht RTX 3060 eine schnellere Generierung als A100
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Li Yuhui: Unter der Leitung der Lehrer Zhang Hongyang und Zhang Chao ist er auf der Suche nach großer Modellbeschleunigung für Stellenangebote im 25. Jahr Wei Fangyun: Microsoft-Forscher am Asian Research Institute, mit Forschungsinteressen in den Bereichen verkörperte Intelligenz, Bilderzeugung und AIagen
- KI 550 2024-07-19 13:12:48
-
- Das erste Video-of-Thought-Argumentation-Framework ist da: Umfassendes Video-Argumentation von der Wahrnehmung bis zur Erkenntnis wie ein Mensch
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels sind von der National University of Singapore, der Nanyang Technological University und dem Harbin Institute of Technology. Zu den Forschungsrichtungen von Fei Hao gehören unter anderem multimodales Lernen und multimodale große Sprachmodelle. Wu Shengqiong ist Doktorandin an der National University of Singapore. Ihr Forschungsschwerpunkt sind multimodale große Sprachmodelle. Herr von Ji Wei
- KI 435 2024-07-19 13:12:42
-
- Die neusten Nachrichten! Baidu Wenxin Big Model 4.0: Das größte Parametermodell in der Geschichte des Wanka-Trainings, wir sehen uns nächste Woche
- Gestern gab Cailian News exklusiv bekannt, dass das Wenxin-Modell 4.0 von Baidu sein Training intensiviert und kurz vor der Veröffentlichung steht. Jeder war schon immer neugierig auf die Informationen von Wen Xinyiyan. Heute haben wir auch weitere Neuigkeiten zu Wenxin 4.0 erhalten, die wichtige Informationen wie zugrunde liegende Architektur, Infrastruktur, Trainingsdatensätze, Kosten usw. umfassen. Es hat ein sehr hohes Maß an Glaubwürdigkeit! Lassen Sie uns zunächst über die wichtigsten Schlussfolgerungen sprechen: 1. Die Enthüllungen von gestern sind grundsätzlich wahr. Derzeit geht man davon aus, dass das Wenxin Large Model 4.0 tatsächlich mit geringem Verkehr getestet wurde. 2. Die Anzahl der Parameter von Wenxin 4.0 ist größer als die aller LLMs mit öffentlich veröffentlichten Parametern. Es ist auch das erste große Modell in China, das mithilfe des Wanka-Clusters trainiert wird. 3. Die Begründungskosten sind viel höher als die von Wenxin 3.5, sie sollen etwa das 8- bis 10-fache betragen! (Große Modelle sind wirklich teuer!) Wenn
- KI 998 2024-07-19 12:04:49
-
- Wer ist größer, 9,11 oder 9,9? Wir haben tatsächlich 15 große Modelle getestet und mehr als die Hälfte davon ist umgekippt.
- Herausgeber des Machine Power Report: Yang Wen Die großen Modelle können einfache mathematische Probleme immer noch nicht lösen. In den letzten Tagen wurde die Aufforderung immer beliebter, zu testen, ob das große Modell „Gehirn“ funktioniert – welches ist größer, 9.11 oder 9.9? Diese Matheaufgabe, die schon Grundschüler richtig lösen können, stellt eine Gruppe „Helden“ der Großmodellbranche vor den Kopf. Hier ist das Ding. Der leitende Prompt-Ingenieur von ScaleAI, Riley Goodside, fragte GPT-4o nach dem Prompt-Wort „9.11 und 9.9 – was ist größer?“, erhielt aber die Antwort „Ersteres ist größer“. Auch andere große Modelle überschlugen sich. Am 17. Juli nahmen wir 12 große inländische Modelle sowie das ausländische GPT-4o mit
- KI 1193 2024-07-19 11:27:21
-
- Zwei aufeinanderfolgende Veröffentlichungen von Mistral AI: 7B für mathematisches Denken, Mamba2-Architekturcode für großes Modell
- Internetnutzer sind neugierig, ob Mathstral das Problem „Wer ist größer, 9,11 oder 9,9“ lösen kann? Gestern wurde der KI-Kreis mit einer einfachen Frage wie „Wer ist größer, 9.11 oder 9.9?“ überwältigt. Große Sprachmodelle wie OpenAIGPT-4o, Google Gemini usw. wurden alle umgeworfen. Dadurch können wir erkennen, dass große Sprachmodelle bei der Lösung einiger numerischer Probleme nicht wie Menschen die richtigen Antworten verstehen und geben können. Für numerische und komplexe mathematische Probleme sind spezialisierte Modelle spezialisierter. Heute hat das französische Großmodell-Einhorn MistralAI ein 7B-Großmodell „Mathstral“ veröffentlicht, das sich auf mathematisches Denken und wissenschaftliche Entdeckungen konzentriert, um komplexe Daten zu lösen, die komplexe, mehrstufige logische Überlegungen erfordern.
- KI 327 2024-07-19 09:54:11
-
- Kostensenkung um mehr als 90 %, „aktives Lernen + experimenteller Workflow' beschleunigt die Katalysatorentwicklung
- Herausgeber | Green Luo Die Synthese höherer Alkohole (HAS) durch thermisch katalytische Hydrierung von Synthesegas bleibt eine vielversprechende Technologie. Anforderungen an Kettenwachstum und CO-Einfügung erfordern Mehrkomponentenmaterialien, deren komplexe Reaktionskinetik und großer chemischer Raum nicht den Spezifikationen des Katalysatordesigns entsprechen. Hier schlagen Forschende der ETH Zürich am Beispiel der FeCoCuZr-Katalysatorserie eine alternative Strategie vor, um aktives Lernen in den experimentellen Arbeitsablauf zu integrieren. Das vorgeschlagene datengestützte Framework vereinfacht die Navigation in einem breiten Spektrum an Zusammensetzungen und Reaktionsbedingungen in 86 Experimenten und reduziert den ökologischen Fußabdruck und die Kosten im Vergleich zu herkömmlichen Verfahren um mehr als 90 %. Es identifiziert den Fe65Co19Cu5Zr11-Katalysator mit optimierten Reaktionsbedingungen, der stabil arbeitet
- KI 969 2024-07-19 09:49:21
-
- so cool! Alte iPhone-, iPad- und MacBook-Geräte bilden einen heterogenen Cluster und können Llama 3 ausführen
- Wenn Sie Ersatzausrüstung haben, sollten Sie es vielleicht einmal ausprobieren. Diesmal kann die Hardware-Ausstattung in Ihrer Hand auch im Bereich der KI ihre Muskeln spielen lassen. Durch die Kombination von iPhone, iPad und Macbook können Sie eine „heterogene Cluster-Inferenzlösung“ zusammenstellen und dann das Llama3-Modell reibungslos ausführen. Es ist erwähnenswert, dass dieser heterogene Cluster ein Windows-, Linux- oder iOS-System sein kann und die Unterstützung für Android bald verfügbar sein wird. Heterogener Cluster wird ausgeführt. Laut dem Projektautor @evilsocket umfasst dieser heterogene Cluster iPhone15ProMax, iPadPro, MacBookPro (M1Max) und NVIDIA GeFor
- KI 1003 2024-07-19 05:09:59