aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Teslas humanoider Optimus-Roboter arbeitet in der Fabrik, ist geschickt darin, Batterien zu zerlegen, sich selbst zu reparieren und kann sogar noch weiter gehen
- Der humanoide Tesla-Roboter hat neue Fähigkeiten freigeschaltet! Gestern hat Tesla Optimus offiziell ein neues Demovideo veröffentlicht, das die neuesten Fortschritte des humanoiden Roboters Optimus der zweiten Generation zeigt. Dieses Mal begann Optimus in der Fabrik zu arbeiten. Er lernte in der Tesla-Batteriefabrik, wie man Batterien zusammenbaut, und ging schneller, weiter und gleichmäßiger als zuvor. Werfen wir einen ersten Blick auf die neuesten Fähigkeiten und Trainingsdetails von Optimus. Das durchgängige neuronale Netzwerk von Optimus ist jetzt darauf trainiert, Batteriezellen in Tesla-Fabriken präzise zusammenzubauen. Es läuft in Echtzeit auf dem FSD-Computer des Roboters und basiert ausschließlich auf 2D-Kameras, Handberührungs- und Kraftsensoren. Optimus nutzt seine Beine, um das Gleichgewicht zu halten, während das Netzwerk seinen gesamten Oberkörper antreibt.
- KI 900 2024-05-06 14:52:10
-
- CVPR 2024 |. Mit Hilfe von neuronalem strukturiertem Licht gelingt der Zhejiang-Universität die Echtzeiterfassung und -rekonstruktion dynamischer dreidimensionaler Phänomene
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Die effiziente und qualitativ hochwertige Rekonstruktion dynamischer dreidimensionaler physikalischer Phänomene wie Rauch ist ein wichtiges Thema in der entsprechenden wissenschaftlichen Forschung. Sie bietet breite Anwendungsaussichten in der aerodynamischen Designüberprüfung, der meteorologischen dreidimensionalen Beobachtung und anderen Bereichen. Durch die Rekonstruktion einer dreidimensionalen Dichtesequenz, die sich im Laufe der Zeit ändert, kann es Wissenschaftlern helfen
- KI 786 2024-05-06 14:50:14
-
- ICLR 2024 Spotlight |. NoiseDiffusion: Korrigiert das Rauschen des Diffusionsmodells und verbessert die Interpolationsbildqualität
- Autor|PengfeiZheng Unit|USTC,HKBUTMLRGroup In den letzten Jahren hat die rasante Entwicklung der generativen KI auffälligen Bereichen wie der Text-zu-Bild-Generierung und der Videogenerierung starke Impulse verliehen. Der Kern dieser Techniken liegt in der Anwendung von Diffusionsmodellen. Das Diffusionsmodell wandelt das Bild zunächst schrittweise in Gaußsches Rauschen um, indem es einen Vorwärtsprozess definiert, der kontinuierlich Rauschen hinzufügt, und entrauscht dann das Gaußsche Rauschen schrittweise durch einen umgekehrten Prozess und wandelt es in ein klares Bild um, um echte Proben zu erhalten. Das gewöhnliche Diffusionsdifferenzialmodell wird zum Interpolieren der Werte der generierten Bilder verwendet, was ein großes Anwendungspotenzial bei der Generierung von Videos und einigen Werbekreativen bietet. Allerdings ist uns aufgefallen, dass bei der Anwendung dieser Methode auf natürliche Bilder die interpolierten Bildeffekte oft unbefriedigend sind. existieren
- KI 1059 2024-05-06 14:01:24
-
- KI lernt, ihr Denken und ihre Vernunft heimlich zu verbergen! Komplexe Aufgaben zu lösen, ohne sich auf menschliche Erfahrung zu verlassen, ist eher eine Blackbox
- Wenn KI mathematische Probleme löst, ist das eigentliche Denken tatsächlich heimlich „Kopfrechnen“? Eine neue Studie eines Teams der New York University ergab, dass die Leistung der KI bei einigen komplexen Aufgaben erheblich verbessert werden kann, selbst wenn sie keine Schritte schreiben darf und durch bedeutungsloses „…“ ersetzt wird! Ein Autor, JacabPfau, sagte: Solange Sie Rechenleistung aufwenden, um zusätzliche Token zu generieren, können Sie Vorteile bringen, egal für welchen Token Sie sich entscheiden. Lassen Sie Llama34M beispielsweise eine einfache Frage beantworten: Wie viele der ersten 6 Ziffern der natürlichen Konstante e sind größer als 5? Die direkte Antwort der KI ist gleichbedeutend damit, Ärger zu machen. Sie zählt nur die ersten 6 Ziffern und zählt tatsächlich 7. Lassen Sie die KI die Schritte zur Überprüfung jeder Zahl aufschreiben, und Sie erhalten die richtige Antwort. Lassen Sie die KI die Schritte verbergen und durch eine große Anzahl von „...“ ersetzen.
- KI 905 2024-05-06 12:00:30
-
- Stanford Li Feifei gründete sein erstes Unternehmen: zwei Jahre akademischer Urlaub mit dem Ziel „räumliche Intelligenz'
- „KI-Patin“ Li Feifei gründete ein Unternehmen. Unerwarteterweise würde im Zeitalter der großen Modelle auch die bekannte „KI-Patin“ Li Feifei „ein Unternehmen gründen“ und eine Seed-Finanzierungsrunde abschließen. Laut einem exklusiven Bericht von Reuters gründet der berühmte Informatiker Li Feifei ein Start-up-Unternehmen. Das Unternehmen nutzt die menschenähnliche visuelle Datenverarbeitung, um künstliche Intelligenz in die Lage zu versetzen, fortgeschrittene Schlussfolgerungen zu ziehen. Mit der Angelegenheit vertraute Personen gaben bekannt, dass Li Feifei vor Kurzem eine Startfinanzierungsrunde für das Unternehmen aufgelegt hat. Zu den Investoren gehörten die Risikokapitalgesellschaft Andreessen Horowitz aus dem Silicon Valley und das kanadische Unternehmen Radical Ventures, dem sie letztes Jahr beigetreten war. Sprecher von Andreessen Horowitz und Radical Ventures bestätigten dies jedoch.
- KI 1093 2024-05-05 13:04:06
-
- Mit dem „Hund' auf dem Yogaball spazieren gehen! Eureka, eines der zehn besten Projekte von NVIDIA, hat einen neuen Durchbruch geschafft
- Der Roboterhund läuft ruhig auf dem Yoga-Ball und sein Gleichgewicht ist recht gut: Er kommt mit verschiedenen Szenen zurecht, egal ob es sich um einen flachen Gehweg oder einen anspruchsvollen Rasen handelt: Er kann sogar von Forschern getreten werden, sogar mit einem Yoga-Ball an den Füßen , der Roboterhund kippt nicht um, selbst wenn der Ballon entleert ist, kann der Roboterhund das Gleichgewicht halten: Die obigen Demonstrationen erfolgen alle mit 1-facher Geschwindigkeit und wurden nicht beschleunigt. Papieradresse: https://eureka-research.github.io/dr-eureka/assets/dreureka-paper.pdf Projekt-Homepage: https://github.com/eureka-research/DrEureka-Papiertitel: DrE
- KI 538 2024-05-05 13:01:01
-
- Die Leistung kleiner Modelle ist gesättigt und die Leistung ist schlecht. Die Hauptursache ist Softmax?
- Das Aufkommen kleiner Sprachmodelle soll die Nachteile des teuren Trainings und der Inferenz großer Sprachmodelle ausgleichen. Allerdings nimmt die Leistung nach dem Training bis zu einem bestimmten Grad ab (Sättigungsphänomen). für dieses Phänomen? Kann es überwunden und genutzt werden, um die Leistung kleiner Sprachmodelle zu verbessern? Der neueste Fortschritt auf dem Gebiet der Sprachmodellierung besteht darin, hochparametrisierte neuronale Netze vorab auf extrem großen Webtextkorpora zu trainieren. In der Praxis kann die Verwendung eines solchen Modells für Training und Inferenz kostspielig sein und den Einsatz kleinerer alternativer Modelle erforderlich machen. Es wurde jedoch beobachtet, dass kleinere Modelle unter einer Sättigung leiden können, einem Phänomen, das durch einen Leistungsabfall und ein Plateau in einem fortgeschrittenen Trainingsstadium gekennzeichnet ist. In einer aktuellen Arbeit wurde festgestellt, dass dieses Sättigungssummenphänomen durch kleinere Modelle reduziert werden kann
- KI 1017 2024-05-04 13:10:01
-
- Schließlich untersuchte jemand die Überanpassung kleiner Modelle: Zwei Drittel von ihnen wiesen Datenverschmutzung auf, und Microsoft Phi-3 und Mixtral 8x22B wurden benannt
- Zwei Drittel der beliebtesten großen Modelle haben derzeit Probleme mit der Überanpassung? Eine gerade veröffentlichte Studie überraschte viele Forscher auf diesem Gebiet. Die Verbesserung der Argumentationsfähigkeiten großer Sprachmodelle ist eine der wichtigsten Richtungen der aktuellen Forschung. Bei dieser Art von Aufgaben scheinen viele kürzlich veröffentlichte kleine Modelle eine gute Leistung zu erbringen und solche Aufgaben gut zu bewältigen. Zum Beispiel Microsofts Phi-3, Mistral8x22B und andere Modelle. Die Forscher wiesen darauf hin, dass es im aktuellen Bereich der Großmodellforschung ein zentrales Problem gibt: Viele Studien versäumen es, die Fähigkeiten bestehender LLMs genau zu bewerten. Dies deutet darauf hin, dass wir mehr Zeit damit verbringen müssen, das aktuelle LLM-Fähigkeitsniveau zu bewerten und zu testen. Dies liegt daran, dass die meisten aktuellen Forschungen GSM8k, MATH, M verwenden
- KI 461 2024-05-04 13:05:13
-
- Eine Staffel über mehr als 300 Jahre: Inspiriert von Terence Teru beschlossen Mathematiker, KI zu nutzen, um den Beweis von Fermats letztem Satz zu formalisieren.
- Inspiriert von Terence Tao begannen immer mehr Mathematiker, künstliche Intelligenz für mathematische Untersuchungen zu nutzen. Dieses Mal ist ihr Ziel der letzte Satz von Fermat, eines der zehn schwierigsten mathematischen Probleme der Welt. Der letzte Satz von Fermat ist ein sehr komplexes mathematisches Problem, für das bisher keine praktikable Lösung gefunden wurde. Mathematiker hoffen, dass sie mit der leistungsstarken Rechenleistung und den intelligenten Algorithmen der künstlichen Intelligenz Fermats letzten Satz in der Mathematik erforschen können, der auch als „Fermats letzter Satz“ (FLT) bekannt ist und vom französischen Mathematiker Pierre im 17. Jahrhundert erfunden wurde.・De Fermat schlug vor. Dahinter steckt eine sagenumwobene Geschichte. Es heißt, dass Fermat um 1637, als er die lateinische Übersetzung der Arithmetik des Diophantus las, neben dem 8. Satz von Band 11 schrieb
- KI 601 2024-05-03 13:04:01
-
- Transformer will Kansformer werden? Es hat Jahrzehnte gedauert, bis MLP den Herausforderer KAN an die Spitze brachte
- MLP (Multilayer Perceptron) wird seit Jahrzehnten verwendet. Gibt es wirklich keine andere Wahl? Mehrschichtige Perzeptrone (MLPs), auch bekannt als vollständig verbundene Feedforward-Neuronale Netze, sind die grundlegenden Bausteine der heutigen Deep-Learning-Modelle. Die Bedeutung von MLPs kann nicht genug betont werden, da sie die Standardmethode zur Approximation nichtlinearer Funktionen beim maschinellen Lernen sind. Ist MLP jedoch der beste nichtlineare Regressor, den wir erstellen können? Obwohl MLPs weit verbreitet sind, weisen sie erhebliche Nachteile auf. Beispielsweise verbrauchen MLPs in Transformer-Modellen fast alle nicht eingebetteten Parameter und sind im Vergleich zu Aufmerksamkeitsschichten ohne Nachbearbeitungsanalysetools im Allgemeinen weniger interpretierbar. Gibt es also eine Alternative zu MLP?
- KI 835 2024-05-03 13:01:04
-
- Die heißeste generative KI-Hardware wurde mehr als 100.000 Mal verkauft. Nach dem Zerlegen stellt sich heraus, dass es sich nur um eine Android-App handelt.
- „RabbitR1 ist im Wesentlichen ein Launcher-Programm auf dem Android-System. Nachdem es geknackt wurde, kann es auf dem Telefon ausgeführt werden.“ Durch das Knacken gelang es Rahman, die R1-Anwendung auf dem Pixel6a-Telefon zu starten und auszuführen. Am Dienstag enthüllte der amerikanische Journalist Mishaal Rahman die Details der bekannten generativen KI-Hardware RabbitR1, die sofort die Aufmerksamkeit der Technologiekreise auf sich zog. Vor einigen Monaten haben zwei Startups, Humane und Rabbit, ihre Geräte für künstliche Intelligenz weiter auf den Markt gebracht – AiPin und RabbitR1. Anfangs glaubten einige, dass diese Geräte eine neue Ära tragbarer künstlicher Intelligenz einläuten würden. Im Laufe der Monate wuchs jedoch die Kontroverse um die beiden Geräte. R
- KI 734 2024-05-02 16:01:19
-
- Yu Chengdong tritt als CEO von Huawei Terminal BG zurück, He Gang wird übernehmen
- Mehreren Medienberichten zufolge hat Huawei am Nachmittag des 30. April intern ein Personalanpassungsdokument herausgegeben, in dem angekündigt wurde, dass Yu Chengdong als CEO von Huawei Terminal BG zurücktreten werde. Yu Chengdong bleibt Vorsitzender von Terminal BG. He Gang, der ehemalige Huawei Terminal BG und Chief Operating Officer, wird die Position des CEO von Huawei Terminal BG übernehmen. Berichten zufolge enthält das Dokument außer den oben genannten persönlichen Änderungen und Anpassungen keine weiteren Informationen. Es gibt keine weiteren Erklärungen zu den Hintergründen dieser großen Personalveränderung und zu Yu Chengdongs neuer Geschäftsausrichtung nach seinem Rücktritt als CEO von Terminal BG. Einige Quellen sagten, dass es sich bei dieser Anpassung um eine routinemäßige Anpassung der Geschäftsstruktur handelt, die es Yu Chengdong ermöglichen wird, mehr Energie für die Herstellung hochwertiger Produkte für Verbraucher zu haben. Yu Chengdong wurde 1969 geboren. Er schloss sein Studium an der Abteilung für automatische Steuerung der Northwestern Polytechnical University mit einem Bachelor-Abschluss und einem Master-Abschluss an der Tsinghua-Universität ab.
- KI 530 2024-05-02 16:01:14
-
- Wie kann OctopusV3 mit weniger als 1 Milliarde Parametern mit GPT-4V und GPT-4 verglichen werden?
- Das Merkmal multimodaler KI-Systeme besteht darin, dass sie verschiedene Arten von Daten verarbeiten und lernen können, darunter natürliche Sprache, Bild, Audio usw., um ihre Verhaltensentscheidungen zu steuern. In jüngster Zeit hat die Forschung zur Integration visueller Daten in große Sprachmodelle (wie GPT-4V) wichtige Fortschritte gemacht, aber die Frage, wie Bildinformationen effektiv in ausführbare Operationen für KI-Systeme umgewandelt werden können, steht immer noch vor Herausforderungen. Um die Transformation von Bildinformationen zu realisieren, besteht eine gängige Methode darin, Bilddaten in entsprechende Textbeschreibungen umzuwandeln, woraufhin das KI-System auf der Grundlage der Beschreibungen arbeitet. Dies kann durch überwachtes Lernen an vorhandenen Bilddatensätzen erfolgen, wodurch das KI-System die Bild-zu-Text-Zuordnungsbeziehung automatisch lernen kann. Darüber hinaus kann mit Methoden des Reinforcement Learning auch gelernt werden, Entscheidungen auf Basis von Bildinformationen durch Interaktion mit der Umgebung zu treffen. ein anderer
- KI 605 2024-05-02 16:01:01
-
- In 12 Videoverständnisaufgaben besiegte Mamba zunächst Transformer
- Diese Website veröffentlicht Kolumnen mit akademischem und technischem Inhalt. In den letzten Jahren hat die AIxiv-Kolumne dieser Website mehr als 2.000 Berichte erhalten, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Das Mamba-Modell erkundet einen neuen Bereich des Videoverständnisses und leitet einen neuen Trend in der Computer-Vision-Forschung ein! Die Beschränkungen der traditionellen Architektur wurden durchbrochen. Das Zustandsraummodell Mamba hat mit seinen einzigartigen Vorteilen bei der Verarbeitung langer Sequenzen revolutionäre Veränderungen im Bereich des Videoverständnisses gebracht. Von der Nanjing-Universität, Shanghai
- KI 1418 2024-05-01 08:20:15
-
- GraphRAG verstehen (1): Herausforderungen von RAG
- RAG (RiskAssessmentGrid) ist eine Methode, die bestehende große Sprachmodelle (LLM) mit externen Wissensquellen erweitert, um kontextbezogenere Antworten zu liefern. In RAG erfasst die Abrufkomponente zusätzliche Informationen und Antworten auf der Grundlage spezifischer Quellen und speist diese Informationen dann in die LLM-Eingabeaufforderung ein, sodass die Antwort des LLM auf diesen Informationen basiert (Verbesserungsphase). RAG ist im Vergleich zu anderen Techniken wie dem Trimmen wirtschaftlicher. Es hat auch den Vorteil, Halluzinationen zu reduzieren, indem zusätzlicher Kontext basierend auf diesen Informationen bereitgestellt wird (Augmentationsphase) – Ihr RAG wird zur Workflow-Methode für die heutigen LLM-Aufgaben (wie Empfehlung, Textextraktion, Stimmungsanalyse usw.). Wenn wir diese Idee basierend auf der Benutzerabsicht weiter aufschlüsseln, betrachten wir normalerweise Folgendes
- KI 1042 2024-04-30 19:10:01