aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Einfach und universell: Dreifache verlustfreie Trainingsbeschleunigung des Visual Basic Network, Tsinghua EfficientTrain++ für TPAMI 2024 ausgewählt
- Der Autor dieses Diskussionspapiers, Wang Yulin, ist 2019 Direktdoktorand in der Abteilung für Automatisierung der Tsinghua-Universität. Er studierte bei Akademiker Wu Cheng und außerordentlichem Professor Huang Gao. Seine Forschungsschwerpunkte sind effizientes Deep Learning, Computer Vision usw . Er hat als Erstautor Diskussionspapiere in Fachzeitschriften und Konferenzen wie TPAMI, NeurIPS, ICLR, ICCV, CVPR, ECCV usw. veröffentlicht. Er erhielt das Baidu-Stipendium, den Microsoft Scholar, den CCF-CV Academic Emerging Award, das ByteDance-Stipendium und andere Auszeichnungen . Persönliche Homepage: wyl.cool. In diesem Artikel wird hauptsächlich ein Artikel vorgestellt, der gerade von IEEETransactionsonPatternAnalysisandMachineIntelligence (TPAMI) akzeptiert wurde: Effici
- KI 935 2024-06-10 14:54:28
-
- Ein effizientes und verallgemeinerbares Gaußsches Rekonstruktions-Framework, das mit nur 3 Ansichten schnell argumentieren und die Optimierung in 45 Sekunden abschließen kann.
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 3D-Rekonstruktion und neue Ansichtssynthesetechnologie werden in den Bereichen virtuelle Realität und erweiterte Realität häufig eingesetzt. NeRF hat bemerkenswerte Erfolge bei der Ansichtssynthese erzielt, indem Szenen implizit als Strahlenszenen kodiert wurden. Da NeRF jedoch auf zeitaufwändige Punkt-für-Punkt-Abfragen angewiesen ist, ist dies sehr intensiv
- KI 891 2024-06-10 14:24:57
-
- Neuer Fortschritt in Li Feifeis „Spatial Intelligence'-Reihe: Die neue „BVS'-Suite des Teams von Wu Jiajun evaluiert Computer-Vision-Modelle
- In seiner jüngsten TED-Rede 2024 erläuterte Li Feifei das Konzept der räumlichen Intelligenz (Spatial Intelligence) ausführlich. Sie ist erfreut und äußerst begeistert von der rasanten Entwicklung des Bereichs Computer Vision in den letzten Jahren und gründet zu diesem Zweck ein Start-up-Unternehmen. In dieser Rede erwähnte sie ein Forschungsergebnis des Stanford-Teams, BEHAVIOR. was sie „erstellten“ Ein Verhaltens- und Bewegungsdatensatz, mit dem Computer und Roboter trainiert werden, sich in einer dreidimensionalen Welt zu verhalten. VERHALTEN ist ein riesiger Datensatz, der menschliche Verhaltensweisen und Handlungen in verschiedenen Szenarien enthält. Der Zweck dieses Datensatzes besteht darin, Computern und Robotern zu ermöglichen, menschliches Verhalten besser zu verstehen und nachzuahmen. Durch die Analyse des VERHALTENS
- KI 1146 2024-06-10 14:04:57
-
- Open Source! V2Xverse: Übergabe und Veröffentlichung der ersten Simulationsplattform und des End-to-End-Modells für V2X
- Synchronisierte Fahrdaten der Fahrzeug-Straßen-Kollaboration. Vehicle-to-everything-unterstütztes autonomes Fahren V2X-AD (Vehicle-to-everything-unterstütztes autonomes Fahren) hat großes Potenzial für die Bereitstellung sichererer Fahrstrategien. Forscher haben viele Untersuchungen zu den Kommunikations- und Kommunikationsaspekten von V2X-AD durchgeführt, aber die Auswirkungen dieser Infrastruktur- und Kommunikationsressourcen auf die Verbesserung der Fahrleistung wurden noch nicht vollständig untersucht. Dies unterstreicht die Notwendigkeit, kollaboratives autonomes Fahren zu untersuchen, d. h. wie effiziente Strategien für den Informationsaustausch für die Fahrplanung entwickelt werden können, um die Fahrleistung jedes Fahrzeugs zu verbessern. Dies erfordert zwei wesentliche Grundvoraussetzungen: eine Plattform, die eine Datenumgebung für V2X-AD bereitstellen kann, und eine treibende Kraft
- KI 440 2024-06-10 12:42:28
-
- GPT-4 hat den Turing-Test mit einer Erfolgsquote von 54 % bestanden! Neue Arbeit der UCSD: Menschen können GPT-4 nicht erkennen
- Kann GPT-4 den Turing-Test bestehen? Wenn ein ausreichend leistungsfähiges Modell geboren ist, verwenden Menschen häufig den Turing-Test, um die Intelligenz dieses LLM zu messen. Kürzlich haben Forscher der Abteilung für Kognitionswissenschaft an der UCSD herausgefunden, dass Menschen im Turing-Test GPT-4 überhaupt nicht von Menschen unterscheiden können! Papieradresse: https://arxiv.org/pdf/2405.08007 Im Turing-Test wurde GPT-4 in 54 % der Fälle als menschlich eingestuft. Die experimentellen Ergebnisse zeigen, dass dies das erste Mal ist, dass ein System den Test im „interaktiven“ Zwei-Personen-Turing-Test empirisch bestanden hat. Die Forscher Cameron R. Jones rekrutierten 500 Freiwillige, die in fünf Rollen aufgeteilt wurden: nämlich vier Bewerter
- KI 1140 2024-06-10 12:32:27
-
- Die Open-Source-Version von GLM-4 ist endlich da: Sie übertrifft Llama3, ist mit GPT4V vergleichbare Multimodalität und auch die MaaS-Plattform wurde stark verbessert.
- Die neueste Version des großen Modells kostet 6 Cent und 1 Million Tokens. Heute Morgen gab das viel beachtete Großmodellunternehmen Zhipu AI beim AI Open Day eine Reihe von Branchenumsetzungszahlen bekannt: Nach neuesten Statistiken hat die offene Großmodellplattform Zhipu AI derzeit 300.000 registrierte Benutzer erhalten, mit einem Die durchschnittliche tägliche Anzahl der Aufrufe hat 40 Milliarden Token erreicht, wobei der tägliche API-Verbrauch in den letzten 6 Monaten um mehr als das 50-fache gestiegen ist und das GLM-4-Modell mit der stärksten Leistung um mehr als das 90-fache gestiegen ist die letzten 4 Monate. In der aktuellen Qingtan-App sind mehr als 300.000 Agenten im Agentencenter aktiv, darunter viele hervorragende Produktivitätstools wie Mind Maps, Dokumentenassistenten, Terminplaner und mehr. Auf der Seite der neuen Technologie ist die neueste Version von GLM-4, GL
- KI 1139 2024-06-10 11:44:17
-
- Verabschieden Sie sich vom 3D-Gaußschen Splatting-Algorithmus, das spektral beschneidende Gaußsche Feld SUNDAE mit neuronaler Kompensation ist Open Source
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Zu den Autoren dieses Artikels gehören Yang Runyi, ein Masterstudent am Imperial College London, Zhu Zhenxin, ein Masterstudent im zweiten Jahr an der Beihang University, Jiang Zhou, ein Zweitsemesterstudent Masterstudent im dritten Studienjahr am Beijing Institute of Technology und Bachelorstudenten im vierten Studienjahr am Beijing Institute of Technology Ye Baijun, Zhang Yifei, ein Bachelorstudent im dritten Studienjahr an der Chinesischen Akademie der Wissenschaften, China Telecom Artificial Intelligence
- KI 1092 2024-06-10 11:17:28
-
- Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag
- Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird
- KI 1237 2024-06-10 11:08:19
-
- Das Open-Source-47-Sekunden-Audiogenerierungsmodell von Stability AI kann Insekten, Vögel, Rockmusik und Trommelschläge erzeugen.
- Es gibt noch eine weitere gute Nachricht im Bereich der Audiogenerierung: StabilityAI hat gerade die Einführung des offenen Modells StableAudioOpen angekündigt, das hochwertige Audiodaten generieren kann. Projektadresse: https://huggingface.co/stabilityai/stable-audio-open-1.0 Im Gegensatz zum kommerziellen StableAudio-Produkt von StabilityAI, das längere, zusammenhängende Musiktitel von bis zu drei Minuten generiert, kann StableAudioOpen über einfachen Text erstellt werden -Qualitäts-Audiodaten bis zu 47 Sekunden. Dieses Modell wurde für Musikproduktion und Sounddesign entwickelt. Es umfasst Trommelschläge, Musikinstrumente ri
- KI 1003 2024-06-10 09:37:36
-
- Schritt-für-Schritt-Anleitung zur lokalen Verwendung von Groq Llama 3 70B
- Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq
- KI 1048 2024-06-10 09:16:58
-
- Die große Model-App Tencent Yuanbao ist online! Hunyuan wird zu einem Allround-KI-Assistenten aufgerüstet, der überall hin mitgenommen werden kann
- Am 30. Mai kündigte Tencent ein umfassendes Upgrade seines Hunyuan-Modells an. Die auf dem Hunyuan-Modell basierende App „Tencent Yuanbao“ wurde offiziell eingeführt und kann in den App-Stores von Apple und Android heruntergeladen werden. Im Vergleich zur Hunyuan-Applet-Version in der vorherigen Testphase bietet Tencent Yuanbao Kernfunktionen wie KI-Suche, KI-Zusammenfassung und KI-Schreiben für Arbeitseffizienzszenarien. Yuanbaos Gameplay ist außerdem umfangreicher und bietet mehrere Funktionen für KI-Anwendungen , und neue Spielmethoden wie das Erstellen persönlicher Agenten werden hinzugefügt. „Tencent strebt nicht danach, der Erste zu sein, der große Modelle herstellt.“ Liu Yuhong, Vizepräsident von Tencent Cloud und Leiter des großen Modells von Tencent Hunyuan, sagte: „Im vergangenen Jahr haben wir die Fähigkeiten des großen Modells von Tencent Hunyuan weiter gefördert.“ . In die reichhaltige und umfangreiche polnische Technologie in Geschäftsszenarien eintauchen und gleichzeitig Einblicke in die tatsächlichen Bedürfnisse der Benutzer gewinnen
- KI 817 2024-06-09 22:38:15
-
- Das Team der Universität Beihang hat die gesamte Erde in ein neuronales Netzwerk eingebunden und ein globales Fernerkundungsbilderzeugungsmodell eingeführt
- Das Forschungsteam von Beihang nutzte ein Diffusionsmodell, um die Erde zu „replizieren“? An jedem Ort auf der Welt kann das Modell Fernerkundungsbilder mit mehreren Auflösungen erzeugen und so reichhaltige und vielfältige „Parallelszenen“ erstellen. Darüber hinaus wurden komplexe geografische Merkmale wie Gelände, Klima und Vegetation berücksichtigt. Inspiriert von Google Earth „lud“ das Forschungsteam von Beihang Satellitenfernerkundungsbilder der gesamten Erde aus der Vogelperspektive in ein tiefes neuronales Netzwerk. Basierend auf einem solchen Netzwerk entwickelte das Team MetaEarth, ein globales Top-Down-Modell zur visuellen Generierung. MetaEarth verfügt über 600 Millionen Parameter und kann Fernerkundungsbilder mit mehreren Auflösungen erzeugen, die unbegrenzt sind und jeden geografischen Standort auf der Welt abdecken. Im Vergleich zu früheren Forschungen hat das globale Bilderzeugungsmodell der Fernerkundung Vorteile
- KI 302 2024-06-09 21:56:30
-
- LeCun, CEO von Meta AI: Streben Sie keinen LLM-Job an
- Produziert |. 51CTO Technology Stack (WeChat ID: blog51cto) Auf VivaTech, der jährlichen Technologiekonferenz für Startups in Paris, riet MetaAI-CEO Yann LeCun Studenten, die im KI-Ökosystem arbeiten möchten, davon ab, LLM (großes Sprachmodell) zu arbeiten. Wenn Sie daran interessiert sind, die nächste Generation von KI-Systemen aufzubauen, müssen Sie nicht im LLM arbeiten. „Das ist eine große Unternehmenssache und man kann nicht dazu beitragen“, sagte LeCun auf der Konferenz. Er sagte auch, dass die Menschen KI-Systeme der nächsten Generation entwickeln sollten, die die Einschränkungen großer Sprachmodelle überwinden können. 1. Halten Sie sich von LLMs fern Interessanterweise wurden die Diskussionen über LLM-Alternativen (Large Language Model) fortgesetzt
- KI 786 2024-06-09 20:29:50
-
- [Papierinterpretation] System 2 Aufmerksamkeit verbessert die Objektivität und Faktizität großer Sprachmodelle
- 1. Kurze Einführung In diesem Artikel wird kurz die verwandte Arbeit des Artikels „System2Attention(issomethingyoumightneedtoo)“ vorgestellt. Soft Attention in transformatorbasierten Large Language Models (LLM) kann leicht irrelevante Informationen aus dem Kontext in die zugrunde liegende Darstellung integrieren, was sich negativ auf die Generierung des nächsten Tokens auswirkt. Um diese Probleme zu beheben, stellt das Papier System2Attention (S2A) vor, das die Fähigkeit von LLM nutzt, in natürlicher Sprache zu argumentieren und Anweisungen zu befolgen, um zu entscheiden, was verarbeitet werden soll. S2A generiert den Eingabekontext neu, sodass der Eingabekontext dann nur die relevanten Teile enthält
- KI 681 2024-06-09 20:03:51
-
- YOLOv10 ist da! Echte End-to-End-Zielerkennung in Echtzeit
- In den letzten Jahren hat sich YOLOs aufgrund seines effektiven Gleichgewichts zwischen Rechenkosten und Erkennungsleistung zu einem Mainstream-Paradigma im Bereich der Echtzeit-Objekterkennung entwickelt. Forscher haben das strukturelle Design, die Optimierungsziele, Datenverbesserungsstrategien usw. von YOLOs eingehend untersucht und erhebliche Fortschritte erzielt. Allerdings behindert die Nachbearbeitungsabhängigkeit von Non-Maximum Suppression (NMS) die durchgängige Bereitstellung von YOLOs und wirkt sich negativ auf die Inferenzlatenz aus. Darüber hinaus mangelt es dem Design verschiedener Komponenten in YOLOs an einer umfassenden und gründlichen Überprüfung, was zu erheblicher Rechenredundanz führt und die Modellleistung einschränkt. Dies führt zu einer suboptimalen Effizienz und einem enormen Potenzial für Leistungsverbesserungen. In dieser Arbeit zielen wir darauf ab, den Leistungs-Effizienzvorteil von YOLOs aus zwei Aspekten weiter voranzutreiben: Nachbearbeitung und Modellarchitektur.
- KI 1005 2024-06-09 17:29:31