aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- GPT-4 hat den Turing-Test mit einer Erfolgsquote von 54 % bestanden! Neue Arbeit der UCSD: Menschen können GPT-4 nicht erkennen
- Kann GPT-4 den Turing-Test bestehen? Wenn ein ausreichend leistungsfähiges Modell geboren ist, verwenden Menschen häufig den Turing-Test, um die Intelligenz dieses LLM zu messen. Kürzlich haben Forscher der Abteilung für Kognitionswissenschaft an der UCSD herausgefunden, dass Menschen im Turing-Test GPT-4 überhaupt nicht von Menschen unterscheiden können! Papieradresse: https://arxiv.org/pdf/2405.08007 Im Turing-Test wurde GPT-4 in 54 % der Fälle als menschlich eingestuft. Die experimentellen Ergebnisse zeigen, dass dies das erste Mal ist, dass ein System den Test im „interaktiven“ Zwei-Personen-Turing-Test empirisch bestanden hat. Die Forscher Cameron R. Jones rekrutierten 500 Freiwillige, die in fünf Rollen aufgeteilt wurden: nämlich vier Bewerter
- KI 1241 2024-06-10 12:32:27
-
- Die Open-Source-Version von GLM-4 ist endlich da: Sie übertrifft Llama3, ist mit GPT4V vergleichbare Multimodalität und auch die MaaS-Plattform wurde stark verbessert.
- Die neueste Version des großen Modells kostet 6 Cent und 1 Million Tokens. Heute Morgen gab das viel beachtete Großmodellunternehmen Zhipu AI beim AI Open Day eine Reihe von Branchenumsetzungszahlen bekannt: Nach neuesten Statistiken hat die offene Großmodellplattform Zhipu AI derzeit 300.000 registrierte Benutzer erhalten, mit einem Die durchschnittliche tägliche Anzahl der Aufrufe hat 40 Milliarden Token erreicht, wobei der tägliche API-Verbrauch in den letzten 6 Monaten um mehr als das 50-fache gestiegen ist und das GLM-4-Modell mit der stärksten Leistung um mehr als das 90-fache gestiegen ist die letzten 4 Monate. In der aktuellen Qingtan-App sind mehr als 300.000 Agenten im Agentencenter aktiv, darunter viele hervorragende Produktivitätstools wie Mind Maps, Dokumentenassistenten, Terminplaner und mehr. Auf der Seite der neuen Technologie ist die neueste Version von GLM-4, GL
- KI 1347 2024-06-10 11:44:17
-
- Verabschieden Sie sich vom 3D-Gaußschen Splatting-Algorithmus, das spektral beschneidende Gaußsche Feld SUNDAE mit neuronaler Kompensation ist Open Source
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Zu den Autoren dieses Artikels gehören Yang Runyi, ein Masterstudent am Imperial College London, Zhu Zhenxin, ein Masterstudent im zweiten Jahr an der Beihang University, Jiang Zhou, ein Zweitsemesterstudent Masterstudent im dritten Studienjahr am Beijing Institute of Technology und Bachelorstudenten im vierten Studienjahr am Beijing Institute of Technology Ye Baijun, Zhang Yifei, ein Bachelorstudent im dritten Studienjahr an der Chinesischen Akademie der Wissenschaften, China Telecom Artificial Intelligence
- KI 1228 2024-06-10 11:17:28
-
- Kontexterweiterter KI-Codierungsassistent mit Rag und Sem-Rag
- Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird
- KI 1580 2024-06-10 11:08:19
-
- Das Open-Source-47-Sekunden-Audiogenerierungsmodell von Stability AI kann Insekten, Vögel, Rockmusik und Trommelschläge erzeugen.
- Es gibt noch eine weitere gute Nachricht im Bereich der Audiogenerierung: StabilityAI hat gerade die Einführung des offenen Modells StableAudioOpen angekündigt, das hochwertige Audiodaten generieren kann. Projektadresse: https://huggingface.co/stabilityai/stable-audio-open-1.0 Im Gegensatz zum kommerziellen StableAudio-Produkt von StabilityAI, das längere, zusammenhängende Musiktitel von bis zu drei Minuten generiert, kann StableAudioOpen über einfachen Text erstellt werden -Qualitäts-Audiodaten bis zu 47 Sekunden. Dieses Modell wurde für Musikproduktion und Sounddesign entwickelt. Es umfasst Trommelschläge, Musikinstrumente ri
- KI 1091 2024-06-10 09:37:36
-
- Schritt-für-Schritt-Anleitung zur lokalen Verwendung von Groq Llama 3 70B
- Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq
- KI 1473 2024-06-10 09:16:58
-
- Die große Model-App Tencent Yuanbao ist online! Hunyuan wird zu einem Allround-KI-Assistenten aufgerüstet, der überall hin mitgenommen werden kann
- Am 30. Mai kündigte Tencent ein umfassendes Upgrade seines Hunyuan-Modells an. Die auf dem Hunyuan-Modell basierende App „Tencent Yuanbao“ wurde offiziell eingeführt und kann in den App-Stores von Apple und Android heruntergeladen werden. Im Vergleich zur Hunyuan-Applet-Version in der vorherigen Testphase bietet Tencent Yuanbao Kernfunktionen wie KI-Suche, KI-Zusammenfassung und KI-Schreiben für Arbeitseffizienzszenarien. Yuanbaos Gameplay ist außerdem umfangreicher und bietet mehrere Funktionen für KI-Anwendungen , und neue Spielmethoden wie das Erstellen persönlicher Agenten werden hinzugefügt. „Tencent strebt nicht danach, der Erste zu sein, der große Modelle herstellt.“ Liu Yuhong, Vizepräsident von Tencent Cloud und Leiter des großen Modells von Tencent Hunyuan, sagte: „Im vergangenen Jahr haben wir die Fähigkeiten des großen Modells von Tencent Hunyuan weiter gefördert.“ . In die reichhaltige und umfangreiche polnische Technologie in Geschäftsszenarien eintauchen und gleichzeitig Einblicke in die tatsächlichen Bedürfnisse der Benutzer gewinnen
- KI 1202 2024-06-09 22:38:15
-
- Das Team der Universität Beihang hat die gesamte Erde in ein neuronales Netzwerk eingebunden und ein globales Fernerkundungsbilderzeugungsmodell eingeführt
- Das Forschungsteam von Beihang nutzte ein Diffusionsmodell, um die Erde zu „replizieren“? An jedem Ort auf der Welt kann das Modell Fernerkundungsbilder mit mehreren Auflösungen erzeugen und so reichhaltige und vielfältige „Parallelszenen“ erstellen. Darüber hinaus wurden komplexe geografische Merkmale wie Gelände, Klima und Vegetation berücksichtigt. Inspiriert von Google Earth „lud“ das Forschungsteam von Beihang Satellitenfernerkundungsbilder der gesamten Erde aus der Vogelperspektive in ein tiefes neuronales Netzwerk. Basierend auf einem solchen Netzwerk entwickelte das Team MetaEarth, ein globales Top-Down-Modell zur visuellen Generierung. MetaEarth verfügt über 600 Millionen Parameter und kann Fernerkundungsbilder mit mehreren Auflösungen erzeugen, die unbegrenzt sind und jeden geografischen Standort auf der Welt abdecken. Im Vergleich zu früheren Forschungen hat das globale Bilderzeugungsmodell der Fernerkundung Vorteile
- KI 413 2024-06-09 21:56:30
-
- LeCun, CEO von Meta AI: Streben Sie keinen LLM-Job an
- Produziert |. 51CTO Technology Stack (WeChat ID: blog51cto) Auf VivaTech, der jährlichen Technologiekonferenz für Startups in Paris, riet MetaAI-CEO Yann LeCun Studenten, die im KI-Ökosystem arbeiten möchten, davon ab, LLM (großes Sprachmodell) zu arbeiten. Wenn Sie daran interessiert sind, die nächste Generation von KI-Systemen aufzubauen, müssen Sie nicht im LLM arbeiten. „Das ist eine große Unternehmenssache und man kann nicht dazu beitragen“, sagte LeCun auf der Konferenz. Er sagte auch, dass die Menschen KI-Systeme der nächsten Generation entwickeln sollten, die die Einschränkungen großer Sprachmodelle überwinden können. 1. Halten Sie sich von LLMs fern Interessanterweise wurden die Diskussionen über LLM-Alternativen (Large Language Model) fortgesetzt
- KI 904 2024-06-09 20:29:50
-
- [Papierinterpretation] System 2 Aufmerksamkeit verbessert die Objektivität und Faktizität großer Sprachmodelle
- 1. Kurze Einführung In diesem Artikel wird kurz die verwandte Arbeit des Artikels „System2Attention(issomethingyoumightneedtoo)“ vorgestellt. Soft Attention in transformatorbasierten Large Language Models (LLM) kann leicht irrelevante Informationen aus dem Kontext in die zugrunde liegende Darstellung integrieren, was sich negativ auf die Generierung des nächsten Tokens auswirkt. Um diese Probleme zu beheben, stellt das Papier System2Attention (S2A) vor, das die Fähigkeit von LLM nutzt, in natürlicher Sprache zu argumentieren und Anweisungen zu befolgen, um zu entscheiden, was verarbeitet werden soll. S2A generiert den Eingabekontext neu, sodass der Eingabekontext dann nur die relevanten Teile enthält
- KI 776 2024-06-09 20:03:51
-
- YOLOv10 ist da! Echte End-to-End-Zielerkennung in Echtzeit
- In den letzten Jahren hat sich YOLOs aufgrund seines effektiven Gleichgewichts zwischen Rechenkosten und Erkennungsleistung zu einem Mainstream-Paradigma im Bereich der Echtzeit-Objekterkennung entwickelt. Forscher haben das strukturelle Design, die Optimierungsziele, Datenverbesserungsstrategien usw. von YOLOs eingehend untersucht und erhebliche Fortschritte erzielt. Allerdings behindert die Nachbearbeitungsabhängigkeit von Non-Maximum Suppression (NMS) die durchgängige Bereitstellung von YOLOs und wirkt sich negativ auf die Inferenzlatenz aus. Darüber hinaus mangelt es dem Design verschiedener Komponenten in YOLOs an einer umfassenden und gründlichen Überprüfung, was zu erheblicher Rechenredundanz führt und die Modellleistung einschränkt. Dies führt zu einer suboptimalen Effizienz und einem enormen Potenzial für Leistungsverbesserungen. In dieser Arbeit zielen wir darauf ab, den Leistungs-Effizienzvorteil von YOLOs aus zwei Aspekten weiter voranzutreiben: Nachbearbeitung und Modellarchitektur.
- KI 1184 2024-06-09 17:29:31
-
- Falcon kehrt nach einem Jahr zurück! 11 Milliarden Parameter und 5,5 Billionen Token, eine Leistung, die Llama 3 übertrifft
- In den letzten Tagen schien das von OpenAI veröffentlichte GPT-4o die Aufmerksamkeit der Welt auf sich gezogen zu haben. Gleichzeitig schreiben auch die Herausforderer von OpenAI Geschichte. Erst am 14. Mai veröffentlichte das Technology Innovation Institute (TII) des Abu Dhabi Advanced Technology Research Council (ATRC) eine neue Generation des Falcon2-Modells. Falcon211B hat den Zugang geöffnet. Falcon211BVLM wird am 14. Mai um 12 Uhr mittags die neue Generation „Falcon“ eröffnen, um in die Arena zurückzukehren. Nach dem Start stand sie schnell an der Spitze der HN-Hotlist. Letztes Jahr schockierte Falcon alle, als es zum ersten Mal auf den Markt kam, und übertraf Llama mit einem vernichtenden Vorteil. Laut HuggingFace
- KI 1174 2024-06-09 17:25:31
-
- Der CEO von OpenAI reagierte auf die „Schweigevereinbarung', der Streit entstehe immer noch über Kapitalanteile, Ultraman: „Das ist meine Schuld.'
- Seit dem Rücktritt von Ilya und Jan, dem Leiter von Super Alignment, ist OpenAI intern gespalten und immer mehr Menschen sind zurückgetreten, was auch zu mehr Konflikten geführt hat. Im Mittelpunkt der Kontroverse stand gestern ein striktes „Schweigeabkommen“. Die ehemalige OpenAI-Mitarbeiterin Kelsey Piper brachte die Nachricht, dass die Anweisungen für das Onboarding-Dokument eines jeden Mitarbeiters Folgendes umfassen: „Innerhalb von sechzig Tagen nach Ihrem Ausscheiden aus dem Unternehmen müssen Sie ein Trennungsdokument mit einer „allgemeinen Ausnahmegenehmigung“ unterzeichnen. Wenn Sie es nicht innerhalb von 60 Tagen ausfüllen, wird Ihr Eigenkapital gemindert Vorteile werden gestrichen.“ Dieser Screenshot des Dokuments, das die Kontroverse ausgelöst hat, veranlasste den CEO von OpenAI zu einer schnellen Reaktion: „Wir haben nie die wohlerworbenen Rechte von irgendjemandem zurückerlangt, wenn die Leute die Trennungsvereinbarung nicht unterzeichnen (oder der Nichtverunglimpfungsvereinbarung nicht zustimmen“). ,
- KI 953 2024-06-09 17:07:32
-
- Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
- iVideoGPT erfüllt die hohen Interaktivitätsanforderungen von Weltmodels. Generative Modelle haben in den letzten Jahren erhebliche Fortschritte gemacht, wobei die Videogenerierung zu einer neuen Grenze geworden ist. Eine wichtige Anwendung dieser generativen Videomodelle besteht darin, auf unbeaufsichtigte Weise anhand verschiedener Daten im Internetmaßstab zu lernen, um prädiktive Weltmodelle zu erstellen. Von diesen Weltmodellen wird erwartet, dass sie vernünftiges Wissen über die Funktionsweise der Welt sammeln und Vorhersagen über mögliche zukünftige Ergebnisse auf der Grundlage des Verhaltens von Agenten ermöglichen. Durch die Nutzung dieser Weltmodelle können sich Agenten, die Reinforcement Learning nutzen, innerhalb des Weltmodells vorstellen, schlussfolgern und planen und so neue Fähigkeiten in der realen Welt mit einem kleinen Experimentieraufwand sicherer und effizienter erwerben. Obwohl generative Modelle grundsätzlich mit Weltmodellen verwandt sind, sind sie es doch
- KI 950 2024-06-09 17:06:01
-
- Neue Arbeit von Bengio et al.: Attention kann als RNN angesehen werden. Das neue Modell ist vergleichbar mit Transformer, ist aber super speichersparend.
- Fortschritte in der Sequenzmodellierung waren äußerst wirkungsvoll, da sie in einer Vielzahl von Anwendungen eine wichtige Rolle spielen, darunter Reinforcement Learning (z. B. Robotik und autonomes Fahren), Zeitreihenklassifizierung (z. B. Erkennung von Finanzbetrug und medizinische Diagnose) usw. . In den letzten Jahren stellte das Aufkommen von Transformer einen großen Durchbruch in der Sequenzmodellierung dar, vor allem aufgrund der Tatsache, dass Transformer eine Hochleistungsarchitektur bereitstellt, die die Vorteile der GPU-Parallelverarbeitung nutzen kann. Transformer weist jedoch einen hohen Rechenaufwand während der Inferenz auf, hauptsächlich aufgrund der quadratischen Erweiterung des Speichers und der Rechenanforderungen, wodurch seine Anwendung in Umgebungen mit geringen Ressourcen (z. B. mobile und eingebettete Geräte) eingeschränkt wird. Obwohl Technologien wie KV-Caching zur Verbesserung der Inferenzeffizienz eingesetzt werden können,
- KI 687 2024-06-09 16:50:32