aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- GPT-4o bringt GPT-4 zu jedem, und so funktioniert es
- Was ist GPT-4o?
- KI 1134 2024-06-14 15:07:31
-
- So verwenden Sie ChatGPT zum Verfassen Ihres Lebenslaufs
- Mit Ihrem Lebenslauf hervorzustechen, kann eine große Herausforderung sein, aber ChatGPT ist ein großartiges Werkzeug, um Ideen zu generieren und einige Ihrer Bearbeitungen zu automatisieren. Erfahren Sie, wie Sie mit ChatGPT einen hochwertigen Lebenslauf schreiben und häufige Fehler beheben. So schreiben Sie Ihren Lebenslauf mit Cha
- KI 672 2024-06-14 15:03:01
-
- Können Sie nicht auf die ChatGPT-Desktop-App warten? Probieren Sie stattdessen diese Open-Source-Alternative aus
- Im Rahmen seines umfangreichen Frühjahrsupdates 2024 gab OpenAI bekannt, dass die mit Spannung erwartete ChatGPT-Desktopversion verfügbar war. Beginnend mit macOS bringt OpenAI offiziell ChatGPT auf Desktops, die Windows-Unterstützung kommt später. Aber Sie können es kaum erwarten
- KI 1026 2024-06-14 14:31:36
-
- ACL 2024|PsySafe: Forschung zur Agentensystemsicherheit aus interdisziplinärer Perspektive
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Dieser Artikel wurde vom Shanghai Artificial Intelligence Laboratory, der Dalian University of Technology und der University of Science and Technology of China erstellt. Korrespondierender Autor: Shao Jing, promovierte am Multimedia Laboratory MMLab der Chinesischen Universität Hongkong und ist derzeit Leiter des Sicherheitsteams für große Modelle des Pujiang National Laboratory und leitet die Forschung an großen Modellen
- KI 414 2024-06-14 14:05:04
-
- „KI+Physik-Vorkenntnisse', allgemeine Bewertungsmethode für Protein-Ligand-Interaktionen der Zhejiang-Universität und der Chinesischen Akademie der Wissenschaften, veröffentlicht im Nature-Unterjournal
- Herausgeber |. Wissenschaftler haben nach effizienten Möglichkeiten gesucht, die Passung zwischen diesen „Schlüsseln“ und „Schlössern“ oder Protein-Ligand-Wechselwirkungen vorherzusagen. Traditionelle datengesteuerte Methoden verfallen jedoch häufig in das „Auswendiglernen“ und merken sich Liganden- und Protein-Trainingsdaten, anstatt die Wechselwirkungen zwischen ihnen wirklich zu lernen. Kürzlich hat ein Forschungsteam der Zhejiang-Universität und der Chinesischen Akademie der Wissenschaften eine neue Bewertungsmethode namens EquiScore vorgeschlagen, die heterogene graphische neuronale Netze nutzt, um physikalisches Vorwissen zu integrieren und Protein-Ligand-Wechselwirkungen im Gleichungstransformationsraum zu charakterisieren. EquiScore wird anhand eines neuen Datensatzes trainiert
- KI 1017 2024-06-14 11:40:36
-
- Das Modell hinter Apples Intelligenz wird bekannt gegeben: Das 3B-Modell ist besser als Gemma-7B und das Servermodell ist mit GPT-3.5-Turbo vergleichbar
- Auf der gerade zu Ende gegangenen Worldwide Developers Conference kündigte Apple Appleintelligence an, ein neues personalisiertes intelligentes System, das tief in iOS18, iPadOS18 und macOSSequoia integriert ist. Apple+ Intelligence besteht aus einer Vielzahl hochintelligenter generativer Modelle, die für die täglichen Aufgaben der Benutzer entwickelt wurden. In Apples gerade aktualisiertem Blog werden zwei der Modelle detailliert beschrieben. Ein geräteseitiges Sprachmodell mit etwa 3 Milliarden Parametern; ein größeres serverbasiertes Sprachmodell, das über privates Cloud-Computing auf Apple-Servern läuft. Diese beiden Basismodelle sind Teil der generativen Modellfamilie von Apple und Apple sagt, dass sie in naher Zukunft mehr über diese Modellfamilie erzählen werden.
- KI 609 2024-06-13 20:44:13
-
- Der dunkelblaue G318 ist preisgünstig ausgestattet, etwas komfortabler als ein Hardcore-Auto und etwas härter als ein Stadt-SUV.
- Es war endlich Zeit zu warten, bis der Preis für Deep Blue G318 bekannt gegeben wurde. Am 13. Juni kam ein „neuer Besucher“ vom Himalaya-Eisberg und verlegte die G318-Startkonferenz nach Lhasa. Gleichzeitig wird die Deep Blue G318-Konfiguration veröffentlicht! Für Freunde und Geschäftsleute gibt es einfach keine Möglichkeit zu überleben. Ein weiterer „Superkönig“ ist im Hardcore-SUV-Kreis angekommen. Die Top-Ten-Standardkonfigurationen aller Serien sind voller Aufrichtigkeit. Der Deep Blue G318 ist robust und komfortabel, wenn der Preis weniger als 300.000 Yuan beträgt. Es wird definitiv die Führung bei der Abdeckung des SUV-Marktes übernehmen. Am Beispiel der Top-Ten-Serienausstattung aller Baureihen scheint der dunkelblaue G318 zu verkünden, dass ich sie alle will. Mit Super Extended Range 2.0 kann ein Liter Öl 3,63 Kilowattstunden Strom erzeugen, und die goldene Hakenbatterie und das 348-mm-Akkupaket, die höchsten ihrer Klasse, sorgen für Bodenfreiheit.
- KI 836 2024-06-13 19:23:04
-
- Eröffnen Sie den gesamten Prozess der „Selbstentwicklung' intelligenter Agenten! Fudan bringt AgentGym auf den Markt, eine universelle intelligente Körperplattform
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail zur Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Fähigkeit zur Selbstentwicklung der allgemeinen Intelligenz der KI ist nicht unerreichbar. LLM-basierter Agent benötigt nicht mehr die Hilfe menschlicher Vorgesetzter und beginnt, die „Selbstentwicklung“ zu verwirklichen! Nach dem Erlernen der Expertenbahn hat sich dieser Agent grundlegende allgemeine Fähigkeiten angeeignet.
- KI 418 2024-06-13 18:25:27
-
- Das 70B-Modell generiert 1.000 Token in Sekunden, das Umschreiben des Codes übertrifft GPT-4o, vom Cursor-Team, einem von OpenAI investierten Code-Artefakt
- Beim Modell 70B können 1000 Token in Sekunden generiert werden, was fast 4000 Zeichen entspricht! Die Forscher haben Llama3 verfeinert und einen Beschleunigungsalgorithmus eingeführt. Im Vergleich zur nativen Version ist die Geschwindigkeit 13-mal höher! Es ist nicht nur schnell, seine Leistung bei Code-Rewriting-Aufgaben übertrifft sogar GPT-4o. Diese Errungenschaft stammt von anysphere, dem Team hinter dem beliebten KI-Programmierartefakt Cursor, und auch OpenAI beteiligte sich an der Investition. Sie müssen wissen, dass bei Groq, einem bekannten Framework zur schnellen Inferenzbeschleunigung, die Inferenzgeschwindigkeit von 70BLlama3 nur mehr als 300 Token pro Sekunde beträgt. Aufgrund der Geschwindigkeit von Cursor kann man sagen, dass eine nahezu sofortige vollständige Bearbeitung der Codedatei möglich ist. Manche Leute nennen es einen guten Kerl, wenn man Curs sagt
- KI 606 2024-06-13 15:47:02
-
- Nach einem Tag Training auf einer einzelnen GPU kann Transformer eine Genauigkeit von 99 % beim Addieren von 100-stelligen Zahlen erreichen.
- Multiplikation und Sortierung funktionieren ebenfalls. Seit seinem Vorschlag im Jahr 2017 hat sich Transformer zur Mainstream-Architektur für große KI-Modelle entwickelt und ist fest in der C-Position verankert. Was jedoch alle Forscher zugeben müssen, ist, dass der Transformer bei Rechenaufgaben extrem schlecht abschneidet, wenn auch zusätzlich, ein Fehler, der größtenteils auf die Unfähigkeit des Transformers zurückzuführen ist, die genaue Position jeder Zahl in einem großen Zahlenbereich zu verfolgen. Um dieses Problem zu lösen, haben Forscher der University of Maryland, der CMU und anderer Institutionen eine Herausforderung gestartet. Sie lösten dieses Problem, indem sie jeder Zahl eine Einbettung hinzufügten, die die Position der Zahl relativ zum Anfang kodiert. Die Studie ergab, dass es nur einen Tag dauerte, 20 Ziffern auf einer einzigen GPU zu trainieren
- KI 801 2024-06-13 14:06:09
-
- Keine OpenAI-Daten erforderlich, schließen Sie sich der Liste der großen Codemodelle an! UIUC veröffentlicht StarCoder-15B-Instruct
- An der Spitze der Softwaretechnologie kündigte die Gruppe von UIUC Zhang Lingming zusammen mit Forschern der BigCode-Organisation kürzlich das StarCoder2-15B-Instruct-Großcodemodell an. Diese innovative Errungenschaft erzielte einen bedeutenden Durchbruch bei Codegenerierungsaufgaben, übertraf erfolgreich CodeLlama-70B-Instruct und erreichte die Spitze der Codegenerierungsleistungsliste. Die Einzigartigkeit von StarCoder2-15B-Instruct liegt in seiner reinen Selbstausrichtungsstrategie. Der gesamte Trainingsprozess ist offen, transparent und völlig autonom und kontrollierbar. Das Modell generiert über StarCoder2-15B Tausende von Anweisungen als Reaktion auf die Feinabstimmung des StarCoder-15B-Basismodells, ohne auf teure manuelle Annotationen angewiesen zu sein.
- KI 1189 2024-06-13 13:59:56
-
- Technischer Bericht von Google Gemini 1.5: Einfache Prüfung von Mathematik-Olympiade-Fragen, die Flash-Version ist fünfmal schneller als GPT-4 Turbo
- Im Februar dieses Jahres brachte Google das multimodale Großmodell Gemini 1.5 auf den Markt, das durch technische und Infrastrukturoptimierung, MoE-Architektur und andere Strategien die Leistung und Geschwindigkeit erheblich verbesserte. Mit längerem Kontext, stärkeren Argumentationsfähigkeiten und besserem Umgang mit modalübergreifenden Inhalten. Diesen Freitag hat Google DeepMind offiziell den technischen Bericht zu Gemini 1.5 veröffentlicht, der die Flash-Version und andere aktuelle Upgrades behandelt. Das Dokument ist 153 Seiten lang. Link zum technischen Bericht: https://storage.googleapis.com/deepmind-media/gemini/gemini_v1_5_report.pdf In diesem Bericht stellt Google Gemini1 vor
- KI 1067 2024-06-13 13:52:27
-
- Fortgeschrittene Praxis des industriellen Wissensgraphen
- 1. Einführung in den Hintergrund Lassen Sie uns zunächst die Entwicklungsgeschichte von Yunwen Technology vorstellen. Yunwen Technology Company ... 2023 ist die Zeit, in der große Modelle vorherrschen. Viele Unternehmen glauben, dass die Bedeutung von Diagrammen nach großen Modellen stark abgenommen hat und die zuvor untersuchten voreingestellten Informationssysteme nicht mehr wichtig sind. Mit der Förderung von RAG und der Verbreitung von Data Governance haben wir jedoch festgestellt, dass eine effizientere Datenverwaltung und qualitativ hochwertige Daten wichtige Voraussetzungen für die Verbesserung der Wirksamkeit privatisierter Großmodelle sind. Deshalb beginnen immer mehr Unternehmen, darauf zu achten zu wissenskonstruktionsbezogenen Inhalten. Dies fördert auch den Aufbau und die Verarbeitung von Wissen auf einer höheren Ebene, wo es viele Techniken und Methoden gibt, die erforscht werden können. Es ist ersichtlich, dass das Aufkommen einer neuen Technologie nicht alle alten Technologien besiegt, sondern auch neue und alte Technologien integrieren kann.
- KI 457 2024-06-13 11:59:28
-
- LeCuns neue Arbeit: geschichtetes Weltmodell, datengesteuerte Steuerung humanoider Roboter
- Mit großen Modellen als Segen der Intelligenz sind humanoide Roboter zu einem neuen Trend geworden. Die Roboter in Science-Fiction-Filmen, die „erkennen, dass ich kein Mensch bin“, scheinen näher zu kommen. Für Roboter, insbesondere für humanoide Roboter, ist es jedoch immer noch ein schwieriges technisches Problem, wie Menschen zu denken und zu handeln. Am Beispiel eines einfachen Laufenlernens kann sich die Verwendung von Verstärkungslernen zum Trainieren wie folgt entwickeln: Es gibt grundsätzlich kein Problem (nach dem Belohnungsmechanismus), und das Ziel, die Treppe hinaufzugehen, wurde erreicht ist relativ abstrakt und unterscheidet sich von den meisten Menschen. Verhaltensmuster können unterschiedlich sein. Der Grund dafür, dass Roboter Schwierigkeiten haben, sich „natürlich“ wie Menschen zu verhalten, liegt in der hochdimensionalen Beschaffenheit des Beobachtungs- und Handlungsraums sowie in der inhärenten Instabilität der zweibeinigen Form. In dieser Hinsicht beteiligte sich LeCun
- KI 992 2024-06-13 11:37:17
-
- Gute Nachrichten im Bereich der 3D-Asset-Generierung: Die Teams des Institute of Automation und der Beijing University of Posts and Telecommunications schaffen gemeinsam ein neues Paradigma der Materialgenerierung
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im heutigen digitalen Zeitalter spielen 3D-Assets eine wichtige Rolle bei der Konstruktion des Metaversums, der Realisierung digitaler Zwillinge und der Anwendung von Virtual Reality und Augmented Reality und fördern die Technologie Innovation und Verbesserung der Benutzererfahrung. Bestehende Methoden zur Generierung von 3D-Assets nutzen häufig generative Modelle
- KI 820 2024-06-13 11:09:54