aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Die heißeste generative KI-Hardware wurde mehr als 100.000 Mal verkauft. Nach dem Zerlegen stellt sich heraus, dass es sich nur um eine Android-App handelt.
- „RabbitR1 ist im Wesentlichen ein Launcher-Programm auf dem Android-System. Nachdem es geknackt wurde, kann es auf dem Telefon ausgeführt werden.“ Durch das Knacken gelang es Rahman, die R1-Anwendung auf dem Pixel6a-Telefon zu starten und auszuführen. Am Dienstag enthüllte der amerikanische Journalist Mishaal Rahman die Details der bekannten generativen KI-Hardware RabbitR1, die sofort die Aufmerksamkeit der Technologiekreise auf sich zog. Vor einigen Monaten haben zwei Startups, Humane und Rabbit, ihre Geräte für künstliche Intelligenz weiter auf den Markt gebracht – AiPin und RabbitR1. Anfangs glaubten einige, dass diese Geräte eine neue Ära tragbarer künstlicher Intelligenz einläuten würden. Im Laufe der Monate wuchs jedoch die Kontroverse um die beiden Geräte. R
- KI 758 2024-05-02 16:01:19
-
- Yu Chengdong tritt als CEO von Huawei Terminal BG zurück, He Gang wird übernehmen
- Mehreren Medienberichten zufolge hat Huawei am Nachmittag des 30. April intern ein Personalanpassungsdokument herausgegeben, in dem angekündigt wurde, dass Yu Chengdong als CEO von Huawei Terminal BG zurücktreten werde. Yu Chengdong bleibt Vorsitzender von Terminal BG. He Gang, der ehemalige Huawei Terminal BG und Chief Operating Officer, wird die Position des CEO von Huawei Terminal BG übernehmen. Berichten zufolge enthält das Dokument außer den oben genannten persönlichen Änderungen und Anpassungen keine weiteren Informationen. Es gibt keine weiteren Erklärungen zu den Hintergründen dieser großen Personalveränderung und zu Yu Chengdongs neuer Geschäftsausrichtung nach seinem Rücktritt als CEO von Terminal BG. Einige Quellen sagten, dass es sich bei dieser Anpassung um eine routinemäßige Anpassung der Geschäftsstruktur handelt, die es Yu Chengdong ermöglichen wird, mehr Energie für die Herstellung hochwertiger Produkte für Verbraucher zu haben. Yu Chengdong wurde 1969 geboren. Er schloss sein Studium an der Abteilung für automatische Steuerung der Northwestern Polytechnical University mit einem Bachelor-Abschluss und einem Master-Abschluss an der Tsinghua-Universität ab.
- KI 563 2024-05-02 16:01:14
-
- Wie kann OctopusV3 mit weniger als 1 Milliarde Parametern mit GPT-4V und GPT-4 verglichen werden?
- Das Merkmal multimodaler KI-Systeme besteht darin, dass sie verschiedene Arten von Daten verarbeiten und lernen können, darunter natürliche Sprache, Bild, Audio usw., um ihre Verhaltensentscheidungen zu steuern. In jüngster Zeit hat die Forschung zur Integration visueller Daten in große Sprachmodelle (wie GPT-4V) wichtige Fortschritte gemacht, aber die Frage, wie Bildinformationen effektiv in ausführbare Operationen für KI-Systeme umgewandelt werden können, steht immer noch vor Herausforderungen. Um die Transformation von Bildinformationen zu realisieren, besteht eine gängige Methode darin, Bilddaten in entsprechende Textbeschreibungen umzuwandeln, woraufhin das KI-System auf der Grundlage der Beschreibungen arbeitet. Dies kann durch überwachtes Lernen an vorhandenen Bilddatensätzen erfolgen, wodurch das KI-System die Bild-zu-Text-Zuordnungsbeziehung automatisch lernen kann. Darüber hinaus kann mit Methoden des Reinforcement Learning auch gelernt werden, Entscheidungen auf Basis von Bildinformationen durch Interaktion mit der Umgebung zu treffen. ein anderer
- KI 633 2024-05-02 16:01:01
-
- In 12 Videoverständnisaufgaben besiegte Mamba zunächst Transformer
- Diese Website veröffentlicht Kolumnen mit akademischem und technischem Inhalt. In den letzten Jahren hat die AIxiv-Kolumne dieser Website mehr als 2.000 Berichte erhalten, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Das Mamba-Modell erkundet einen neuen Bereich des Videoverständnisses und leitet einen neuen Trend in der Computer-Vision-Forschung ein! Die Beschränkungen der traditionellen Architektur wurden durchbrochen. Das Zustandsraummodell Mamba hat mit seinen einzigartigen Vorteilen bei der Verarbeitung langer Sequenzen revolutionäre Veränderungen im Bereich des Videoverständnisses gebracht. Von der Nanjing-Universität, Shanghai
- KI 1443 2024-05-01 08:20:15
-
- GraphRAG verstehen (1): Herausforderungen von RAG
- RAG (RiskAssessmentGrid) ist eine Methode, die bestehende große Sprachmodelle (LLM) mit externen Wissensquellen erweitert, um kontextbezogenere Antworten zu liefern. In RAG erfasst die Abrufkomponente zusätzliche Informationen und Antworten auf der Grundlage spezifischer Quellen und speist diese Informationen dann in die LLM-Eingabeaufforderung ein, sodass die Antwort des LLM auf diesen Informationen basiert (Verbesserungsphase). RAG ist im Vergleich zu anderen Techniken wie dem Trimmen wirtschaftlicher. Es hat auch den Vorteil, Halluzinationen zu reduzieren, indem zusätzlicher Kontext basierend auf diesen Informationen bereitgestellt wird (Augmentationsphase) – Ihr RAG wird zur Workflow-Methode für die heutigen LLM-Aufgaben (wie Empfehlung, Textextraktion, Stimmungsanalyse usw.). Wenn wir diese Idee basierend auf der Benutzerabsicht weiter aufschlüsseln, betrachten wir normalerweise Folgendes
- KI 1073 2024-04-30 19:10:01
-
- Xiaohongshu brachte die intelligenten Agenten zum Streit! Gemeinsam mit der Fudan-Universität gestartet, um ein exklusives Gruppenchat-Tool für große Models zu starten
- Sprache ist nicht nur ein Haufen Wörter, sondern auch ein Karneval aus Emoticons, ein Meer aus Memes und ein Schlachtfeld für Tastaturkrieger (was? Was ist los?). Wie prägt Sprache unser Sozialverhalten? Wie entwickelt sich unsere soziale Struktur durch ständige verbale Kommunikation? Kürzlich führten Forscher der Fudan-Universität und Xiaohongshu ausführliche Diskussionen zu diesen Themen, indem sie eine Simulationsplattform namens AgentGroupChat einführten. Die Gruppenchat-Funktion sozialer Medien wie WhatsApp ist die Inspiration für die AgentGroupChat-Plattform. Auf der AgentGroupChat-Plattform können Agenten verschiedene Chat-Szenarien in sozialen Gruppen simulieren, um Forschern dabei zu helfen, die Auswirkungen von Sprache auf menschliches Verhalten besser zu verstehen. Sollen
- KI 1176 2024-04-30 18:40:23
-
- Die GitHub-Version von Devin ist online. Sie können Anwendungen entwickeln, wenn Sie tippen können, Microsoft CEO: IDE neu definieren
- Microsofts „GitHub-Version von Devin“ – Copilot WorkSpace, ist endlich online! WorkSpace ist eine neue „Copilot native“ Entwicklungsumgebung, die es allen Entwicklern ermöglichen soll, natürliche Sprache zu verwenden, um Ideen in ihren Köpfen in Anwendungen umzusetzen. Mit anderen Worten: Solange Sie eine Idee haben und tippen können, können Sie sich an der Softwareentwicklung beteiligen. Der rein natürliche Sprachworkflow von WorkSpace hat ihm auch den von Internetnutzern verliehenen Titel „GitHub-Version von Devin“ eingebracht. Domke, CEO von GitHub, sagte, dass WorkSpace die ursprünglichen Funktionen von Copilot übertroffen habe und das Entwicklererlebnis neu definieren werde. Auch Microsoft-Chef Nadella erwähnte dies noch einmal
- KI 564 2024-04-30 17:55:24
-
- So nutzen Sie künstliche Intelligenz und maschinelles Lernen in Webdiensten
- Die Integration künstlicher Intelligenztechnologie in verschiedene Produkte hat sich zu einem Game Changer entwickelt, insbesondere bei Netzwerkdienstsystemen. Die Definition von künstlicher Intelligenz wurde um Heuristiken und Wahrscheinlichkeiten im Programmiercode erweitert und ebnet so den Weg für effizientere Datenverarbeitungs- und Problemlösungsfunktionen. Der Markt für maschinelles Lernen (ML) boomt weltweit. Im Jahr 2022 wird es etwa 19,2 Milliarden US-Dollar wert sein. Experten gehen davon aus, dass diese Zahl bis 2030 auf 225,91 Milliarden US-Dollar ansteigen wird. Dieser Artikel befasst sich mit den tiefgreifenden Auswirkungen von künstlicher Intelligenz und maschinellem Lernen (ML) auf Webdienste und zeigt, wie sie die Art und Weise, wie wir große Datenmengen verarbeiten, revolutionieren. In den letzten Jahren hat die Technologie des maschinellen Lernens in verschiedenen Bereichen, insbesondere in der Datenverarbeitung, große Durchbrüche erzielt
- KI 796 2024-04-30 17:50:01
-
- Welches Potenzial hat Quanten-Künstliche Intelligenz?
- Im sich verändernden Sand der künstlichen Intelligenz (KI) ist ein Phönix aus der Asche auferstanden und hat eine neue Ära der Computerintelligenz eingeläutet – die Verschmelzung von Quantenphysik und Computerzauberei. Achtung, liebe Leser, ist die Geburt der künstlichen Quantenintelligenz, eine epochale Konvergenz, die den Verlauf des technologischen Fortschritts, wie wir ihn kennen, neu definieren wird. Quanten-KI verstehen: Die Verbindung von Quantenmechanik und künstlicher Intelligenz Im Wesentlichen ist Quanten-KI wie ein Tanz zwischen dem ätherischen Bereich der Quantenphysik und der rechnerischen Symphonie der künstlichen Intelligenz, vergleichbar mit einer Suche zwischen dem Mysteriösen und dem Algorithmus. Im Gegensatz zu herkömmlichen Computern, die auf ihren binären Pfaden ins Stocken geraten, kann sich die Quanten-KI elegant auf der Quantenbühne bewegen und dabei den mysteriösen Reiz von Qubits oder Qubits ausüben. Diese mysteriösen Organismen erinnern an Katzen
- KI 465 2024-04-30 17:49:13
-
- Die größte Rekonstruktion der Geschichte von 25 km²! NeRF-XL: Wirklich effektiver Einsatz von Multi-Card-Joint-Training!
- Originaltitel: NeRF-XL: Scaling NeRFswithMultipleGPUs Papierlink: https://research.nvidia.com/labs/toronto-ai/nerfxl/assets/nerfxl.pdf Projektlink: https://research.nvidia.com/labs/ toronto -ai/nerfxl/Autorenzugehörigkeit: NVIDIA University of California, Berkeley Papieridee: Dieses Papier schlägt NeRF-XL vor, eine prinzipielle Methode zur Zuweisung neuronaler Strahlenfelder zwischen mehreren Grafikverarbeitungseinheiten (GPUs) ( NeRFs)
- KI 972 2024-04-30 16:50:14
-
- WizardLM-2, das „sehr nah an GPT-4' ist, wurde von Microsoft dringend zurückgezogen. Was ist die Insider-Geschichte?
- Vor einiger Zeit hat Microsoft einen eigenen Fehler begangen: Es hat WizardLM-2 großzügig als Open-Source-Version bereitgestellt und es dann bald darauf sauber zurückgezogen. Derzeit abfragbare Versionsinformationen für WizardLM-2, ein Open-Source-Großmodell, das „wirklich mit GPT-4 vergleichbar“ ist und eine verbesserte Leistung in komplexem Chat, Mehrsprachigkeit, Inferenz und Agentur bietet. Die Serie umfasst drei Modelle: WizardLM-28x22B, WizardLM-270B und WizardLM-27B. Darunter: WizardLM-28x22B ist das fortschrittlichste Modell und das beste Open-Source-LLM nach interner Evaluierung für hochkomplexe Aufgaben. WizardLM-270B verfügt über Denkfähigkeiten auf höchstem Niveau und ist die erste Wahl im gleichen Maßstab
- KI 545 2024-04-30 16:40:12
-
- Das Python-Team wurde noch nicht aufgelöst und Google geht erneut gegen Flutter und Dart vor
- Letzte Woche löste die Nachricht, dass „Google sein Python-Gründungsteam entlassen hat“, hitzige Diskussionen aus. „Ein Update von Thomas Wouters, einem Mitglied des Python-Lenkungsausschusses von Google, überraschte alle: „Wenn jeder, mit dem Sie direkt zusammenarbeiten, einschließlich Ihres Vorgesetzten, entlassen wird – oh, es werden Stellen gestrichen und Sie werden gebeten, einen Ersatz zu vereinbaren.“ Man brachte diese Leute dazu, in verschiedenen Ländern die gleichen Positionen zu bekleiden, aber sie waren nicht glücklich darüber. „Gerade als die Leute über die Gründe diskutierten, warum Google das Python-Team entließ. Google verbreitete erneut die Nachricht von „Entlassungen von Mitarbeitern in Schlüsselteams wie Flutter, Dart, Python usw.“ Laut ausländischen Medien TechCrunch bestätigte Google
- KI 1260 2024-04-30 16:01:28
-
- Die Bedeutung von Open-Source-KI im Jahr 2024
- Die Nachfrage nach Open-Source-KI wird bis 2024 weiter wachsen. Open-Source-KI ermöglicht es Entwicklern, auf die Arbeit anderer zuzugreifen und darauf aufzubauen, was Zusammenarbeit, Transparenz und Innovation in diesem Bereich ermöglicht. Dies beschleunigt die Entwicklung der KI-Technologie, erhöht die Zugänglichkeit und demokratisiert die KI-Fähigkeiten. Lassen Sie uns kurz die Bedeutung von Open-Source-KI besprechen. Hier sind einige wichtige Punkte zur Bedeutung von Open-Source-KI im Jahr 2024: Zusammenarbeit: Open-Source-KI fördert die Zusammenarbeit zwischen Entwicklern, Forschern und Organisationen, um Wissen und Ressourcen zu teilen und so den Fortschritt auf diesem Gebiet zu beschleunigen. Durch den offenen Austausch von Algorithmen, Modellen und Werkzeugen wird sich das Innovationstempo beschleunigen, da ein globaler kollektiver Geist erhalten bleibt, der dabei hilft, KI-Fähigkeiten zu verfeinern und voranzutreiben. Transparenz: Ein
- KI 904 2024-04-30 09:07:22
-
- Das multimodale Modell des Nationalen Volkskongresses bewegt sich in Richtung AGI: Es realisiert erstmals unabhängige Aktualisierungen und die Foto-Video-Generierung übertrifft Sora
- Auf dem Zhongguancun Forum General Artificial Intelligence Parallel Forum am 27. April veröffentlichte Sophon Engine, ein mit der Renmin-Universität Chinas verbundenes Startup-Unternehmen, feierlich ein neues multimodales Großmodell Awaker 1.0 und machte damit einen entscheidenden Schritt in Richtung AGI. Im Vergleich zum ChatImg-Sequenzmodell der Sophon-Engine der vorherigen Generation übernimmt Awaker 1.0 eine neue MOE-Architektur und verfügt über die Fähigkeit zur unabhängigen Aktualisierung. Es ist das erste multimodale große Modell in der Branche, das eine „echte“ unabhängige Aktualisierung ermöglicht. In Bezug auf die visuelle Generierung verwendet Awaker 1.0 eine vollständig selbst entwickelte Videogenerierungsbasis VDT, die bei der Generierung von Fotovideos bessere Ergebnisse als Sora erzielt und die Schwierigkeit der „letzten Meile“ bei der Landung großer Modelle überwindet. Awaker1.0 ist
- KI 1126 2024-04-30 08:13:07
-
- Einen Monat nach der GTC-Konferenz wird Nvidias Omniverse Cloud API schnell implementiert
- Auf der diesjährigen GTC-Konferenz gab Nvidia bekannt, dass es Technologien wie generative funktionale KI eingesetzt hat, um ein branchenführendes Metaversum, einen industriellen digitalen Zwilling und ein Robotertrainingssoftwaresystem aufzubauen. Basierend auf NVIDIAs Echtzeit-Simulations- und Kollaborationsplattform Omniverse. Mit der Einführung der OmniverseCloud API haben Tools zur Simulation realer Umgebungen ihre Reichweite erweitert und werden nun von vielen Unternehmen zur Erstellung industrieller digitaler Zwillingsanwendungen und Arbeitsabläufe verwendet. Im März wurden insgesamt fünf neue OmniverseCloud-Anwendungsprogrammierschnittstellen eingeführt, die es Entwicklern ermöglichen, die Kerntechnologie von Omniverse einfach direkt in bestehende Design- und Automatisierungssoftwareanwendungen für digitale Zwillinge oder zum Testen und Validieren von Robotern zu integrieren
- KI 576 2024-04-30 08:10:22