aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Durch die Anpassung an verschiedene Formen und Aufgaben wurde das leistungsstärkste Open-Source-Roboter-Lernsystem „Octopus' geboren
- Wenn es um Roboterlernen geht, besteht ein gängiger Ansatz darin, einen Datensatz speziell für einen bestimmten Roboter und eine bestimmte Aufgabe zu sammeln und ihn dann zum Trainieren einer Richtlinie zu verwenden. Wenn diese Methode jedoch verwendet wird, um von Grund auf zu lernen, müssen für jede Aufgabe ausreichend Daten gesammelt werden, und die Generalisierungsfähigkeit der resultierenden Richtlinie ist normalerweise schlecht. „Grundsätzlich können Erfahrungen aus anderen Robotern und Aufgaben mögliche Lösungen liefern, die es dem Modell ermöglichen, eine Vielzahl von Robotersteuerungsproblemen zu erkennen, und diese Probleme können die Generalisierungsfähigkeit und Leistung des Roboters bei nachgelagerten Aufgaben verbessern.“ Da sich herausgebildet hat, dass eine Vielzahl natürlicher Sprach- und Computer-Vision-Aufgaben möglich sind, ist der Aufbau eines „universellen Robotermodells“ immer noch schwierig. „Es ist sehr schwierig, eine einheitliche Steuerungsstrategie für Roboter zu trainieren
- KI 617 2024-06-02 10:04:53
-
- Warum sind kleine Sprachmodelle das nächste große Ding in der KI-Welt?
- Übersetzer |. Bugatti Review |. Chonglou Im Bereich der KI konkurrieren Technologiegiganten um die Entwicklung immer größerer Sprachmodelle, und jetzt zeichnet sich ein überraschender neuer Trend ab: Klein ist groß. Da der Fortschritt bei großen Sprachmodellen (LLMs) Anzeichen eines Stillstands zeigt, richten Forscher und Entwickler ihre Aufmerksamkeit zunehmend auf kleine Sprachmodelle (SLMs). Dieses kompakte, effiziente und anpassungsfähige KI-Modell stellt die Vorstellung „Größer ist besser“ in Frage und verspricht, die Art und Weise, wie wir an die KI-Entwicklung herangehen, zu verändern. Beginnt LLM zu stagnieren? Die kürzlich veröffentlichten Leistungsvergleichsergebnisse von Vellum und HuggingFace zeigen, dass sich die Leistungslücke zwischen LLMs schnell schließt. Dieser Trend zeigt sich bei bestimmten Aufgaben wie Multiple-Choice-Fragen, Argumentations- und Mathematikfragen
- KI 1095 2024-06-01 22:35:35
-
- Ist es besser, mehr Daten oder eine höhere Qualität zu haben? Diese Recherche kann Ihnen bei Ihrer Wahl helfen
- Die Skalierung des Basismodells bezieht sich auf die Verwendung von mehr Daten, Berechnungen und Parametern für das Vortraining, was einfach eine „Skalenerweiterung“ darstellt. Obwohl die direkte Skalierung des Modells einfach und grob erscheint, hat sie tatsächlich viele herausragende Modelle in die Community des maschinellen Lernens gebracht. Viele frühere Studien haben die Praxis der Erweiterung des Maßstabs neuroökonomischer Modelle erkannt. Die sogenannten quantitativen Veränderungen führen zu qualitativen Veränderungen. Diese Sichtweise wird auch als neuronale Skalierungsgesetze bezeichnet. Mit zunehmender Modellgröße führt dies jedoch zu einem intensiven Verbrauch von Rechenressourcen. Das bedeutet, dass größere Modelle mehr Rechenressourcen benötigen, einschließlich Prozessoren und Speicher. Dies ist für viele praktische Anwendungen nicht realisierbar, insbesondere auf Geräten mit begrenzten Ressourcen. Daher begannen Forscher
- KI 1099 2024-06-01 22:09:19
-
- KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert
- Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN
- KI 889 2024-06-01 22:03:37
-
- Redundante Begrenzungsrahmenanmerkung mit mehreren Gittern für eine genaue Objekterkennung
- 1. Einleitung Derzeit sind die führenden Objektdetektoren zweistufige oder einstufige Netzwerke, die auf dem umfunktionierten Backbone-Klassifizierungsnetzwerk von Deep CNN basieren. YOLOv3 ist ein solcher bekannter hochmoderner einstufiger Detektor, der ein Eingabebild empfängt und es in eine gleich große Gittermatrix aufteilt. Für die Erkennung spezifischer Ziele sind Gitterzellen mit Zielzentren zuständig. Was ich heute vorstelle, ist eine neue mathematische Methode, die jedem Ziel mehrere Gitter zuordnet, um eine genaue Vorhersage des Begrenzungsrahmens zu erreichen. Die Forscher schlugen außerdem eine effektive Offline-Datenverbesserung durch Kopieren und Einfügen für die Zielerkennung vor. Die neu vorgeschlagene Methode übertrifft einige aktuelle Objektdetektoren auf dem neuesten Stand der Technik deutlich und verspricht eine bessere Leistung. 2. Das Hintergrundzielerkennungsnetzwerk ist für die Verwendung konzipiert
- KI 632 2024-06-01 21:46:08
-
- Kimi + Coze (coze) ist eine tolle Kombination, ich möchte einen GPT-4o bauen
- Hallo zusammen, ich bin Laodu. Unter den inländischen Großmodellen ist die Leistung von Kimi sehr gut. Glücklicherweise unterstützt die Coze-Plattform das Kimi-Großmodell. Button ist eine Plattform zum Aufbau von Agentenintelligenz. Heute werden wir versuchen, mit Kimi+ Button einen Agenten mit GPT-4o-Effekt zu erstellen. Klicken Sie zunächst auf die Schaltfläche „Bot erstellen“ auf der Startseite. Der Bot ist eigentlich ein Agent. Im Bild hier ist das Modell der Moonshot-Serie das große Kimi-Modell. Das verbleibende Highlight des Bildes ist das „Plug-in“, das mit dem großen kombiniert werden kann Modell, um viele komplexe Funktionen auszuführen. Um ein paar Beispiele zu nennen, zum Beispiel die Sehfähigkeit. Fügen Sie ein Plug-in hinzu, damit große Modelle Bilder generieren und anzeigen können
- KI 1090 2024-06-01 20:23:12
-
- Überblick über die Pfadplanung: Basierend auf Probenahme, Suche und Optimierung, fertig!
- 1 Überblick über Entscheidungssteuerung und Bewegungsplanung Aktuelle Methoden zur Entscheidungssteuerung können in drei Kategorien unterteilt werden: sequentielle Planung, verhaltensbewusste Planung und End-to-End-Planung. Sequentielle Planung: Bei der traditionellsten Methode sind die drei Teile Wahrnehmung, Entscheidungsfindung und Kontrolle relativ klar. Verhaltensbewusste Planung: Im Vergleich zur ersten Methode ist der Höhepunkt die Einführung von Mensch-Maschine-Co-Fahren und Fahrzeug-Straße Zusammenarbeit und Fahrzeugrisikoabschätzung der externen dynamischen Umgebung; End-to-End-Planung: DL- und DRL-Technologien nutzen eine große Menge an Datentraining, um sensorische Informationen wie Bilder, Lenkradwinkel usw. zu erhalten.
- KI 1093 2024-06-01 20:12:48
-
- Führt generative KI zu einer Renaissance der Private Cloud?
- Zusammenstellung丨Produziert von Noah |. 51CTO Technology Stack (WeChat ID: blog51cto) Da eine weitere Runde der technologischen Revolution bevorsteht, stehen viele Unternehmen vor einer strategischen Entscheidung: ob sie weiterhin auf den Komfort der Public Cloud setzen oder zur Private Cloud zurückkehren wollen Die Umarmung von? Mit der rasanten Entwicklung der KI-Technologie ist diese Entscheidung immer dringlicher geworden. Laut der Infrastructure Cloud Survey 2023 von Forrester gaben etwa 79 % der etwa 1.300 befragten Cloud-Entscheidungsträger in Unternehmen an, dass ihre Unternehmen private Clouds implementieren. Darüber hinaus prognostiziert IDC, dass die weltweiten Ausgaben für dedizierte private Cloud-Dienste, einschließlich verwalteter privater Clouds, im Jahr 2024 20,4 Milliarden US-Dollar erreichen und sich bis mindestens 2027 verdoppeln werden. IDC-Daten zeigen dies vor 2024
- KI 814 2024-06-01 20:11:36
-
- Li Feifei interpretiert die unternehmerische Richtung „räumliche Intelligenz', um es der KI zu ermöglichen, die Welt wirklich zu verstehen
- Ein vollständiges TED-Interpretationsvideo über „räumliche Intelligenz“, die Wahl von Li Feifei für die Gründung eines Unternehmens, wurde veröffentlicht. Vor einiger Zeit berichtete Reuters exklusiv, dass Li Feifei, die bekannte „KI-Patin“, ein Start-up-Unternehmen gründet und eine Seed-Finanzierungsrunde abgeschlossen hat. Bei der Vorstellung des Startups zitierte ein Informant eine Rede von Li Feifei bei TED in Vancouver und deutete an, dass er in dieser TED-Rede das Konzept der räumlichen Intelligenz vorgestellt habe. Erst heute hat Li Feifei das Video ihrer kompletten Rede bei TED Vancouver auf X veröffentlicht. Sie stellte Einsicht vor, Einsicht wird zu Verständnis,
- KI 1084 2024-06-01 19:56:00
-
- Mistral AI schlägt GPT-4o in Sekunden und Llama 3 70B in 22B und eröffnet sein erstes Codemodell
- Das französische KI-Einhorn MistralAI, das auf OpenAI abzielt, hat einen neuen Schritt gemacht: Codestral, das erste große Codemodell, war geboren. Als offenes generatives KI-Modell, das speziell für Codegenerierungsaufgaben entwickelt wurde, unterstützt Codestral Entwickler beim Schreiben und Interagieren mit Code durch die gemeinsame Nutzung von Anweisungen und Vervollständigungs-API-Endpunkten. Die Programmier- und Englischkenntnisse von Codestral ermöglichen es Softwareentwicklern, fortschrittliche KI-Anwendungen zu entwerfen. Die Parametergröße von Codestral beträgt 22B, es entspricht der neuen MistralAINon-ProductionLicense und kann für Forschungs- und Testzwecke verwendet werden, eine kommerzielle Nutzung ist jedoch verboten. Derzeit steht das Modell auf HuggingFace zum Download bereit. Download-Link
- KI 354 2024-06-01 18:32:04
-
- Durch die Kombination von Quantenmerkmalen und 20.000 Molekulardynamiksimulationen wurde im Nature-Unterjournal ein neuer Protein-Ligand-Komplex-ML-Datensatz veröffentlicht
- Herausgeber | Toter Blattschmetterling Groß angelegte Sprachmodelle haben die Fähigkeit von Wissenschaftlern, Biologie und Chemie zu verstehen, erheblich verbessert, aber zuverlässige Methoden für die strukturbasierte Wirkstoffentdeckung, Quantenchemie und Strukturbiologie gibt es noch nicht. Für große Sprachmodelle werden dringend genaue Datensätze zur Biomolekül-Ligand-Interaktion benötigt. Um dieses Problem zu lösen, schlugen Forscher des Instituts für Biologie des Helmholtz-Forschungszentrums München und der Technischen Universität München MISATO vor. Hierbei handelt es sich um einen Datensatz, der quantenmechanische (QM) Eigenschaften kleiner Moleküle mit zugehörigen Molekulardynamik (MD)-Simulationen von etwa 20.000 experimentellen Protein-Ligand-Komplexen und einer umfassenden Validierung experimenteller Daten kombiniert. Ausgehend von der bestehenden experimentellen Struktur nutzten die Forscher die semiempirische Quantenmechanik, um diese systematisch zu verbessern
- KI 366 2024-06-01 18:20:09
-
- Verstehen Sie das LLM-Bewertungsrahmenwerk von Arthur Bench in einem Artikel
- Hallo Leute, ich bin Luga. Heute werden wir über Technologien im Zusammenhang mit dem ökologischen Bereich der künstlichen Intelligenz (KI) sprechen – LLM-Bewertung. Wie wir alle wissen, ist die LLM-Evaluation ein wichtiges Thema im Bereich der künstlichen Intelligenz. Da LLMs in verschiedenen Szenarien immer häufiger eingesetzt werden, wird es immer wichtiger, ihre Fähigkeiten und Grenzen zu bewerten. Als aufstrebendes LLM-Bewertungstool zielt ArthurBench darauf ab, eine umfassende, faire und wiederholbare Bewertungsplattform für KI-Forscher und -Entwickler bereitzustellen. 1. Herausforderungen für die traditionelle Textbewertung In den letzten Jahren sind traditionelle Textbewertungsmethoden aufgrund der rasanten Entwicklung und Verbesserung großer Sprachmodelle (LLM) in einigen Aspekten möglicherweise nicht mehr anwendbar. Im Bereich der Textauswertung haben wir vielleicht schon von a gehört
- KI 348 2024-06-01 17:57:01
-
- iFlytek schließt sich mit Alipay zusammen, um ein Smart-Cockpit-Service-Ökosystem aufzubauen
- 30 Tage später gaben iFlytek und Alipay einen Vertrag bekannt. Die beiden Parteien werden in den Bereichen Großmodelle, Auto- und Maschinenzahlung sowie Miniprogrammdienste zusammenarbeiten, um gemeinsam ein intelligenteres Cockpit-Service-Ökosystem aufzubauen. Zukünftig werden weitere Alipay-Miniprogrammdienste in der Lage sein, Autobesitzern vor, während und nach der Fahrt über den iFlytek-Auto-Boarding-Automaten ein intelligentes und komfortables Autoerlebnis in mehreren Szenarien zu bieten. Da der Internetverkehr in den Panoramaprozess eindringt, sind Miniprogramme zu einer wichtigen Position für Marken geworden. Wir hoffen, Autobesitzern durch das Alipay-Miniprogramm-Ökosystem umfassendere Dienste bieten zu können. He Weimin, stellvertretender General Manager der Automobilabteilung von iFlytek, sagte, dass iFlytek seine Systemtechnologievorteile wie Multi-Terminal-Verbindungstechnologie und Miniprogrammsicherheit nutzen werde, um die Smart-Car-Networking-Service-Ökologie der Alipay-Plattform an die Autoterminals der Marke zu liefern. Laut maßgeblicher Forschung
- KI 270 2024-06-01 17:55:26
-
- Handzerreißen von Llama3 Schicht 1: Implementierung von llama3 von Grund auf
- 1. Architektur von Llama3 In dieser Artikelserie implementieren wir llama3 von Grund auf. Die Gesamtarchitektur von Llama3: Stellen Sie sich die Modellparameter von Llama3 vor: Werfen wir einen Blick auf die tatsächlichen Werte dieser Parameter im Llama3-Modell. Bild [1] Kontextfenster (Kontextfenster) Beim Instanziieren der LlaMa-Klasse definiert die Variable max_seq_len das Kontextfenster. Es gibt andere Parameter in der Klasse, aber dieser Parameter steht in direktem Zusammenhang mit dem Transformatormodell. Die max_seq_len beträgt hier 8K. Bild [2] Wortschatzgröße und AufmerksamkeitL
- KI 899 2024-06-01 17:45:42
-
- Einfach und universell: Das Visual Basic-Netzwerk beschleunigt das verlustfreie Training um das bis zu Dreifache. Tsinghua EfficientTrain++ wurde für TPAMI 2024 ausgewählt
- Link zum Papier: https://arxiv.org/pdf/2405.08768 Der Code und das vorab trainierte Modell sind Open Source: https://github.com/LeapLabTHU/EfficientTrain Konferenzversionspapier (ICCV2023): https://arxiv. org/pdf/ 2211.09703 Kolumne des Computer Vision Institute Kolumne des Computer Vision Institute Dieser Artikel stellt hauptsächlich die IEEE-Transaktionen zu Musteranalyse und maschineller Intelligenz (TP) vor
- KI 307 2024-06-01 17:41:29