aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Microsoft veröffentlicht den Copilot-Agenten und bringt auch ein natives kleines Sprachmodell mit
- Laut Nachrichten vom 22. Mai 2022, am Dienstag Ortszeit, hat Microsoft auf der Build-Entwicklerkonferenz den neuen Agenten Copilot vorgestellt. Er ist wie ein virtueller Mitarbeiter und kann Aufgaben automatisch ausführen. Microsoft glaubt, dass diese Art von künstlicher Intelligenz langweilige Arbeitsinhalte beseitigen wird, anstatt die Arbeit der Mitarbeiter vollständig zu ersetzen. Microsofts Copilot wird auf Basis des Open-Source-Codemodells GPT-3 entwickelt, das eine große Anzahl von Codebibliotheken und Algorithmen nutzt, um Entwicklern dabei zu helfen, Code effizienter zu schreiben. Copilot ist in der Lage, den Kontext zu analysieren und passende Codeausschnitte zu generieren, was die Geschwindigkeit und Qualität der Entwicklung erheblich beschleunigt. Allerdings ist die Funktionalität von Copilot noch eingeschränkt und es kann künstliche Intelligenz nicht vollständig ersetzen. Darüber hinaus hat Microsoft auch Copi im Visier
- KI 483 2024-06-02 14:56:12
-
- Warum künstliche Intelligenz die Mathematik revolutionieren könnte
- Herausgeber | Kohlblatt „Eine Vermutung aufzustellen – eine Aussage, von der man annimmt, dass sie wahr ist, die aber explizit bewiesen werden muss – ist für Mathematiker wie ein Moment göttlicher Inspiration. Mathematische Vermutungen sind mehr als nur fundierte Vermutungen. Sie zu formulieren erfordert eine Kombination aus Genie.“ „, Intuition und Erfahrung. Selbst Mathematikern fällt es schwer, ihren eigenen Entdeckungsprozess zu erklären. Entgegen der Intuition denke ich, dass dies der transformativste Bereich der maschinellen Intelligenz ist“, sagte Thomas Fink, Leiter des Institute of Mathematical Sciences . Im Jahr 2017 begannen Forscher am Institute of Mathematical Sciences in London, maschinelles Lernen als Hobby auf mathematische Daten anzuwenden. Während der COVID-19-Pandemie entdeckten sie, dass einfache künstliche Intelligenz (KI)
- KI 700 2024-06-02 14:47:39
-
- Wie lässt sich das Long-Tail-Problem in autonomen Fahrszenarien lösen?
- Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse
- KI 1618 2024-06-02 14:44:00
-
- IBM veröffentlicht das Granite-KI-Modell für die Open-Source-Community
- IBM Research gab kürzlich bekannt, dass sein Granite-Coding-Basismodell Open Source ist, mit dem Ziel, fortschrittliche KI-Tools zu demokratisieren und umfassende Änderungen in der Art und Weise zu fördern, wie Code branchenübergreifend geschrieben, gepflegt und entwickelt wird. Dieser Schritt wird es Entwicklern ermöglichen, KI-Modelle effizienter zu erstellen, zu optimieren und einzusetzen und so die Anwendung der Technologie der künstlichen Intelligenz zu beschleunigen. Granite ist ein fortschrittliches KI-Programmiertool, das vom IBM Research Institute mit leistungsstarken Funktionen entwickelt wurde. Auf welcher Ebene basiert es auf dem Open-Standard-Codierungsmodell IBM Granite? Granite entstand aus dem Bestreben von IBM, den Codierungsprozess zu vereinfachen. Nachdem IBM die Komplexität und die schnellen Entwicklungsanforderungen der Softwareentwicklung erkannt hatte, nutzte es seine starken wissenschaftlichen Forschungskapazitäten, um eine Reihe von KI-gesteuerten Tools zu entwickeln
- KI 868 2024-06-02 13:46:40
-
- Eine neue Art, Crowdsourcing zu spielen! Die LLM Arena hat einen Benchmark-Test ins Leben gerufen, um Schüler strikt von schlechten Schülern und Spitzenschüler von schlechten Schülern zu trennen.
- Welches Unternehmen ist im Ranking der großen Models stärker? Sehen Sie sich auch LLM Arena an ~ Bislang haben sich insgesamt 90 LLMs dem Kampf angeschlossen und die Gesamtzahl der Benutzerstimmen hat 770.000 überschritten. Während sich Internetnutzer darüber lustig machen, dass neue Models an die Spitze stürmen und alte Models ihre Würde verlieren, hat LMSYS, die Organisation hinter Renjia Arena, stillschweigend die Transformation der Ergebnisse abgeschlossen: den überzeugendsten Benchmark-Test, der aus tatsächlichen Kämpfen hervorgegangen ist – Arena -Hart. Bild Die vier von Arena-Hard gezeigten Vorteile sind genau das, was die aktuellen LLM-Benchmark-Tests am meisten benötigen: - Die Trennbarkeit (87,4 %) ist deutlich besser als bei MT-Bench (22,6 %). - Mit 89,1 % am besten bewertet; hohe Laufgeschwindigkeit, niedriger Preis
- KI 463 2024-06-02 13:21:08
-
- 2.500 Seiten Algorithmusdokumente geleakt! Die mächtigste Black Box im Suchverlauf ist aufgedeckt. Wird Google umstürzen und erneut upgraden?
- Geschrieben von Noah |. 51CTO Technology Stack (WeChat ID: blog51cto) Google hat ein etwas schlechtes Jahr. In den letzten zwei Tagen hat die Suchmaschine Informationen zu ihrer Funktion „KI-Übersichten“ bereitgestellt, die häufig äußerst ungenaue Suchergebnisse liefert, indem sie beispielsweise absurderweise suggeriert, dass Benutzer Klebstoff verwenden, um zu verhindern, dass Käse von einer Pizza rutscht. In diesem Zusammenhang musste CEO Pichai auch zugeben, dass dies durch die Illusion des großen Sprachmodells verursacht wurde und es derzeit keine Lösung gibt. Kürzlich wurde ein internes Dokument der Suchmaschine Google durchgesickert, das der Öffentlichkeit möglicherweise zum ersten Mal zeigt, wie es funktioniert. Dieser Artikel wurde erstmals hier veröffentlicht. Google hat noch keine offizielle Antwort auf das Leck herausgegeben und die Echtheit der Dokumente nicht bestritten. Google ist seit langem das
- KI 835 2024-06-02 12:21:35
-
- Goose Factory hat ein KI-Übersetzungsunternehmen aufgebaut: Es ist auf Online-Romane spezialisiert und passt Sprachstile automatisch an. Sowohl echte Menschen als auch GPT-4 können es gut lesen.
- Goose Factory hat eine „Übersetzungsfirma“ mit mehr als 150 Mitarbeitern gegründet. Vom Chef bis zu den Mitarbeitern sind sie alle KI-Agenten! Das Hauptgeschäft ist die Übersetzung von Online-Romanen. Die Qualität ist extrem hoch. Die Leser, die an der Bewertung teilgenommen haben, sind der Meinung, dass die Übersetzung besser ist als die von echten Menschen. Und im Vergleich zur Beauftragung echter Menschen reduzieren sich die Kosten bei der Übersetzung literarischer Werke um fast das 80-fache. ATransAgents kann mit 30 verschiedenen Mitarbeitern in jeder Position unterschiedliche Übersetzungsstile je nach Sprache, Genre und Zielgruppe anpassen. Im Vergleich zur herkömmlichen Übersetzung ist die resultierende Übersetzung flexibler und vielfältiger, entspricht eher den Ausdrucksgewohnheiten der Zielsprache und ist literarischer. Obwohl TransAgents bei der automatischen Ähnlichkeitsbewertung „durchgefallen“ ist, hat es daher bei Lesern und Fachleuten große Anerkennung gefunden. Also
- KI 530 2024-06-02 12:09:21
-
- Ist KI-Codierung ein echtes Bedürfnis oder eine Spielerei?
- Gast |. Geschrieben von Zhang Xiaonan |. 51CTO Technology Stack (WeChat ID: blog51cto) Seit der Popularität der generativen KI scheint KI mit der Rolle der Programmierer zu kämpfen. Fast immer wieder wird das Thema diskutiert, ob KI-Programmiertools Programmierer ersetzen können. Die hitzige Diskussion rund um die KI-Programmierung verwirrt: Wird dies eine Produktivitätsrevolution im Programmierbereich auslösen? Oder ist das ein weiterer überbewerteter Stunt? Dank der KI-Programmierung hat Baidu eine Verbesserung der menschlichen Effizienz um 10 % erreicht, und 27 % des neuen Codes, der heute von Ingenieuren eingereicht wurde, wurde durch KI generiert. Die Pioniere dieser Antwort sind die großen Hersteller, die diese Antwort erforschen. Als Architekt von Baidu Comate bin ich jedoch auch der Gründer dieses Produkts.
- KI 1166 2024-06-02 10:15:47
-
- Durch die Anpassung an verschiedene Formen und Aufgaben wurde das leistungsstärkste Open-Source-Roboter-Lernsystem „Octopus' geboren
- Wenn es um Roboterlernen geht, besteht ein gängiger Ansatz darin, einen Datensatz speziell für einen bestimmten Roboter und eine bestimmte Aufgabe zu sammeln und ihn dann zum Trainieren einer Richtlinie zu verwenden. Wenn diese Methode jedoch verwendet wird, um von Grund auf zu lernen, müssen für jede Aufgabe ausreichend Daten gesammelt werden, und die Generalisierungsfähigkeit der resultierenden Richtlinie ist normalerweise schlecht. „Grundsätzlich können Erfahrungen aus anderen Robotern und Aufgaben mögliche Lösungen liefern, die es dem Modell ermöglichen, eine Vielzahl von Robotersteuerungsproblemen zu erkennen, und diese Probleme können die Generalisierungsfähigkeit und Leistung des Roboters bei nachgelagerten Aufgaben verbessern.“ Da sich herausgebildet hat, dass eine Vielzahl natürlicher Sprach- und Computer-Vision-Aufgaben möglich sind, ist der Aufbau eines „universellen Robotermodells“ immer noch schwierig. „Es ist sehr schwierig, eine einheitliche Steuerungsstrategie für Roboter zu trainieren
- KI 889 2024-06-02 10:04:53
-
- Warum sind kleine Sprachmodelle das nächste große Ding in der KI-Welt?
- Übersetzer |. Bugatti Review |. Chonglou Im Bereich der KI konkurrieren Technologiegiganten um die Entwicklung immer größerer Sprachmodelle, und jetzt zeichnet sich ein überraschender neuer Trend ab: Klein ist groß. Da der Fortschritt bei großen Sprachmodellen (LLMs) Anzeichen eines Stillstands zeigt, richten Forscher und Entwickler ihre Aufmerksamkeit zunehmend auf kleine Sprachmodelle (SLMs). Dieses kompakte, effiziente und anpassungsfähige KI-Modell stellt die Vorstellung „Größer ist besser“ in Frage und verspricht, die Art und Weise, wie wir an die KI-Entwicklung herangehen, zu verändern. Beginnt LLM zu stagnieren? Die kürzlich veröffentlichten Leistungsvergleichsergebnisse von Vellum und HuggingFace zeigen, dass sich die Leistungslücke zwischen LLMs schnell schließt. Dieser Trend zeigt sich bei bestimmten Aufgaben wie Multiple-Choice-Fragen, Argumentations- und Mathematikfragen
- KI 1212 2024-06-01 22:35:35
-
- Ist es besser, mehr Daten oder eine höhere Qualität zu haben? Diese Recherche kann Ihnen bei Ihrer Wahl helfen
- Die Skalierung des Basismodells bezieht sich auf die Verwendung von mehr Daten, Berechnungen und Parametern für das Vortraining, was einfach eine „Skalenerweiterung“ darstellt. Obwohl die direkte Skalierung des Modells einfach und grob erscheint, hat sie tatsächlich viele herausragende Modelle in die Community des maschinellen Lernens gebracht. Viele frühere Studien haben die Praxis der Erweiterung des Maßstabs neuroökonomischer Modelle erkannt. Die sogenannten quantitativen Veränderungen führen zu qualitativen Veränderungen. Diese Sichtweise wird auch als neuronale Skalierungsgesetze bezeichnet. Mit zunehmender Modellgröße führt dies jedoch zu einem intensiven Verbrauch von Rechenressourcen. Das bedeutet, dass größere Modelle mehr Rechenressourcen benötigen, einschließlich Prozessoren und Speicher. Dies ist für viele praktische Anwendungen nicht realisierbar, insbesondere auf Geräten mit begrenzten Ressourcen. Daher begannen Forscher
- KI 1231 2024-06-01 22:09:19
-
- KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert
- Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN
- KI 1210 2024-06-01 22:03:37
-
- Redundante Begrenzungsrahmenanmerkung mit mehreren Gittern für eine genaue Objekterkennung
- 1. Einleitung Derzeit sind die führenden Objektdetektoren zweistufige oder einstufige Netzwerke, die auf dem umfunktionierten Backbone-Klassifizierungsnetzwerk von Deep CNN basieren. YOLOv3 ist ein solcher bekannter hochmoderner einstufiger Detektor, der ein Eingabebild empfängt und es in eine gleich große Gittermatrix aufteilt. Für die Erkennung spezifischer Ziele sind Gitterzellen mit Zielzentren zuständig. Was ich heute vorstelle, ist eine neue mathematische Methode, die jedem Ziel mehrere Gitter zuordnet, um eine genaue Vorhersage des Begrenzungsrahmens zu erreichen. Die Forscher schlugen außerdem eine effektive Offline-Datenverbesserung durch Kopieren und Einfügen für die Zielerkennung vor. Die neu vorgeschlagene Methode übertrifft einige aktuelle Objektdetektoren auf dem neuesten Stand der Technik deutlich und verspricht eine bessere Leistung. 2. Das Hintergrundzielerkennungsnetzwerk ist für die Verwendung konzipiert
- KI 872 2024-06-01 21:46:08
-
- Kimi + Coze (coze) ist eine tolle Kombination, ich möchte einen GPT-4o bauen
- Hallo zusammen, ich bin Laodu. Unter den inländischen Großmodellen ist die Leistung von Kimi sehr gut. Glücklicherweise unterstützt die Coze-Plattform das Kimi-Großmodell. Button ist eine Plattform zum Aufbau von Agentenintelligenz. Heute werden wir versuchen, mit Kimi+ Button einen Agenten mit GPT-4o-Effekt zu erstellen. Klicken Sie zunächst auf die Schaltfläche „Bot erstellen“ auf der Startseite. Der Bot ist eigentlich ein Agent. Im Bild hier ist das Modell der Moonshot-Serie das große Kimi-Modell. Das verbleibende Highlight des Bildes ist das „Plug-in“, das mit dem großen kombiniert werden kann Modell, um viele komplexe Funktionen auszuführen. Um ein paar Beispiele zu nennen, zum Beispiel die Sehfähigkeit. Fügen Sie ein Plug-in hinzu, damit große Modelle Bilder generieren und anzeigen können
- KI 1225 2024-06-01 20:23:12
-
- Überblick über die Pfadplanung: Basierend auf Probenahme, Suche und Optimierung, fertig!
- 1 Überblick über Entscheidungssteuerung und Bewegungsplanung Aktuelle Methoden zur Entscheidungssteuerung können in drei Kategorien unterteilt werden: sequentielle Planung, verhaltensbewusste Planung und End-to-End-Planung. Sequentielle Planung: Bei der traditionellsten Methode sind die drei Teile Wahrnehmung, Entscheidungsfindung und Kontrolle relativ klar. Verhaltensbewusste Planung: Im Vergleich zur ersten Methode ist der Höhepunkt die Einführung von Mensch-Maschine-Co-Fahren und Fahrzeug-Straße Zusammenarbeit und Fahrzeugrisikoabschätzung der externen dynamischen Umgebung; End-to-End-Planung: DL- und DRL-Technologien nutzen eine große Menge an Datentraining, um sensorische Informationen wie Bilder, Lenkradwinkel usw. zu erhalten.
- KI 1278 2024-06-01 20:12:48