aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Hot ChatTTS durchbrach die Open-Source-Sprachobergrenze und gewann in 3 Tagen 9.000 Sterne
- Sieht so die Zukunft der Kommunikation zwischen Menschen aus? Vor kurzem ist ein Text-to-Speech-Projekt namens ChatTTS populär geworden und hat große Aufmerksamkeit erregt. In nur drei Tagen hat es auf GitHub 9,2.000 Sterne erhalten. Projektadresse: https://github.com/2noise/ChatTTS/tree/main Der Autor selbst sagte auf x auch, dass ChatTTS die Open-Source-Obergrenze durchbrochen hat. Derzeit ist jedoch nur das Basismodell Open Source, das nicht von SFT überwacht und verfeinert wurde. Dieses Projekt wandelt Text in Sprache um, und der Effekt ist wie folgt: ChatTTS kann nicht nur Chinesisch sprechen, sondern auch Englisch. Es unterstützt auch eine feinkörnige Steuerung, mit der Sie Lachen, Sprache usw. hinzufügen können.
- KI 661 2024-06-07 17:10:54
-
- Der bahnbrechende CVM-Algorithmus löst Zählprobleme aus über 40 Jahren! Informatiker wirft Münze, um einzigartiges Wort für „Hamlet' zu finden
- Zählen klingt einfach, ist aber in der Praxis sehr schwierig. Stellen Sie sich vor, Sie werden in einen unberührten Regenwald transportiert, um eine Wildtierzählung durchzuführen. Wenn Sie ein Tier sehen, machen Sie ein Foto. Digitalkameras zeichnen nur die Gesamtzahl der verfolgten Tiere auf, Sie interessieren sich jedoch für die Anzahl der einzelnen Tiere, es gibt jedoch keine Statistiken. Wie erhält man also am besten Zugang zu dieser einzigartigen Tierpopulation? An diesem Punkt müssen Sie sagen: Beginnen Sie jetzt mit dem Zählen und vergleichen Sie schließlich jede neue Art vom Foto mit der Liste. Für Informationsmengen bis zu mehreren Milliarden Einträgen ist diese gängige Zählmethode jedoch teilweise nicht geeignet. Informatiker des Indian Statistical Institute (UNL) und der National University of Singapore haben einen neuen Algorithmus vorgeschlagen – CVM. Es kann die Berechnung verschiedener Elemente in einer langen Liste annähern.
- KI 1104 2024-06-07 15:44:57
-
- Baidu empfahl die Kaltstartpraxis für Ressourcen
- 1. Content-Cold-Start-Konzept und Herausforderungen Baidu Feed Recommendation ist eine umfassende Informationsfluss-Empfehlungsplattform mit Hunderten Millionen monatlichen Nutzern. Die Plattform deckt eine Vielzahl von Inhaltstypen wie Grafiken, Videos, Updates, Miniprogramme, Fragen und Antworten usw. ab. Es bietet nicht nur Click-and-Click-Empfehlungen ähnlich einer Einzel- oder Doppelspalte, sondern beinhaltet auch verschiedene Empfehlungsformen wie Video-Immersion. Gleichzeitig ist das Empfehlungssystem ein Multi-Stakeholder-System, das nicht nur die C-seitige Benutzererfahrung berücksichtigt. Inhaltsproduzenten spielen eine wichtige Rolle im Empfehlungssystem von Baidu Feed. Es gibt eine große Anzahl aktiver Praktiker, die täglich riesige Mengen an Inhalten produzieren. Der Kern des Content-Plattform-Empfehlungssystems besteht darin, eine Win-Win-Situation für alle Parteien zu erreichen: Die Plattform muss den Benutzern kontinuierlich hochwertige, frische und vielfältige Inhalte empfehlen, um mehr Benutzer anzulocken und mehr Zeit zu investieren ; für die Autorenseite
- KI 710 2024-06-07 15:08:43
-
- Extrahieren Sie Millionen von Funktionen aus Claude 3 und verstehen Sie zum ersten Mal das „Denken' großer Modelle im Detail
- Anthropic hat gerade bekannt gegeben, dass es erhebliche Fortschritte beim Verständnis des Innenlebens von Modellen der künstlichen Intelligenz erzielt hat. Anthropic hat herausgefunden, wie sich Millionen von Konzepten von Eigenfunktionen in ClaudeSonnet darstellen lassen. Dies ist das erste detaillierte Verständnis eines modernen, groß angelegten Sprachmodells in Produktionsqualität. Diese Interpretierbarkeit wird uns helfen, die Sicherheit von Modellen der künstlichen Intelligenz zu verbessern, was ein Meilenstein ist. Forschungspapier: https://transformer-schaltungen.pub/2024/scaling-monosemanticity/index.html Derzeit betrachten wir Modelle der künstlichen Intelligenz normalerweise als eine Black Box: Wenn etwas hineingeht, kommt eine Antwort heraus, aber das ist nicht der Fall klar warum.
- KI 776 2024-06-07 13:37:45
-
- Forscher nutzen maschinelles Lernen, um Experimente mit Hochleistungslasern zu optimieren
- Laser mit hoher Intensität und hoher Wiederholfrequenz können viele Male pro Sekunde in schneller Folge starke Lichtstöße aussenden. Kommerzielle Fusionskraftwerke und fortschrittliche brennstoffbasierte Strahlungsquellen sind auf solche Laser angewiesen. Allerdings reicht die menschliche Reaktionszeit nicht aus, um solche Schnellfeuersysteme zu verwalten, was die Anwendung zu einer Herausforderung macht. Um dieser Herausforderung zu begegnen, suchen Wissenschaftler nach verschiedenen Möglichkeiten, die Leistungsfähigkeit von Automatisierung und künstlicher Intelligenz zu nutzen, die eine Echtzeitüberwachung hochintensiver Vorgänge ermöglichen. Ein Forscherteam des Lawrence Livermore National Laboratory (LLNL), des Fraunhofer-Instituts für Lasertechnik (ILT) und der Aurora Infrastructure (ELIERIC) in den USA führt in der Tschechischen Republik ein Experiment durch, bei dem maschinelles Lernen (ML) zur Optimierung von Hochleistungslasern eingesetzt wird. Ihr Ziel ist es, die Effizienz von Lasern zu steigern, damit sie besser damit zurechtkommen
- KI 739 2024-06-07 13:03:20
-
- Yao Ban übertrifft Devin und führt OpenCSG an, um einen neuen Weltrekord für die Programmierung großer Modelle aufzustellen
- StarShipCodeGenAgent wurde von OpenCSG, einem großen Modell-Startup in China, ins Leben gerufen und hat durch Innovation den zweiten Platz weltweit im WEBench-Ranking (Real Independent Programming Evaluation of Large Models) erreicht. Gleichzeitig wurde ein Höchstrekord (SOTA) basierend auf dem GPT-4o-Modell erstellt. (Anzahl der Wörter: 37) Die SWEBench-Evaluierung kommt realen Programmierszenarien sehr nahe und ist äußerst schwierig. Sie erfordert nicht nur, dass das Modell die Anforderungen versteht und Änderungen zwischen mehreren Funktionen/Klassen koordiniert, sondern auch, dass das Modell mit der Ausführungsumgebung interagiert. Behandeln Sie extrem lange Kontexte und führen Sie komplexe logische Überlegungen für ultratraditionelle Codegenerierungsaufgaben aus. In diesem schwierigen realen Test wurden auch die fortschrittlichsten GPT4 und Devin der Branche eingesetzt
- KI 806 2024-06-07 12:36:29
-
- Yolov10: Ausführliche Erklärung, Bereitstellung und Anwendung an einem Ort!
- 1. Einleitung In den letzten Jahren haben sich YOLOs aufgrund ihres effektiven Gleichgewichts zwischen Rechenkosten und Erkennungsleistung zum vorherrschenden Paradigma im Bereich der Echtzeit-Objekterkennung entwickelt. Forscher haben das Architekturdesign, die Optimierungsziele, Datenerweiterungsstrategien usw. von YOLO untersucht und erhebliche Fortschritte erzielt. Gleichzeitig behindert die Verwendung von Non-Maximum Suppression (NMS) bei der Nachbearbeitung die End-to-End-Bereitstellung von YOLO und wirkt sich negativ auf die Inferenzlatenz aus. In YOLOs fehlt dem Design verschiedener Komponenten eine umfassende und gründliche Prüfung, was zu erheblicher Rechenredundanz führt und die Fähigkeiten des Modells einschränkt. Es bietet eine suboptimale Effizienz und ein relativ großes Potenzial zur Leistungsverbesserung. Ziel dieser Arbeit ist es, die Leistungseffizienzgrenze von YOLO sowohl in der Nachbearbeitung als auch in der Modellarchitektur weiter zu verbessern. zu diesem Zweck
- KI 1238 2024-06-07 12:05:27
-
- Die erste GPU-Hochsprache, massive Parallelität ist wie das Schreiben von Python, hat 8500 Sterne erhalten
- Nach fast 10 Jahren unermüdlicher Bemühungen und intensiver Forschung im Kern der Informatik haben die Menschen endlich einen Traum verwirklicht: die Ausführung von Hochsprachen auf GPUs. Letztes Wochenende löste eine Programmiersprache namens Bend heftige Diskussionen in der Open-Source-Community aus und die Anzahl der Sterne auf GitHub hat 8.500 überschritten. GitHub: https://github.com/HigherOrderCO/Bend Als massiv parallele High-Level-Programmiersprache befindet sie sich noch im Forschungsstadium, aber die vorgeschlagenen Ideen haben die Leute bereits überrascht. Mit Bend können Sie parallelen Code für Multi-Core-CPU/GPU schreiben, ohne ein C/CUDA-Experte mit 10 Jahren Erfahrung sein zu müssen, es fühlt sich an wie Python
- KI 1222 2024-06-07 12:03:58
-
- Stellen Sie Elasticsearch basierend auf dem Speicher bereit – über 100 Millionen Daten, Volltextsuche, 100 ms Antwort
- 1. Mounten Sie das Speicherverzeichnis auf dem Host. Erstellen Sie ein Verzeichnis zum Mounten des tmpfs-Dateisystems mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage , wenn 100G Speicher verwendet wird, werden 100G Speicher belegt. Auf dem Hostknoten gibt es 2T-Speicher, und hier werden 800G-Speicher zum Speichern von Elasticsearch-Daten zugewiesen. Erstellen Sie im Voraus das Verzeichnis mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul
- KI 640 2024-06-07 11:11:48
-
- Karpathys neues Tutorial geht viral und Internetnutzer beeilen sich, ihm H100: GPT-2-Training von Grund auf neu zu erstellen
- Der Meister Karpathy gibt sich nicht mehr mit der Verwendung der C-Sprache zur Erstellung von Lama zufrieden! Die neueste Herausforderung, der er sich stellte: die klassischen Ergebnisse von OpenAI zu reproduzieren, beginnend mit der Basisversion von GPT-2. Der Erfolg der Herausforderung selbst ist nicht unerwartet, aber die Durchführung des Trainings kostete nur 20 US-Dollar und 90 Minuten, und der Verlust und die Bewertung übertrafen die Originalversion um ein Vielfaches! haben! Punkt! Passieren! Punkt! Habe es! . Darüber hinaus schrieb er ein komplettes Tutorial zum Reproduktionsprozess, und tatsächlich wurde es wieder populär. Da Karpathy den A100-Cloud-Service selbst gemietet hat, kostete die Schulung der 124M-Version 20 US-Dollar. Doch jemand befolgte das Tutorial und lief mit H100. Dadurch verkürzte sich nicht nur die Trainingszeit, es sparte auch Geld: Es war in 43 Minuten abgeschlossen und kostete nur 14 US-Dollar. Darüber hinaus zahlte Karpathy auch 2 aus eigener Tasche
- KI 615 2024-06-07 10:29:25
-
- Sieben coole technische Interviewfragen für GenAI und LLM
- Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren
- KI 946 2024-06-07 10:06:29
-
- Stellen Sie große Sprachmodelle lokal in OpenHarmony bereit
- In diesem Artikel werden die Ergebnisse von „Local Deployment of Large Language Models in OpenHarmony“ auf der 2. OpenHarmony-Technologiekonferenz demonstriert. Open-Source-Adresse: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/hap_integrate.md. Die Implementierungsideen und -schritte bestehen darin, das leichtgewichtige LLM-Modellinferenz-Framework InferLLM auf das OpenHarmony-Standardsystem zu übertragen und ein Binärprodukt zu kompilieren, das auf OpenHarmony ausgeführt werden kann. InferLLM ist ein einfaches und effizientes L
- KI 1227 2024-06-07 10:02:23
-
- Intel konzentriert sich auf Innovation und führt eine neue Xeon®-Markenstrategie ein
- Die Marke ist ein Symbol für die Mission und Entwicklung des Unternehmens und trägt auch Produkteigenschaften und Marktbekanntheit. Heute gab Brett Hannath, Global Vice President und Chief Marketing Officer der Intel Corporation, bei der Einführung des energieeffizienten Intel® Xeon® 6-Kernprozessors im Intel GTC Technology Experience Center die Einführung der neuen Marke Intel® Xeon® bekannt . Brett Hannath sagte, dass sich die neue Markenstrategie von Intel® Durch die Integration innovativer Technologien, hoher Leistung, hoher Effizienz, hoher Qualität und hoher Sicherheitsmerkmale schaffen wir ein neues Erlebnis für Industriepartner und Anwender. Seit ihrer Einführung im Jahr 1998 ist die Marke Intel® Xeon® bekannt
- KI 1059 2024-06-07 09:29:48
-
- Hochglänzender reflektierender Abschluss? Google NeRF-Casting: Raytracing kann es!
- NeRF hat keine „Angst“ mehr vor nahezu spiegelnden Reflexionen. Frühe NeRF-Varianten verwendeten mehrschichtige Perzeptrone (MLPs), um 3D-Koordinaten auf volumetrische Dichte und vom Blickwinkel abhängige Farben abzubilden. Die Darstellung detaillierter 3D-Geometrie und Farben erforderte jedoch das Training großer MLPs und die Auswertung extrem langsam. Die jüngste Arbeit konzentrierte sich darauf, NeRF effizienter zu machen, indem große MLPs durch voxelgitterartige Datenstrukturen oder eine Kombination aus Gittern und kleinen MLPs ersetzt wurden. Obwohl es für die Darstellung detaillierter großformatiger Szenen skalierbar ist, beschränken sich seine Vorteile auf die dreidimensionale Geometrie und überwiegend diffuse Farben. Die Erweiterung der Fähigkeit von NeRF, das aussichtsabhängige Erscheinungsbild der Realität zu modellieren, bleibt eine Herausforderung. Das aktuelle fortschrittliche Modell zur Sichtsynthese glänzender Objekte weist in zweierlei Hinsicht Einschränkungen auf: Es kann nur entferntes Umgebungslicht synthetisieren
- KI 1310 2024-06-07 09:27:53
-
- LLM |. Yuan 2.0-M32: Expertenmischungsmodell mit Aufmerksamkeitsrouting
- Bild 1. Die Schlussfolgerung ist oben geschrieben. Yuan+2.0-M32 ist eine Infrastruktur, ähnlich wie Yuan-2.0+2B, die eine Experten-Hybridarchitektur mit 32 Experten verwendet. 2 dieser Experten sind aktiv. Es wird eine Experten-Hybridarchitektur mit 32 Experten vorgeschlagen und übernommen, um Experten effizienter auszuwählen. Im Vergleich zum Modell mit dem klassischen Routing-Netzwerk wird die Genauigkeitsrate um 3,8 % verbessert. Yuan+2.0-M32 wird von Grund auf mit 2000B-Tokens trainiert und sein Trainingsverbrauch beträgt nur 9,25 % des eines dichten Ensemble-Modells mit der gleichen Parametergröße. Um Experten besser auswählen zu können, wird der Aufmerksamkeitsrouter eingeführt, der über die Fähigkeit verfügt, schnell zu erkennen und so eine bessere Auswahl von Experten zu ermöglichen. Yuan2,0-
- KI 706 2024-06-07 09:06:30