aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Wie Natural Language Processing (NLP) funktioniert
- Dieser Artikel hat bereits das Geheimnis des Sprachmodells gelüftet und seine grundlegenden Konzepte und Mechanismen zur Verarbeitung von Rohtextdaten geklärt. Es deckt verschiedene Arten von Sprachmodellen und großen Sprachmodellen ab und konzentriert sich auf Modelle, die auf neuronalen Netzwerken basieren. Sprachmodelldefinition Sprachmodelle konzentrieren sich auf die Fähigkeit, menschenähnlichen Text zu generieren. Ein allgemeines Sprachmodell ist im Wesentlichen ein statistisches Modell oder eine Wahrscheinlichkeitsverteilung von Wortfolgen, die die Wahrscheinlichkeit erklärt, mit der ein Wort in jeder Wortfolge vorkommt. Dies hilft dabei, das nächste Wort oder die nächsten Wörter basierend auf dem vorherigen Wort im Satz vorherzusagen. Vereinfachte probabilistische Sprachmodelle können in einer Vielzahl von Anwendungen wie maschineller Übersetzung, automatischer Fehlerkorrektur, Spracherkennung und automatischer Vervollständigung verwendet werden, um den Benutzern die folgenden Wörter einzugeben oder mögliche Wortfolgen vorzuschlagen. Dieser Modelltyp hat sich zu fortschrittlicheren Modellen weiterentwickelt, einschließlich Konvertermodellen
- KI 846 2024-04-24 16:31:27
-
- CVPR 2024 |. LiDAR-Diffusionsmodell für die fotorealistische Szenengenerierung
- Originaltitel: TowardsRealisticSceneGenerationwithLiDARDiffusionModels Papier-Link: https://hancyran.github.io/assets/paper/lidar_diffusion.pdf Code-Link: https://lidar-diffusion.github.io Autorenzugehörigkeit: CMU Toyota Research Institute University of Southern California Paper Ideen: Diffusionsmodelle (DMs) zeichnen sich durch fotorealistische Bildsynthese aus, ihre Anpassung an die Lidar-Szenengenerierung stellt jedoch erhebliche Herausforderungen dar. Dies liegt hauptsächlich daran, dass DMs, die im Punktraum arbeiten, Schwierigkeiten haben
- KI 927 2024-04-24 16:28:01
-
- Der GenAI-Investitionsboom treibt die IT-Ausgaben voran, aber die Rendite bleibt fraglich
- Laut dem Forschungsunternehmen Gartner werden die weltweiten IT-Ausgaben im Jahr 2024 aufgrund des Wettbewerbs um Investitionen in KI und der Einführung des Austauschzyklus für IT-Geräte um 8 % steigen. Laut John-David Lovelock, Vizepräsident und Analyst bei Gartner, wächst das Interesse der Menschen an künstlicher Intelligenz seit letztem Jahr. Dies wird in diesem Jahr zu einem Anstieg der IT-Ausgaben für Rechenzentren um 10 % führen, sodass sich die gesamten IT-Ausgaben weltweit auf 506 Millionen US-Dollar belaufen. Er sagte: „Im Jahr 2023 werden viele Unternehmen nicht wissen, dass ihr Geschäft, ihre Produkte und ihr Kundenerlebnis durch die Einführung von GenAI besser werden. Und es gibt viele sehr interessante Geschichten über die Leistungsfähigkeit von GenAI, warnte er begeisterte CIOs.“ In KI investieren
- KI 693 2024-04-24 16:22:01
-
- Herausforderung, den verliebten „Hundelecker' zu retten, das große Model und ich haben unser Bestes gegeben
- Ein Macho stieg vom Himmel herab und das große Model verwandelte sich in einen „verliebten Mann“, der auf die Rettung menschlicher Spieler wartete. Ein großes natives Minispiel namens „Save the Licking Dog“ ist erschienen. Die Spielregeln sind einfach: Wenn der Spieler „ihn“ innerhalb weniger Dialogrunden davon überzeugt, die Verfolgung einer Göttin aufzugeben, die kein Interesse an ihm hat, gilt die Herausforderung als erfolgreich. Es klingt nicht schwierig, aber das Spiel kommt aus dem Leben, und die Model-Charaktere sind verliebt, ziemlich unkompliziert und selbstgesteuert. Während der „Überredungsarbeit“, die fast eine Stunde dauerte, lösten sich die großen Model-„Freunde“ gelegentlich , aber die Einstellung zum Durchhalten ist sehr realistisch. Tatsächlicher Kampf um die Rettung des verliebten „Hundeleckers“
- KI 497 2024-04-24 15:55:28
-
- Der Preis beginnt bei 165.800, und zusätzliche Ausrüstung wird den Preis nicht erhöhen. Der Haval Raptor 2024 kommt.
- Am 23. April 2024 feierte der Haval Raptor 2024 sein Debüt mit einer einzigartigen „Micro-Variety-Show“-Liveübertragung. Für Neuwagen mit Zusatzausstattung gibt es keine Preiserhöhung und der Preis liegt zwischen 165.800 Yuan und 192.800 Yuan. Der 2024 Haval Raptor Hi4102Pro und Hi4145Pro sind serienmäßig mit sechs High-Sensing-Konfigurationen ausgestattet, darunter 255/60-Reifen, 19-Zoll-Räder und ein elektronisches Non-Stop-Mautsystem usw. Die zusätzliche Ausstattung ist 3.000 Yuan wert; Auf Basis des Hi4145Pro aufgerüstet. Es gibt neun Ultra-High-Sensing-Konfigurationen wie Achsdifferenzialsperre und Head-up-Display, und die Zusatzausstattung ist 20.000 Yuan wert. Der Haval Raptor 2024 erreicht „technologische Gleichheit“ mit erschwinglichen Preisen und wird zur ersten Wahl für neue, energiereiche Full-Szenario-SUVs mit quadratischem Kasten. Von nun an bis
- KI 1288 2024-04-24 15:28:23
-
- Wie sich künstliche Intelligenz auf Cyberangriffe und Sicherheit auswirken wird
- Im Bereich der Cybersicherheit ist die Integration künstlicher Intelligenz ein entscheidender Faktor, da sie die Fähigkeit verbessert, Bedrohungen schnell und effektiv zu erkennen und darauf zu reagieren. Die Rolle der KI reicht von der Automatisierung komplexer Prozesse bis hin zur Identifizierung von Mustern in Daten, die auf potenzielle Sicherheitsverletzungen hinweisen können. Die Bedeutung der Cybersicherheit für die KI-Integration kann nicht hoch genug eingeschätzt werden. Da KI-Systeme zunehmend in den Geschäftsbetrieb integriert werden, ist es von entscheidender Bedeutung, diese Systeme zu schützen, um den potenziellen Verlust sensibler Informationen oder böswillige Angriffe zu verhindern, die den Betrieb stören. Ein entscheidender Schritt besteht zunächst darin, die Architektur und Infrastruktur des KI-Systems zu sichern. Dazu gehört die Sicherung von Netzwerken und Servern, um unbefugten Zugriff und Angriffe zu verhindern. Ergreifen Sie geeignete Sicherheitsmaßnahmen, wie z. B. den Einsatz von Firewalls, Verschlüsselungs- und Zugangskontrolltechnologien, um dies zu erhöhen
- KI 754 2024-04-24 15:13:11
-
- Drei Geheimnisse für die Bereitstellung großer Modelle in der Cloud
- Zusammenstellung|Produziert von Ich fange an, serverloses Cloud Computing zu vermissen. Ihre Anwendungen reichen von der Verbesserung der Konversations-KI bis hin zur Bereitstellung komplexer Analyselösungen für verschiedene Branchen und vielen anderen Funktionen. Viele Unternehmen setzen diese Modelle auf Cloud-Plattformen ein, da öffentliche Cloud-Anbieter bereits ein fertiges Ökosystem bereitstellen und dies der Weg des geringsten Widerstands ist. Allerdings ist es nicht billig. Die Cloud bietet darüber hinaus weitere Vorteile wie Skalierbarkeit, Effizienz und erweiterte Rechenfunktionen (GPUs auf Anfrage verfügbar). Es gibt einige wenig bekannte Aspekte der Bereitstellung von LLM auf öffentlichen Cloud-Plattformen
- KI 861 2024-04-24 15:00:02
-
- Meta-Datenbrillen nutzen multimodales Llama 3! Es kommen Möglichkeiten für heimische AR-Brillen
- Die AR-Black-Technologie in Science-Fiction-Blockbustern ist tatsächlich Wirklichkeit geworden! Metas eigene Ray-Ban-Smart-Brille hat gerade damit begonnen, die multimodale Version von Llama3 zu unterstützen! Sie wissen, dass die Open-Source-Version von Llama3 noch keine Multimodalität unterstützt. Kürzlich gab Xiao Zha in der Diskussion auch zu, dass das Open-Source-Modell 10 Milliarden US-Dollar wert sei. Wenn es jedoch um die Produktseite geht, ist das eine andere Geschichte. Hey, ist das Produkt nicht da? Setzen Sie diese Datenbrille auf und wenn Sie sich beim Reisen und Autofahren langweilen, können Sie Meta bitten, etwas Musik abzuspielen. Durch das Tragen einer AR-Brille können auch unbekannte Sprachen direkt übersetzt werden. Oder wenn Sie unterwegs keine Zeit haben, kann Meta Sprachnachrichten an Freunde senden. Gehen Sie zu einem Gebäude und rufen Sie Meta an, um weitere Informationen darüber zu erhalten. sogar,
- KI 616 2024-04-24 14:50:14
-
- CVPR 2024 |. Ein allgemeines Bildfusionsmodell basierend auf MoE, das 2,8 % Parameter hinzufügt, um mehrere Aufgaben zu erledigen
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Papier-Link: https://arxiv.org/abs/2403.12494 Code-Link: https://github.com/YangSun22/TC-MoA Papiertitel: Task-
- KI 728 2024-04-24 14:28:12
-
- Microsoft veröffentlicht Phi-3, das eine bessere Leistung als Llama-3 bietet und auf Mobiltelefonen ausgeführt werden kann
- Bei der Verbesserung der Fähigkeiten großer Modelle stehen Daten im Mittelpunkt. Nicht lange nach der Veröffentlichung von Llama-3 kamen Konkurrenten, und zwar kleine Modelle, die auf Mobiltelefonen laufen konnten. Am Dienstag veröffentlichte Microsoft sein selbst entwickeltes Kleinmodell Phi-3. Das neue Modell verfügt über drei Versionen, darunter Phi-3mini, ein Sprachmodell mit 3,8 Milliarden Parametern. Nach dem Training mit 3,3 Billionen Token hat seine Gesamtleistung bei akademischen Benchmarks und internen Tests hervorragende Ergebnisse erzielt. Obwohl Phi-3mini für den Einsatz auf Mobiltelefonen optimiert ist, ist seine Leistung mit Modellen wie Mixtral8x7B und GPT-3.5 vergleichbar. Microsoft sagte, die Innovation liege vor allem in den für das Training verwendeten Datensätzen. Mittlerweile nutzt Phi-3 dasselbe
- KI 1178 2024-04-24 13:55:25
-
- Vier neue Trends im Supply Chain Management
- Mit dem Aufkommen moderner Technologie und Innovation unterliegen die globalen Lieferketten einem Wandel. Sie werden immer komplexer, daher besteht die Notwendigkeit, die Leistungsfähigkeit dieser Technologien zu nutzen, um sie effektiv zu verwalten. In diesem Artikel werden einige der wichtigsten aufkommenden Trends im Supply Chain Management beleuchtet, die die Gesamteffizienz von Software steigern werden. Bevor wir beginnen, sollten wir uns darüber im Klaren sein, was Supply-Chain-Software ist. Was ist Supply-Chain-Software oder Supply-Chain-Management-Software? Die Software bietet je nach Unternehmen einige Anpassungsmöglichkeiten, bietet aber grundsätzlich Funktionen zur Verwaltung der Kernprozesse der Lieferkette, wie Beschaffung, Bestandsverwaltung, Logistik, Auftragsabwicklung und Bedarfsprognose. Diese Lösungen nutzen Cloud Computing, Big Data Analytics und künstliche Intelligenz (KI).
- KI 447 2024-04-24 12:46:10
-
- Huawei Cloud bietet sofort einsatzbereite Rechenleistung für das Training und die Inferenz großer Modelle in Hongkong
- Huawei Cloud veranstaltete am 23. April erfolgreich den Huawei Cloud Summit und stellte in Hongkong gebrauchsfertige KI-Cloud-Dienste bereit, um effiziente, langfristige und zuverlässige KI-Rechenleistung für das Training und die Inferenz großer Modelle bereitzustellen. Huawei Cloud gab an, dass seine Infrastruktur die effiziente Migration, Entwicklung und den effizienten Betrieb großer Modelle über eine vollständig verknüpfte Cloud-Toolkette unterstützen und einen großen Modellbereich bereitstellen wird, der speziell für Ascend Cloud optimiert wurde, um die schnelle Anwendung von „Hunderten von Modellen und Modellen“ zu ermöglichen Tausende von Staaten“ Gelandet. Shi Jilin, Präsident von Huawei Cloud Global Marketing and Sales Services, war bei der Veranstaltung anwesend. Shi Jilin, Präsident von Huawei Cloud Global Marketing and Sales Services, sagte: „Hongkong verfügt über eine gute Grundlage für die Entwicklung der KI-Industrie, mit erstklassigen Universitätsressourcen und wissenschaftlichen Forschungseinrichtungen sowie einem offenen Wirtschaftssystem und.“ ein internationales Geschäftsumfeld, das Top-Leute aus der ganzen Welt anzieht.
- KI 492 2024-04-24 08:00:23
-
- Hao Mo Zhixing erhielt 300 Millionen Yuan in einer B2-Finanzierungsrunde von Jiuzhi Capital und Huzhou Changxing und ist damit weiterhin führend in der Massenproduktion autonomen Fahrens in China
- Am 23. April gab Haomo Zhixing bekannt, dass es weitere 300 Millionen Yuan im Rahmen einer Serie-B2-Finanzierung erhalten habe. Die B2-Finanzierungsrunde von Haimo wurde vom Altaktionär des Unternehmens, Jiuzhi Capital, und Huzhou Changxing gemeinsam investiert, um einen Industrieinvestitionsfonds einzurichten. Dieser soll dazu dienen, die Forschungs- und Entwicklungsinvestitionen von Haimo im autonomen Fahren weiter zu stärken, die Kernwettbewerbsfähigkeit des Unternehmens zu stärken und die von Haimo zu festigen Position als Chinas führendes Unternehmen für massenproduziertes autonomes Fahren. Zhu Wei, Sekretär des Parteikomitees des Kreises Changxing in Huzhou, sagte, dass Changxing durch die Bemühungen der letzten Jahre einen hochwertigen Cluster der Automobilindustrie gebildet habe, der von der Fahrzeugherstellung angeführt werde, und dass Intelligenz eine wichtige Entwicklungsrichtung der Automobilindustrie sei und die wichtigste sei Schlachtfeld für den Branchenwettbewerb. Die Umsetzung des intelligenten Fahrprojekts am Ende dieser Zeit wird ein wichtiges Glied zur Changxing Automobile-Industriekette hinzufügen und den Intelligenzindex der Changxing Automobile-Industriekette erheblich verbessern. „Han Hualong, Vorsitzender von Jiuzhi Capital, sagte, dass intelligente Autos unser seien
- KI 907 2024-04-23 21:37:10
-
- Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen
- Letzte Woche hat Microsoft WizardLM-2, ein Open-Source-Modell namens GPT-4 Level, aus der Luft abgeworfen. Aber ich hatte nicht damit gerechnet, dass es ein paar Stunden nach der Veröffentlichung sofort gelöscht würde. Einige Internetnutzer stellten plötzlich fest, dass die Modellgewichte und Ankündigungsbeiträge von WizardLM alle gelöscht worden waren und sich nicht mehr in der Microsoft-Sammlung befanden. Abgesehen von der Erwähnung der Website konnten keine Beweise dafür gefunden werden, dass es sich um ein offizielles Microsoft-Projekt handelte. Die GitHub-Projekthomepage ist zu einem 404-Fehler geworden. Projektadresse: https://wizardlm.github.io/ Einschließlich des Gewichts des Modells auf HF sind alle verschwunden ... Das gesamte Netzwerk ist voller Verwirrung. Warum ist WizardLM verschwunden? Der Grund dafür war jedoch, dass Microsoft vergessen hatte, das Modell zu „testen“. Später, Mikro
- KI 1195 2024-04-23 17:22:11
-
- Nach 750.000 Runden Einzelkampf zwischen großen Modellen gewann GPT-4 die Meisterschaft und Llama 3 belegte den fünften Platz
- Zu Llama3 wurden neue Testergebnisse veröffentlicht – die große Modellbewertungs-Community LMSYS veröffentlichte eine große Modell-Rangliste, die Llama3 auf dem fünften Platz belegte und mit GPT-4 den ersten Platz in der englischen Kategorie belegte. Das Bild unterscheidet sich von anderen Benchmarks. Diese Liste basiert auf Einzelkämpfen zwischen Modellen, und die Bewerter aus dem gesamten Netzwerk machen ihre eigenen Vorschläge und Bewertungen. Am Ende belegte Llama3 den fünften Platz auf der Liste, gefolgt von drei verschiedenen Versionen von GPT-4 und Claude3 Super Cup Opus. In der englischen Einzelliste überholte Llama3 Claude und punktgleich mit GPT-4. Über dieses Ergebnis war Metas Chefwissenschaftler LeCun sehr erfreut und leitete den Tweet weiter
- KI 856 2024-04-23 15:28:01