aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Sprechen wir über die Kollision zwischen maschinellem Lernen und Personalmanagement?
- Einleitung In den letzten Jahren wurden viele große Durchbrüche im Bereich des maschinellen Lernens erzielt, und auch auf der Technologie der künstlichen Intelligenz basierende Personalmanagement-Dienstleistungsprodukte verfügen über einen riesigen und dynamischen Markt. Immer mehr Unternehmen und Regierungsbehörden denken nach und nach darüber nach, maschinelle Lerntechnologie auf das Personalmanagement anzuwenden, mithilfe neuronaler Netze effektive Entscheidungen zu treffen und die Ergebnisse des Personalmanagements genau vorherzusagen. In diesem Artikel werden vier Aspekte der Anwendung maschinellen Lernens in der Personalmanagementforschung vorgestellt, darunter hauptsächlich technische Schwierigkeiten, eine Einführung in Entscheidungsfindungssysteme im Personalmanagement, Systemdesignmethoden und Systemsicherheit. Wir hoffen, dass die Leser ein vorläufiges Verständnis der damit verbundenen Forschung erhalten . Technische Schwierigkeiten Im Jahr 2019 führten CEOs von 20 großen Unternehmen in den USA entsprechende Seminare durch. Die Ergebnisse zeigten, dass die Anwendung maschineller Lerntechnologie im Personalmanagement
- KI 649 2024-04-26 10:25:07
-
- Docker schließt die lokale Bereitstellung des großen Open-Source-Modells LLama3 in drei Minuten ab
- Übersicht LLaMA-3 (LargeLanguageModelMetaAI3) ist ein groß angelegtes Open-Source-Modell für generative künstliche Intelligenz, das von Meta Company entwickelt wurde. Im Vergleich zur Vorgängergeneration LLaMA-2 gibt es keine wesentlichen Änderungen in der Modellstruktur. Das LLaMA-3-Modell ist in verschiedene Maßstabsversionen unterteilt, darunter kleine, mittlere und große, um unterschiedlichen Anwendungsanforderungen und Rechenressourcen gerecht zu werden. Die Parametergröße kleiner Modelle beträgt 8 B, die Parametergröße mittlerer Modelle beträgt 70 B und die Parametergröße großer Modelle erreicht 400 B. Beim Training besteht das Ziel jedoch darin, multimodale und mehrsprachige Funktionalität zu erreichen, und die Ergebnisse werden voraussichtlich mit GPT4/GPT4V vergleichbar sein. Ollama installierenOllama ist ein Open-Source-Großsprachenmodell (LL
- KI 1482 2024-04-26 10:19:21
-
- Quantifizierung, Beschneidung, Destillation, was genau sagen diese großen Modell-Slangs aus?
- Quantifizierung, Beschneidung, Destillation: Wenn Sie häufig auf große Sprachmodelle achten, werden Sie diese Wörter auf jeden Fall sehen. Es ist für uns schwierig zu verstehen, was sie bewirken, aber diese Wörter sind für die Entwicklung besonders wichtig großer Sprachmodelle in dieser Phase. Dieser Artikel wird Ihnen helfen, sie kennenzulernen und ihre Prinzipien zu verstehen. Modellkomprimierungsquantisierung, -bereinigung und -destillation sind eigentlich allgemeine Modellkomprimierungstechnologien für neuronale Netzwerke und nicht ausschließlich auf große Sprachmodelle anwendbar. Die Bedeutung der Modellkomprimierung: Nach der Komprimierung wird die Modelldatei kleiner, der verwendete Festplattenspeicher wird ebenfalls kleiner, der Cache-Speicherplatz, der beim Laden in den Speicher oder bei der Anzeige verwendet wird, wird ebenfalls kleiner und die Laufgeschwindigkeit des Modells kann ebenfalls kleiner werden verbessert werden. Durch die Komprimierung verbraucht die Verwendung des Modells weniger Rechenressourcen und kann stark skaliert werden
- KI 840 2024-04-26 09:28:18
-
- Innovativer Weg zur Feinabstimmung von LLM: umfassende Interpretation der Innovationskraft und des Anwendungswerts der nativen Bibliothek Torchtune von PyTorch
- Im Bereich der Künstlichen Intelligenz entwickeln sich Large Language Models (LLMs) zunehmend zu einem neuen Hot Spot in Forschung und Anwendung. Die effiziente und genaue Abstimmung dieser Giganten war jedoch schon immer eine große Herausforderung für Industrie und Wissenschaft. Kürzlich veröffentlichte der offizielle Blog von PyTorch einen Artikel über TorchTune, der große Aufmerksamkeit erregte. Als Werkzeug, das sich auf die Optimierung und das Design von LLMs konzentriert, wird TorchTune für seinen wissenschaftlichen Charakter und seine Praktikabilität hoch gelobt. In diesem Artikel werden die Funktionen, Features und die Anwendung von TorchTune beim LLM-Tuning ausführlich vorgestellt, in der Hoffnung, den Lesern ein umfassendes und tiefgehendes Verständnis zu vermitteln. 1. Der Geburtshintergrund und die Bedeutung von TorchTune, die Entwicklung der Deep-Learning-Technologie und des Deep-Learning-Modells (LLM)
- KI 800 2024-04-26 09:20:02
-
- Jiyue schließt sich erneut mit NVIDIA zusammen und die Hochleistungs-Computing-Plattform Thor wird 2026 auf den Markt kommen
- Nach vierjähriger Abwesenheit kehrt die 18. Internationale Automobilausstellung in Peking zurück. Als Pionier im Bereich Intelligenz nutzt Jiyue, eine High-End-Marke für intelligente Autoroboter, das Thema „Jiyue ist intelligenter und schöner“, um zukünftige KI-Technologie zu interpretieren, und tritt erstmals auf der Beijing Auto Show auf. Am 25. April 2024 debütierte Jiyue Auto Robot auf der Beijing Auto Show mit einer neuen Produktpalette. Sein zweites Modell, das KI-intelligente Auto mit reinem Elektroantrieb, feierte auf der Autoshow sein Debüt mit einem original chinesischen Design mit einer starken künstlerischen Ästhetik und gewann den Titel „Der schönste 7er“. Jiyue und NVIDIA haben sich erneut zusammengetan und die 1000TFLOPS-Hochleistungscomputerplattform Thor wird im Jahr 2026 in Massenproduktion hergestellt. Gleichzeitig wird Jiyue 01 auch auf die neueste Version V1.5.0, PPA Smart, aktualisiert
- KI 1166 2024-04-26 08:28:01
-
- Changan Qiyuan E07s „Ein Auto mit mehreren Zuständen' untergräbt traditionelle Vorstellungen. Werden zukünftige Autos Roboter verändern?
- Am 25. April 2024 wurde die Beijing International Auto Show (auch „Beijing Auto Show“ genannt) erfolgreich im China International Exhibition Centre in Peking eröffnet, wobei der Changan Qiyuan E07 sein großes Debüt feierte. Es verfügt über variable Form, variable Funktionen und variable Software. Es ist das weltweit erste in Serie gefertigte variable Neuwagen und ein Meilenstein in der Weiterentwicklung der Intelligenz von Changan Automobile. Aufgrund seines Design-Designs und seiner Software-Architektur ist es auch als „chinesische Version von Cybertruck“ bekannt. Der Changan Qiyuan E07, der diesmal den Verbrauchern entgegenkam, brachte besondere Überraschungsvorteile. Benutzer, die die offizielle exklusive APP – Topspace – herunterladen und registrieren, können 1.000 Yuan an optionalen Ausrüstungsgeldern erhalten. Durch die Teilnahme an der Veranstaltung können sie mindestens 120 Yuan/Tag an optionalen Ausrüstungsgeldern erhalten. Darüber hinaus hat Changan Qiyuan E07 auch eine Aktivität zum frühzeitigen Zugriff auf Rechte und Interessen gestartet, die Benutzer nur benötigen
- KI 729 2024-04-25 21:04:45
-
- Yan Shuicheng übernahm die Verantwortung und etablierte die ultimative Form des „universellen visuellen multimodalen Großmodells'! Einheitliches Verständnis/Generierung/Segmentierung/Bearbeitung
- Kürzlich hat das Team von Professor Yan Shuicheng gemeinsam das universelle visuelle multimodale große Sprachmodell von Vitron auf Pixelebene veröffentlicht und als Open-Source-Lösung bereitgestellt. Projekt-Homepage und Demo: https://vitron-llm.github.io/ Papier-Link: https://is.gd/aGu0VV Open-Source-Code: https://github.com/SkyworkAI/Vitron Dies ist eine Hochleistungsversion Allgemeine Vision Das multimodale große Modell unterstützt eine Reihe visueller Aufgaben vom visuellen Verständnis bis zur visuellen Generierung, von niedriger bis hoher Ebene, löst das Problem der Trennung von Bild- und Videomodellen, das die Industrie für große Sprachmodelle seit langem plagt, und Bietet ein umfassendes einheitliches statisches Bild. Verstehen, Generieren, Segmentieren und Bearbeiten dynamischer Videoinhalte
- KI 963 2024-04-25 20:04:15
-
- Alipay hat in aller Stille einen intelligenten Assistenten auf den Markt gebracht, den wir auch heimlich getestet haben
- Es wurde bekannt, dass Alipay ein neues KI-Produkt auf den Markt gebracht hat! Qubit erfuhr, dass Alipay einen Graustufentest mit einem intelligenten KI-Assistenten durchgeführt hat. Der Zugang zu diesem KI-Produkt befindet sich auf der Haupthomepage von Alipay, ist aber tief versteckt. Wenn Sie das Glück haben, in Graustufen zu arbeiten, sehen Sie die Schaltfläche „Intelligenter Assistent“, wenn Sie auf das Pluszeichen in der oberen rechten Ecke der Homepage klicken. Der intelligente Assistent von Alipay unterscheidet sich jedoch von den gängigen großen Modellen der Konversationskommunikation und der unterstützten Erstellung, sondern ist eher ein serviceorientierter KI-Assistent. Über die Schnittstellenanzeige können Serviceanweisungen wie ärztliche Beratung, Überprüfung der Vorsorgekasse, Kauf von Flugtickets, Suche nach einer Toilette und Filmempfehlungen durchgeführt werden. Darüber hinaus kann es je nach Bedarf auch die entsprechenden Funktionen von Alipay empfehlen oder Miniprogramme direkt anbinden und so als intelligente Navigation innerhalb der App dienen. Nachdem Qubit die Neuigkeit erfahren hatte, klickte es sofort
- KI 1422 2024-04-25 18:25:17
-
- Der multimodale große 8B-Text-Index ähnelt GPT4V. Byte, Huashan und Huake haben gemeinsam TextSquare vorgeschlagen
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, reichen Sie bitte einen Artikel ein oder wenden Sie sich an die Berichts-E-Mail-Adresse. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. In jüngster Zeit haben multimodale große Modelle (MLLM) im Bereich der textzentrierten VQA erhebliche Fortschritte gemacht, insbesondere mehrere Closed-Source-Modelle wie GPT4V und Gemini, die in einigen Aspekten sogar eine Leistung gezeigt haben, die über die menschlichen Fähigkeiten hinausgeht. Allerdings offen
- KI 1235 2024-04-25 18:16:01
-
- Machen Sie sich bereit für künstliche Intelligenz, um die Baubranche zu verändern
- Die neueste selbstfahrende Technologie hat bemerkenswerte Fortschritte gemacht, vom selbstfahrenden System von Autos bis hin zur automatischen Navigation von Flugzeugen und selbstfahrenden Instrumenten – die erste Generation künstlicher Intelligenz ist überall. Diese Werkzeuge haben die Art und Weise, wie wir leben und wie wir mit der Welt und untereinander interagieren, verändert. Erinnern Sie sich an die Welt vor 30 Jahren? Es war eine Welt ohne Internet, ohne E-Mail, ohne soziale Medien, ohne allgegenwärtige Fotografie, ohne Mitfahrgelegenheiten, geschweige denn Straßenbahnen. Die nächste Generation künstlicher Intelligenz, bekannt als künstliche allgemeine Intelligenz (AGI), wird in der Lage sein, ein breites Spektrum an Aufgaben zu verstehen, beispielsweise abstraktes Denken. Es wird in der Lage sein, genau wie Menschen zu urteilen und sich anzupassen. Dies wird die Welt, in der wir leben, wahrscheinlich innerhalb der nächsten 20 bis 30 Jahre völlig verändern. AGI wird in naher Zukunft verfügbar sein
- KI 966 2024-04-25 17:50:01
-
- Beschleunigen Sie das Diffusionsmodell und generieren Sie Bilder auf SOTA-Ebene im schnellsten Schritt. Byte Hyper-SD ist Open Source
- In letzter Zeit hat DiffusionModel erhebliche Fortschritte im Bereich der Bildgenerierung gemacht und beispiellose Entwicklungsmöglichkeiten für Bild- und Videogenerierungsaufgaben eröffnet. Trotz der beeindruckenden Ergebnisse führen die mehrstufigen iterativen Entrauschungseigenschaften, die dem Inferenzprozess von Diffusionsmodellen innewohnen, zu hohen Rechenkosten. Kürzlich wurde eine Reihe von Diffusionsmodell-Destillationsalgorithmen entwickelt, um den Inferenzprozess von Diffusionsmodellen zu beschleunigen. Diese Methoden lassen sich grob in zwei Kategorien einteilen: i) bahnerhaltende Destillation; ii) bahnenerhaltende Destillation. Diese beiden Arten von Methoden werden jedoch durch die begrenzte Effektobergrenze oder Änderungen im Ausgabebereich eingeschränkt. Um diese Probleme zu lösen, schlug das technische Team von ByteDance einen Konsens zur Trajektoriensegmentierung namens Hyper-SD vor.
- KI 1104 2024-04-25 17:25:30
-
- Können Online-Karten noch so sein? MapTracker: Nutzen Sie Tracking, um das neue SOTA von Online-Karten zu realisieren!
- Wie oben geschrieben und nach persönlichem Verständnis des Autors ermöglicht dieser Algorithmus eine hochpräzise Online-Kartenerstellung. Unsere Methode MapTracker sammelt Sensorströme in Speicherpuffern für zwei Anzeigen: 1) Rasterlatenten im BEV-Raum (Bird's Eye View) und 2) Vektorlatenten auf Straßenelementen (d. h. Zebrastreifen, Fahrspurlinien und Straßengrenzen). Die Methode stützt sich auf das Abfrageausbreitungsparadigma bei der Objektverfolgung, das die verfolgten Straßenelemente des vorherigen Frames explizit mit dem aktuellen Frame verknüpft und gleichzeitig eine Teilmenge von Speicherlatenzen mit Distanzschritten zum Open-Source-Link zusammenführt: https://map-tracker .github.io/ Zusammenfassend sind die Hauptbeiträge dieses Artikels wie folgt: Ein neuer
- KI 1095 2024-04-25 17:01:17
-
- Mit nur 1/17 der Schulungskosten von Llama3, Snowflake Open-Source-128x3B-MoE-Modell
- Snowflake schließt sich dem LLM-Kampf an. Snowflake veröffentlicht Arctic, ein Modell mit hoher „Enterprise Intelligence“, das sich auf interne Unternehmensanwendungen konzentriert. Gerade erst gab der Datenmanagement- und Warehouse-Anbieter Snowflake bekannt, dass er sich dem LLM-Melee angeschlossen hat und SnowflakeArctic veröffentlicht hat, ein Top-Level-Large-Language-Modell (LLM), das sich auf Anwendungen auf Unternehmensebene konzentriert. Als LLM, das von einem Cloud-Computing-Unternehmen ins Leben gerufen wurde, bietet Arctic vor allem die folgenden zwei Vorteile: Effiziente Intelligenz: Arctic schneidet bei Unternehmensaufgaben wie SQL-Generierung, Programmierung und Befehlsfolge gut ab und kann sogar mit Open-Source-Schulungen mit höherem Einsatz konkurrieren Rechenkosten vergleichbar. Arctic bietet kostengünstige Trainingsausrüstung
- KI 675 2024-04-25 16:10:09
-
- Fangbao brachte seine Produkte auf die Beijing International Auto Show und brachte eine neue Version des Leopard 5 auf den Markt
- Am 25. April 2024 präsentierte Fangbao Automobile auf der Beijing Auto Show seine Produktfamilie und konzentrierte sich dabei auf die professionelle und personalisierte Marke BYD und seine neuen Lösungen für Produktformen und Benutzerleben im Automobilbereich. Gleichzeitig fand am Fangmao Leopard-Stand die Pressekonferenz zum Thema „Evolutionary New Realm“ statt. Die offizielle Ankündigung: Um den vielfältigen Autobesitzbedürfnissen von mehr Benutzern gerecht zu werden, hat Leopard 5 die Yunnan Deluxe Edition basierend auf der Originalversion hinzugefügt ; Auch die Erfahrung alter Autobesitzer wird sich weiterentwickeln, das Reisen wird angenehmer. Das „2+X“-Produktsystem wurde erstmals zusammengestellt und Leopard 8 hat einen neuen Maßstab für Hardcore-Flaggschiffe gesetzt. Am 16. April veröffentlichte Fangbao Motors offiziell seine Produktmatrix Leopard 5, das Hardcore-Flaggschiff SUPER3 , und SUPER9 feierten ebenfalls ihr Autoshow-Debüt. Basierend auf dem Designsystem und -konzept „Vientiane Universe“ bietet Fang
- KI 1102 2024-04-25 16:07:24
-
- Honda e:NP2 Ji Pai 2 ist offiziell im Angebot, Hunter e:NS2 hat seinen Vorverkaufspreis bekannt gegeben und mehrere Modelle der Marke „Ye' wurden auf der Beijing Auto Show vorgestellt
- Am 25. April 2024 wurde die 18. Internationale Automobilausstellung in Peking offiziell eröffnet. GAC Honda und Dongfeng Honda präsentierten ihre neuesten Errungenschaften im Bereich Elektrifizierung und Intelligenz am Stand W103 in Halle W1 des China International Exhibition Center (Shunyi Hall). Auf dieser Beijing Auto Show stellte Honda den Honda e:N vor, das zweite Modell der Marke. GAC Honda stellte den e:NP2 Extremely Wet 2 vor und Dongfeng Honda stellte den Hunting Light e:NS2 vor. Unter anderem ist e:NP2 Extremely Wet 2 heute offiziell im Angebot, und Hunter Light e:NS2 hat den Vorverkaufspreis und die Berechtigungen bekannt gegeben. Der Vorverkauf beginnt offiziell am 1. Mai und soll im Juni starten. Darüber hinaus basiert die Marke „Ye“ auf der neuen intelligenten und effizienten rein elektrischen „W“-Architektur (ArchitectureW).
- KI 765 2024-04-25 16:01:09