aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- In diesem Artikel erfahren Sie mehr über SHAP: Modellerklärung für maschinelles Lernen
- In den Bereichen maschinelles Lernen und Datenwissenschaft stand die Interpretierbarkeit von Modellen schon immer im Fokus von Forschern und Praktikern. Mit der weit verbreiteten Anwendung komplexer Modelle wie Deep Learning und Ensemble-Methoden ist das Verständnis des Entscheidungsprozesses des Modells besonders wichtig geworden. Explainable AI|XAI trägt dazu bei, Vertrauen in maschinelle Lernmodelle aufzubauen, indem es die Transparenz des Modells erhöht. Eine Verbesserung der Modelltransparenz kann durch Methoden wie den weit verbreiteten Einsatz mehrerer komplexer Modelle sowie der Entscheidungsprozesse zur Erläuterung der Modelle erreicht werden. Zu diesen Methoden gehören die Analyse der Merkmalsbedeutung, die Schätzung des Modellvorhersageintervalls, lokale Interpretierbarkeitsalgorithmen usw. Die Merkmalswichtigkeitsanalyse kann den Entscheidungsprozess des Modells erklären, indem sie den Grad des Einflusses des Modells auf die Eingabemerkmale bewertet. Schätzung des Modellvorhersageintervalls
- KI 792 2024-06-01 10:58:13
-
- Auf der CCIG2024 löst die Dokumentenanalysetechnologie von Hehe Information das „Hungerproblem' großer Modellkorpusse
- Im Jahr 2024 wird die China Image and Graphics Conference feierlich in der alten Hauptstadt Xi'an eröffnet. Diese Konferenz wurde von der Chinese Image and Graphics Society ausgerichtet und von der Air Force Medical University, der Xi'an Jiaotong University und der Northwestern Polytechnical University ausgerichtet. In mehr als 20 Foren und mehr als 100 Erfolgen lag der Schwerpunkt auf der Darstellung künstlicher Intelligenz in der Produktion. große Modelle und maschinelles Lernen, gehirninspiriertes Rechnen und andere Bereiche der Bildgrafik. Die Großmodelltechnologie wird in großem Umfang mit technologischen Innovationen eingesetzt, um den Bildverarbeitungsanforderungen vieler Branchen gerecht zu werden. Während der Konferenz veranstalteten das CSIG-Sonderkomitee für Dokumentbildanalyse und -erkennung und Shanghai Hehe Information Technology Co., Ltd. (bezeichnet als „Hehe Xinheng“) gemeinsam mit Vertretern aus dem Süden das Forum „Großmodelltechnologie und ihre Grenzanwendungen“. China University of Technology und Shanghai Jiao Tong University, Tsinghua University, Fudan University, Shanghai Artificial Intelligence Research Institute
- KI 811 2024-05-31 22:28:49
-
- Der Tencent Cloud AI Code Assistant ist vollständig für die Öffentlichkeit zugänglich
- Am 22. Mai gab Tencent Cloud offiziell bekannt, dass sein KI-Code-Assistent vollständig für die Öffentlichkeit zugänglich ist. Derzeit können Entwickler, Entwicklungsteams und Unternehmenskunden ihn online über die offizielle Website von Tencent Cloud erleben. Tencent Cloud AI Code Assistant ist ein digitales Tool zur Vervollständigung und Generierung intelligenter Positionierungscodes. Es basiert auf dem gemischten Codemodell von Tencent und kann Entwicklern, Entwicklungsteams und Unternehmenskunden sichere, konforme und hochviskose AIGC-Dienste für Erlebniscodierungsszenarien bieten. Mit Funktionen wie Agent-Code-Vervollständigung, technischem Dialog, Code-Diagnose, Unit-Tests usw. unterstützt es zehn Programmiersprachen oder Frameworks wie Python, Java, C/C++ und Go und lässt sich in gängige integrierte Entwicklungsumgebungen integrieren. In Bezug auf die Code-Vervollständigung kann der AI-Code-Assistent eine gute automatische Vervollständigung basierend auf dem Verständnis und Kontext mehrerer Dateien bieten.
- KI 957 2024-05-31 20:08:24
-
- Ist Flash Attention stabil? Meta und Harvard stellten fest, dass die Gewichtsabweichungen ihrer Modelle um Größenordnungen schwankten
- MetaFAIR hat sich mit Harvard zusammengetan, um einen neuen Forschungsrahmen zur Optimierung der Datenverzerrung bereitzustellen, die bei der Durchführung groß angelegten maschinellen Lernens entsteht. Es ist bekannt, dass das Training großer Sprachmodelle oft Monate dauert und Hunderte oder sogar Tausende von GPUs verwendet. Am Beispiel des Modells LLaMA270B erfordert das Training insgesamt 1.720.320 GPU-Stunden. Das Training großer Modelle stellt aufgrund des Umfangs und der Komplexität dieser Arbeitsbelastungen einzigartige systemische Herausforderungen dar. In letzter Zeit haben viele Institutionen über Instabilität im Trainingsprozess beim Training generativer SOTA-KI-Modelle berichtet. Diese treten normalerweise in Form von Verlustspitzen auf. Beim PaLM-Modell von Google kam es beispielsweise während des Trainingsprozesses zu Instabilitäten. Numerische Voreingenommenheit ist die Hauptursache für diese Trainingsungenauigkeit.
- KI 707 2024-05-30 13:24:53
-
- Ein Artikel führt Sie durch Datenmodelle: konzeptionelles Modell, logisches Modell und physisches Modell
- Datenmodelle sind der Eckpfeiler des organisatorischen Datenmanagements und eine Schlüsselkomponente beim Aufbau einer Informationsinfrastruktur. Datenmodelle bieten Organisationen eine klare Datenstruktur und einen logischen Rahmen und machen das Datenmanagement effizienter und nachhaltiger. Im digitalen Zeitalter sind Daten zu einem der wertvollsten Vermögenswerte eines Unternehmens geworden, und der Entwurf und die Implementierung von Datenmodellen bestimmen die Wirksamkeit und Glaubwürdigkeit von Daten im Unternehmensbetrieb und bei der Entscheidungsfindung. Ein gutes Datenmodell kann nicht nur komplexe Datenlandschaften vereinfachen und die Datenqualität und -konsistenz verbessern, sondern auch die Datenbankleistung optimieren und die Datenanalyse und Entscheidungsfindung unterstützen. Daher besteht die Bedeutung von Datenmodellen darin, Unternehmen datengesteuerte Entscheidungsunterstützung zu bieten und Geschäftsinnovationen und die Verbesserung der Wettbewerbsfähigkeit zu fördern. Bietet datengesteuerte Entscheidungsunterstützung für Unternehmen und fördert
- KI 830 2024-05-30 12:00:35
-
- Der Turing-Riese erschien beim ICLR und war auf dem Gipfel ganz verrückt nach den Stars LeCun und Bengio! Drei große Technologietrends chinesischer Teams beflügeln neue Vorstellungen von AGI
- In den vergangenen Tagen fand in Wien die große Konferenz der AI – ICLR statt. OpenAI, Meta, Google, Zhipu AI und andere weltweit führende KI-Technologieunternehmen kamen zusammen. Berühmtheiten versammelten sich am Veranstaltungsort, die Sterne strahlten, und man konnte nur ein paar Schritte gehen und einem Prominenten begegnen, der eine subversive Zeitung veröffentlicht hatte. Es überrascht nicht, dass die ICLR2024-Ausstellungshalle auch zu einer Szene auf der Jagd nach Stars wurde. Die lebhafte Atmosphäre sprengte fast das Dach weg. LeCun, der berühmte „E-Mensch“ unter den Turing Big Three, der bei der Veranstaltung ein Star auf der Jagd nach Turing-Giganten war, gab seine Reiseroute großzügig im Voraus auf X bekannt und wartete voller Vorfreude darauf, die Fans zu treffen. Im Kommentarbereich freuten sich die Fans nicht nur darauf, einzuchecken, sondern einige waren sogar bereit, sofort ihren Lebenslauf einzureichen. Die Reise der Fans hat sich tatsächlich gelohnt. Vor Ort erklärte LeCun eloquent und das Publikum schaute begeistert zu.
- KI 616 2024-05-30 11:17:17
-
- Multimodale KI ist die Zukunft der Medizin. Google bringt drei neue Modelle auf den Markt und Med-Gemini begrüßt ein großes Upgrade
- Herausgeber |. Kohlblatt Viele klinische Aufgaben erfordern das Verständnis spezieller Daten, wie z. B. medizinische Bilder, Genomik usw. Diese Art von Fachwissensinformationen gibt es normalerweise nicht beim Training allgemeiner multimodaler Großmodelle ... Wie im vorherigen Artikel beschrieben, hat Med-Gemini die Modelle der GPT-4-Serie bei verschiedenen medizinischen Bildgebungsaufgaben übertroffen, um SOTA zu erreichen! Hier hat GoogleDeepMind einen zweiten Artikel über Med-Gemini verfasst. Aufbauend auf dem multimodalen Modell von Gemini entwickelte das Team mehrere Modelle für die Med-Gemini-Serie. Diese Modelle erben die Kernfunktionalität von Gemini und sind für 2D- und 3D-Radiologie-, Histopathologie-, Ophthalmologie-, Dermatologie- und Genomdaten optimiert.
- KI 1194 2024-05-30 10:13:19
-
- Vier empfohlene KI-gestützte Programmiertools (unterstützt die C#-Sprache)
- Vorwort In dieser Phase der rasanten Entwicklung der KI ist eine große Anzahl nützlicher KI-gestützter Programmierwerkzeuge entstanden. KI-gestützte Programmiertools können die Entwicklungseffizienz verbessern, die Codequalität verbessern und Fehlerraten reduzieren. Sie sind wichtige Helfer im modernen Softwareentwicklungsprozess. Heute wird Dayao Ihnen 4 KI-gestützte Programmiertools vorstellen (und alle unterstützen die C#-Sprache). Bild des KI-unterstützten Programmiertools GitHubCopilotGitHubCopilot ist ein KI-Codierungsassistent, der Ihnen helfen kann, Code schneller und mit weniger Aufwand zu schreiben, sodass Sie sich mehr auf Problemlösung und Zusammenarbeit konzentrieren können. GitHubCopilot bietet beim Codieren Vorschläge: manchmal Vervollständigungen für die aktuelle Zeile, manchmal völlig neue Codeblöcke. Kann
- KI 652 2024-05-30 10:03:11
-
- Mehrere Entwurfsmuster, die hervorragende Agenten lernen müssen, können Sie auf einmal erlernen
- Hallo zusammen, ich bin Laodu. Gestern habe ich mir die KI-Krankenhausstadt angehört, die das Intelligent Industry Research Institute der Tsinghua University im Unternehmen teilt. Bild: Dies ist eine virtuelle Welt. Alle Ärzte, Krankenschwestern und Patienten sind von LLM gesteuerte Agenten und können unabhängig voneinander interagieren. Sie simulierten den gesamten Diagnose- und Behandlungsprozess und erreichten eine hochmoderne Genauigkeit von 93,06 % bei einem Teilsatz des MedQA-Datensatzes, der schwere Atemwegserkrankungen abdeckt. Ein ausgezeichneter intelligenter Agent ist untrennbar mit hervorragenden Entwurfsmustern verbunden. Nachdem ich diesen Fall gelesen hatte, las ich schnell die vier wichtigsten Agent-Designmuster, die kürzlich von Herrn Andrew Ng veröffentlicht wurden. Andrew Ng ist einer der maßgeblichsten Wissenschaftler der Welt auf dem Gebiet der künstlichen Intelligenz und des maschinellen Lernens. Dann habe ich es schnell zusammengestellt und mit allen geteilt. Modus 1. Reflexion
- KI 816 2024-05-30 09:44:20
-
- Jenseits von ORB-SLAM3! SL-SLAM: Szenen mit wenig Licht, starkem Jitter und schwacher Textur werden verarbeitet
- Heute diskutieren wir darüber, wie Deep-Learning-Technologie die Leistung von visionbasiertem SLAM (Simultaneous Localization and Mapping) in komplexen Umgebungen verbessern kann. Durch die Kombination von Methoden zur Tiefenmerkmalsextraktion und Tiefenanpassung stellen wir hier ein vielseitiges hybrides visuelles SLAM-System vor, das die Anpassung in anspruchsvollen Szenarien wie schlechten Lichtverhältnissen, dynamischer Beleuchtung, schwach strukturierten Bereichen und starkem Jitter verbessern soll. Unser System unterstützt mehrere Modi, einschließlich erweiterter Monokular-, Stereo-, Monokular-Trägheits- und Stereo-Trägheitskonfigurationen. Darüber hinaus wird analysiert, wie visuelles SLAM mit Deep-Learning-Methoden kombiniert werden kann, um andere Forschungen zu inspirieren. Durch umfangreiche Experimente mit öffentlichen Datensätzen und selbst abgetasteten Daten demonstrieren wir die Überlegenheit von SL-SLAM in Bezug auf Positionierungsgenauigkeit und Tracking-Robustheit.
- KI 607 2024-05-30 09:35:24
-
- Die detaillierteste 3D-Karte des menschlichen Gehirns ist in Science veröffentlicht! GPT-4-Parameter entsprechen nur 0,2 % des Menschen
- Menschliches Gehirngewebe von der Größe eines Sesamsamens hat eine Synapsengröße, die einem GPT-4 entspricht! Google und Harvard haben sich zusammengetan, um eine nanoskalige Modellierung eines Teils des menschlichen Gehirns durchzuführen, und die Arbeit wurde in Science veröffentlicht. Dies ist die bisher größte und detaillierteste Nachbildung des menschlichen Gehirns und zeigt zum ersten Mal das Netzwerk synaptischer Verbindungen im Gehirn. Mit ihrer ultrahohen Auflösung hat die H01 genannte Rekonstruktion einige bisher ungesehene Details über das menschliche Gehirn enthüllt. Professor Lichtman von der Harvard University, der korrespondierende Autor des Projekts, sagte, dass noch nie jemand ein so komplexes synaptisches Netzwerk gesehen habe. Dieses Modellierungsergebnis wird dazu beitragen, ein tieferes Verständnis der Funktionsweise des Gehirns zu erlangen und weitere Forschungen zu Gehirnfunktionen und -krankheiten anzuregen. Erwähnenswert ist auch, dass es sich bei der Studie um 1 Kubikmillimeter handelte
- KI 552 2024-05-29 17:03:30
-
- Neue Ideen zur Quantifizierung großer Byte-Open-Source-Modelle. Die Genauigkeit des 2-Bit-Quantisierungsmodells entspricht der von fp16
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Da Deep-Learning-Modelle für große Sprachen immer beliebter werden, werden große Sprachmodelle immer größer, wodurch auch ihre Inferenzkosten steigen. Die Modellquantifizierung ist zu einem beliebten Forschungsthema geworden. Vor kurzem hat ByteDance eine neue Quantifizierungsidee auf den Markt gebracht und das traditionelle Quantifizierungsparadigma aufgegeben.
- KI 727 2024-05-29 09:29:50
-
- HKU überprüft 170 Empfehlungsalgorithmen für „selbstüberwachtes Lernen' und veröffentlicht SSL4Rec: Der Code und die Datenbank sind vollständig Open Source!
- Empfehlungssysteme sind wichtig, um der Herausforderung der Informationsüberflutung zu begegnen, da sie maßgeschneiderte Empfehlungen basierend auf den persönlichen Vorlieben der Benutzer bereitstellen. In den letzten Jahren hat die Deep-Learning-Technologie die Entwicklung von Empfehlungssystemen stark vorangetrieben und Einblicke in das Verhalten und die Präferenzen der Nutzer verbessert. Allerdings stehen herkömmliche Methoden des überwachten Lernens in praktischen Anwendungen aufgrund von Problemen mit der Datenknappheit vor Herausforderungen, was ihre Fähigkeit einschränkt, die Benutzerleistung effektiv zu erlernen. Um dieses Problem zu lösen, wird in Biomasse die Technologie des selbstüberwachten Lernens (SSL) eingesetzt, die die intrinsische Struktur der Daten nutzt, um Überwachungssignale zu erzeugen, und nicht ausschließlich auf gekennzeichnete Daten angewiesen ist. Dieser Ansatz nutzt ein Empfehlungssystem, das aussagekräftige Informationen aus unbeschrifteten Daten extrahieren und auch bei knappen Daten genaue Vorhersagen und Empfehlungen treffen kann. Artikeladresse: https://
- KI 952 2024-05-09 16:58:02
-
- LLM ist fertig! OmniDrive: Integration von 3D-Wahrnehmung und Argumentationsplanung (NVIDIAs neueste Version)
- Oben geschrieben und persönliches Verständnis des Autors: Dieses Papier widmet sich der Lösung der wichtigsten Herausforderungen aktueller multimodaler großer Sprachmodelle (MLLMs) in autonomen Fahranwendungen, nämlich dem Problem der Erweiterung von MLLMs vom 2D-Verständnis auf den 3D-Raum. Diese Erweiterung ist besonders wichtig, da autonome Fahrzeuge (AVs) genaue Entscheidungen über 3D-Umgebungen treffen müssen. Das räumliche 3D-Verständnis ist für AVs von entscheidender Bedeutung, da es sich direkt auf die Fähigkeit des Fahrzeugs auswirkt, fundierte Entscheidungen zu treffen, zukünftige Zustände vorherzusagen und sicher mit der Umgebung zu interagieren. Aktuelle multimodale große Sprachmodelle (wie LLaVA-1.5) können häufig nur Bildeingaben mit niedrigerer Auflösung verarbeiten (z. B. aufgrund von Auflösungsbeschränkungen des visuellen Encoders und Einschränkungen der LLM-Sequenzlänge). Allerdings erfordern autonome Fahranwendungen
- KI 398 2024-05-09 16:55:01
-
- Die Tongyi Qianwen APP wurde in Tongyi APP umbenannt und die Full-Stack-Funktionen von Tongyi wurden kostenlos geöffnet
- Am 9. Mai wurde die Marke „Tongyi Big Model“ in „Tongyi APP“ umbenannt, um die vollständigen Funktionen von Tongyi Big Model zu integrieren und allen Benutzern kostenlose Dienste anzubieten. Die Tongyi APP basiert auf einem Basismodell mit einer Leistung, die mit GPT-4Turbo vergleichbar ist, und den hochmodernen Funktionen von „Allinone“ Tongyi Lab wie Textgrafiken, intelligente Codierung, Dokumentenanalyse, Audio- und Videoverständnis sowie visuelle Generierung und wird so zu einem All-in-One-Gerät für jedermann. runder KI-Assistent. Die allgemeine Bedeutung ist „vernünftig und gerecht“. Es verfügt über volle KI-Fähigkeiten und ist bestrebt, Menschen bei der Arbeit, im Studium und im Leben zu unterstützen. Die Tongyi-App verfügt über hervorragende Funktionen zur Dokumentenverarbeitung. Sie kann lange Dokumente mit bis zu 10 Millionen Wörtern gleichzeitig verarbeiten und außerdem 100 Dokumente in verschiedenen Formaten gleichzeitig analysieren. Sie ist ein ideales Werkzeug für Finanzen, Recht und wissenschaftliche Forschung. und Medizin.
- KI 914 2024-05-09 15:25:01