Inhaltsverzeichnis
Überprüfung des Algorithmus
Vereinheitlichen Sie den inneren Mechanismus von 14 empirischen Attributionsalgorithmen
Einführung in den Autor
Heim Technologie-Peripheriegeräte KI Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

May 18, 2023 pm 09:10 PM
算法 准则

Obwohl DNNs in verschiedenen praktischen Anwendungen große Erfolge erzielt haben, werden ihre Prozesse oft als Black Boxes betrachtet, da es schwierig ist zu erklären, wie DNNs Entscheidungen treffen. Die mangelnde Interpretierbarkeit beeinträchtigt die Zuverlässigkeit von DNNs und behindert so ihre breite Anwendung bei anspruchsvollen Aufgaben wie autonomem Fahren und KI-Medizin. Daher haben erklärbare DNNs zunehmend Aufmerksamkeit erregt.

Als typische Perspektive zur Erklärung von DNN zielt die Attributionsmethode darauf ab, die Attributions-/Wichtigkeits-/Beitragsbewertung jeder Eingabevariablen zur Netzwerkausgabe zu berechnen. Bei einem vorab trainierten DNN für die Bildklassifizierung und einem Eingabebild bezieht sich der Attributwert für jede Eingabevariable beispielsweise auf den numerischen Einfluss jedes Pixels auf den Klassifizierungskonfidenzwert.

Obwohl Forscher in den letzten Jahren viele Attributionsmethoden vorgeschlagen haben, basieren die meisten davon auf unterschiedlichen Heuristiken. Derzeit fehlt eine einheitliche theoretische Perspektive, um die Korrektheit dieser Attributionsmethoden zu überprüfen oder zumindest ihre Kernmechanismen mathematisch aufzuklären.

Forscher haben versucht, verschiedene Attributionsmethoden zu vereinheitlichen, aber diese Studien haben nur wenige Methoden abgedeckt.

In diesem Artikel schlagen wir eine „einheitliche Erklärung der intrinsischen Mechanismen von 14 Algorithmen zur Wichtigkeitszuordnung von Eingabeeinheiten“ vor.

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Papieradresse: https://arxiv.org/pdf/2303.01506.pdf

In der Tat, ob es sich um „12 Algorithmen zur Verbesserung der Migrationsresistenz“ oder „14 Eingaben“ handelt „Unit Importance Attribution Algorithm“ sind die am stärksten betroffenen Bereiche der technischen Algorithmen. In diesen beiden Bereichen sind die meisten Algorithmen empirisch. Menschen entwerfen einige plausible technische Algorithmen basierend auf experimenteller Erfahrung oder intuitivem Verständnis. Die meisten Studien haben keine strengen Definitionen und theoretischen Beweise dafür geliefert, „was genau die Bedeutung von Eingabeeinheiten ist“. Einige Studien haben bestimmte Beweise, aber diese sind oft sehr unvollständig. Natürlich durchzieht das Problem des „Mangels an strengen Definitionen und Demonstrationen“ das gesamte Gebiet der künstlichen Intelligenz, ist aber in diesen beiden Richtungen besonders ausgeprägt.

  • Erstens hoffen wir, in einer Umgebung, in der zahlreiche empirische Attributionsalgorithmen das Feld des erklärbaren maschinellen Lernens überschwemmen, „die intrinsischen Mechanismen aller 14 Attributionsalgorithmen (Algorithmen, die die Bedeutung von Eingabeeinheiten neuronaler Netze erklären)“ zu beweisen können alle als Verteilung des vom neuronalen Netzwerk modellierten Interaktionsnutzens ausgedrückt werden, und unterschiedliche Attributionsalgorithmen entsprechen unterschiedlichen Anteilen der Interaktionsnutzenverteilung. Obwohl verschiedene Algorithmen völlig unterschiedliche Designschwerpunkte haben (z. B. haben einige Algorithmen eine umrissene Zielfunktion und einige Algorithmen sind reine Pipelines), haben wir auf diese Weise festgestellt, dass diese Algorithmen mathematisch in die „Interaktionsdienstprogramm“-Verteilung einbezogen werden können „der Erzähllogik.
  • Basierend auf dem oben genannten interaktiven Nutzenzuordnungsrahmen können wir außerdem drei Bewertungskriterien für den Algorithmus zur Zuweisung der Wichtigkeit der Eingabeeinheit des neuronalen Netzwerks vorschlagen, um zu messen, ob der vom Attributalgorithmus vorhergesagte Wert der Wichtigkeit der Eingabeeinheit angemessen ist.

Natürlich ist unsere theoretische Analyse nicht nur auf die 14 Attributionsalgorithmen anwendbar und kann theoretisch weitere ähnliche Forschungen vereinheitlichen. Aufgrund der begrenzten Arbeitskapazität diskutieren wir in diesem Artikel nur 14 Algorithmen.

Die eigentliche Schwierigkeit der Forschung besteht darin, dass unterschiedliche empirische Attributionsalgorithmen oft auf unterschiedlichen Intuitionen basieren. Jede Arbeit strebt nur danach, sich aus ihrer eigenen Perspektive zu „rechtfertigen“, und zwar auf der Grundlage unterschiedlicher Intuitionen oder Perspektiven ein Mangel an einer standardisierten mathematischen Sprache, um das Wesen verschiedener Algorithmen einheitlich zu beschreiben.

Überprüfung des Algorithmus

Bevor wir über Mathematik sprechen, werden in diesem Artikel die vorherigen Algorithmen kurz von einer intuitiven Ebene aus betrachtet.

1. Gradientenbasierter Attributionsalgorithmus. Diese Art von Algorithmus geht im Allgemeinen davon aus, dass der Gradient der Ausgabe des neuronalen Netzwerks an jede Eingabeeinheit die Bedeutung der Eingabeeinheit widerspiegeln kann. Beispielsweise modelliert der Gradient*Input-Algorithmus die Wichtigkeit einer Eingabeeinheit als elementweises Produkt des Gradienten und des Eingabeeinheitswerts. Da der Gradient nur die lokale Bedeutung der Eingabeeinheit widerspiegeln kann, modellieren die Algorithmen „Smooth Gradients“ und „Integrated Gradients“ die Wichtigkeit als elementweises Produkt des durchschnittlichen Gradienten und des Werts der Eingabeeinheit, wobei sich der durchschnittliche Gradient in diesen beiden Methoden bezieht zum Nachbar der Eingabeprobe. Der Durchschnittswert des Gradienten innerhalb der Domäne bzw. der durchschnittliche Gradient des linearen Interpolationspunkts zwischen der Eingabeprobe und dem Basispunkt. In ähnlicher Weise berechnet der Grad-CAM-Algorithmus den Durchschnitt der Netzwerkausgabe über alle Merkmalsgradienten in jedem Kanal, um die Wichtigkeitsbewertung zu berechnen. Darüber hinaus geht der Algorithmus „Expected Gradients“ davon aus, dass die Auswahl eines einzelnen Benchmark-Punkts häufig zu verzerrten Attributionsergebnissen führt, und schlägt daher vor, die Wichtigkeit als Erwartung von Attributionsergebnissen „Integrated Gradients“ unter verschiedenen Benchmark-Punkten zu modellieren.

2. Attributionsalgorithmus basierend auf schichtweiser Backpropagation. Tiefe neuronale Netze sind oft äußerst komplex und die Struktur jeder Schicht neuronaler Netze ist relativ einfach (tiefe Merkmale sind beispielsweise normalerweise die lineare Summierung flacher Merkmale + nichtlineare Aktivierungsfunktionen), was die Analyse der Bedeutung erleichtert flache bis tiefe Merkmale. Daher ermittelt diese Art von Algorithmus die Wichtigkeit der Eingabeeinheit, indem sie die Wichtigkeit von Merkmalen mittlerer Ebene schätzt und diese Wichtigkeit Schicht für Schicht bis zur Eingabeschicht weitergibt. Zu den Algorithmen in dieser Kategorie gehören LRP-epsilon, LRP-alphabeta, Deep Taylor, DeepLIFT Rescale, DeepLIFT RevealCancel, DeepShap usw. Der grundlegende Unterschied zwischen verschiedenen Backpropagation-Algorithmen besteht darin, dass sie Schicht für Schicht unterschiedliche Wichtigkeitsausbreitungsregeln verwenden.

3. Okklusionsbasierter Attributionsalgorithmus. Diese Art von Algorithmus leitet die Bedeutung einer Eingabeeinheit basierend auf der Auswirkung des Verdeckens einer Eingabeeinheit auf die Modellausgabe ab. Beispielsweise modelliert der Occlusion-1-Algorithmus (Occlusion-Patch) die Bedeutung des i-ten Pixels (Pixelblocks) als Änderung der Ausgabe, wenn Pixel i nicht verdeckt ist, und verdeckt, wenn andere Pixel nicht verdeckt sind. Der Shapley-Wertalgorithmus berücksichtigt umfassend alle möglichen Verdeckungssituationen anderer Pixel und modelliert die Bedeutung, da sich der Durchschnitt der Ausgabe entsprechend Pixel i unter verschiedenen Verdeckungssituationen ändert. Untersuchungen haben gezeigt, dass der Shapley-Wert der einzige Attributionsalgorithmus ist, der die Axiome Linearität, Dummy, Symmetrie und Effizienz erfüllt.

Vereinheitlichen Sie den inneren Mechanismus von 14 empirischen Attributionsalgorithmen

Nach eingehender Untersuchung verschiedener empirischer Attributionsalgorithmen müssen wir über eine Frage nachdenken: Welches Problem stellt auf mathematischer Ebene die Attribution neuronaler Netze dar? lösen? Gibt es eine einheitliche mathematische Modellierung und ein einheitliches Paradigma hinter vielen empirischen Attributionsalgorithmen? Zu diesem Zweck versuchen wir, die oben genannten Probleme ausgehend von der Definition der Zuschreibung zu berücksichtigen. Die Zuordnung bezieht sich auf die Wichtigkeitsbewertung/den Beitrag jeder Eingabeeinheit zur Ausgabe des neuronalen Netzwerks. Der Schlüssel zur Lösung des oben genannten Problems besteht dann darin, (1) den „Einflussmechanismus der Eingabeeinheit auf die Netzwerkausgabe“ auf mathematischer Ebene zu modellieren und (2) zu erklären, wie viele empirische Attributionsalgorithmen diesen Einflussmechanismus verwenden, um Bedeutung zu entwerfen Attributionsformel.

In Bezug auf den ersten wichtigen Punkt haben unsere Untersuchungen ergeben, dass jede Eingabeeinheit häufig die Ausgabe des neuronalen Netzwerks auf zwei Arten beeinflusst. Einerseits ist eine bestimmte Eingabeeinheit nicht auf andere Eingabeeinheiten angewiesen und kann unabhängig agieren und die Netzwerkausgabe beeinflussen. Diese Art von Einfluss wird als „unabhängiger Effekt“ bezeichnet. Andererseits muss eine Eingabeeinheit mit anderen Eingabeeinheiten zusammenarbeiten, um ein bestimmtes Muster zu bilden, wodurch die Netzwerkausgabe beeinflusst wird. Diese Art von Einfluss wird als „Interaktionseffekt“ bezeichnet. Unsere Theorie beweist, dass die Ausgabe des neuronalen Netzwerks rigoros in die unabhängigen Effekte verschiedener Eingabevariablen sowie die interaktiven Effekte zwischen Eingabevariablen in verschiedenen Mengen zerlegt werden kann.

Unter diesen repräsentiert Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen den unabhängigen Effekt der i-ten Eingabeeinheit und Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen repräsentiert den interaktiven Effekt zwischen mehreren Eingabeeinheiten in der Menge S. Für den zweiten Schlüsselpunkt haben wir herausgefunden, dass die internen Mechanismen aller 14 vorhandenen empirischen Attributionsalgorithmen eine Verteilung des oben genannten unabhängigen Nutzens und interaktiven Nutzens darstellen können und dass unterschiedliche Attributionsalgorithmen auf unterschiedlichen Proportionen basieren, um den unabhängigen Nutzen zuzuordnen und interaktiver Nutzen neuronaler Netzwerk-Eingabeeinheiten. Insbesondere soll Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen den Attributionswert der i-ten Eingabeeinheit darstellen. Wir beweisen rigoros, dass das von allen 14 empirischen Attributionsalgorithmen erhaltene Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen einheitlich als das folgende mathematische Paradigma ausgedrückt werden kann (d. h. die gewichtete Summe aus unabhängigem Nutzen und interaktivem Nutzen): Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

wobei Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen den Anteil der Zuordnung der unabhängigen Wirkung der j-ten Eingabeeinheit zur i-ten Eingabeeinheit widerspiegelt, Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen die Zuordnung mehrerer Eingabeeinheiten darstellt Der Satz S Der Anteil des Interaktionseffekts zwischen wird der i-ten Eingabeeinheit zugewiesen. Der „grundlegende Unterschied“ zwischen vielen Attributionsalgorithmen besteht darin, dass unterschiedliche Attributionsalgorithmen unterschiedlichen Zuordnungsverhältnissen entsprechen Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen.

Tabelle 1 zeigt, wie vierzehn verschiedene Attributionsalgorithmen unabhängige Effekte und interaktive Effekte zuordnen.

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Diagramm 1. Die vierzehn Attributionsalgorithmen können alle als mathematisches Paradigma der gewichteten Summe unabhängiger Effekte und interaktiver Effekte geschrieben werden. Unter diesen stellt Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen den Taylor-unabhängigen Effekt bzw. den Taylor-Interaktionseffekt dar und erfüllt

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen ist eine Verfeinerung des unabhängigen Effekts Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen und des interaktiven Effekts Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen.

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

. Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Bewerten Sie die Zuverlässigkeit des Attributionsalgorithmus Drei Hauptprinzipien Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Bei der Forschung zu Attributionserklärungen gibt es aufgrund von Es keine Möglichkeit, den wahren Wert der Attributionserklärung durch neuronale Netze zu erhalten/zu kennzeichnen, und Menschen können die Zuverlässigkeit eines bestimmten Attributionserklärungsalgorithmus nicht bewerten aus empirischer Sicht. Der grundlegende Fehler des „Mangels an objektiven Bewertungskriterien für die Zuverlässigkeit von Attributionserklärungsalgorithmen“ hat im akademischen Bereich der Attributionserklärungsforschung weit verbreitete Kritik und Fragen ausgelöst.

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Die Offenbarung des öffentlichen Mechanismus von Attributionsalgorithmen in dieser Studie ermöglicht es uns, die Zuverlässigkeit verschiedener Attributionsalgorithmen unter demselben theoretischen Rahmen fair zu bewerten und zu vergleichen. Konkret schlagen wir die folgenden drei Bewertungskriterien vor, um zu bewerten, ob ein bestimmter Attributionsalgorithmus unabhängige Effekte und interaktive Effekte fair und angemessen verteilt.

(1)Kriterium 1: Alle unabhängigen Effekte und interaktiven Effekte im Zuordnungsprozess abdecken. Nachdem wir die Ausgabe des neuronalen Netzwerks in unabhängige Effekte und interaktive Effekte zerlegt haben, sollte ein zuverlässiger Attributionsalgorithmus im Zuordnungsprozess so weit wie möglich alle unabhängigen Effekte und interaktiven Effekte abdecken. Beispielsweise sollte die Zuordnung zum Satz „Ich bin nicht glücklich“ alle unabhängigen Wirkungen der drei Wörter „Ich bin, nicht, glücklich“ abdecken und außerdem J (Ich bin, nicht), J (Ich bin, glücklich) abdecken ), J (nicht glücklich), J (ich bin nicht glücklich) usw. alle möglichen Interaktionseffekte.

(2)Richtlinie 2: Vermeiden Sie es, unabhängige Effekte und Interaktionen irrelevanten Eingabeeinheiten zuzuordnen. Die eigenständige Wirkung der i-ten Eingabeeinheit sollte nur der i-ten Eingabeeinheit und nicht anderen Eingabeeinheiten zugewiesen werden. Ebenso sollte der Interaktionseffekt zwischen Eingabeeinheiten innerhalb der Menge S nur den Eingabeeinheiten innerhalb der Menge S und nicht den Eingabeeinheiten außerhalb der Menge S (die nicht an der Interaktion teilnehmen) zugeordnet werden. Beispielsweise sollte der Interaktionseffekt zwischen „nicht“ und „glücklich“ nicht dem Wort „Ich bin“ zugeordnet werden.

(3)Prinzip Drei: Vollständige Zuordnung. Jeder unabhängige Effekt (Interaktionseffekt) sollte vollständig der entsprechenden Eingabeeinheit zugeordnet sein. Mit anderen Worten: Die von einem bestimmten unabhängigen Effekt (Interaktionseffekt) allen entsprechenden Eingabeeinheiten zugewiesenen Attributionswerte sollten sich genau zu dem Wert des unabhängigen Effekts (Interaktionseffekt) summieren. Beispielsweise würde der Interaktionseffekt J (nicht, glücklich) einen Teil des Effekts Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen(nicht, glücklich) dem Wort nicht und einen Teil des Effekts Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen(nicht, glücklich) dem Wort glücklich zuordnen. Dann sollte das Verteilungsverhältnis Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen erfüllen.

Als nächstes haben wir diese drei Bewertungskriterien verwendet, um die oben genannten 14 verschiedenen Attributionsalgorithmen zu bewerten (wie in Tabelle 2 gezeigt). Wir haben festgestellt, dass die Algorithmen „Integrated Gradients“, „Expected Gradients“, „Shapley value“, „Deep Shap“, „DeepLIFT Rescale“ und „DeepLIFT RevealCancel“ alle Zuverlässigkeitskriterien erfüllen.

Verstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen

Tabelle 2. Zusammenfassung, ob 14 verschiedene Attributionsalgorithmen die drei Zuverlässigkeitsbewertungskriterien erfüllen.

Einführung in den Autor

Der Autor dieses Artikels, Deng Huiqi, ist Doktor der angewandten Mathematik an der Sun Yat-sen-Universität. Während seiner Doktorarbeit besuchte er die Hong Kong Baptist University Er ist Professor am Department of Computer Science der Texas A&M University und forscht derzeit als Postdoktorand im Team von Professor Zhang Quanshi. Die Forschungsrichtung ist hauptsächlich vertrauenswürdiges/interpretierbares maschinelles Lernen, einschließlich der Erläuterung der Bedeutung der Attribution tiefer neuronaler Netze, der Erklärung der Ausdrucksfähigkeit neuronaler Netze usw.

Deng Huiqi hat in der Anfangsphase viel Arbeit geleistet. Lehrer Zhang half ihr gerade dabei, die Theorie neu zu organisieren, nachdem die ersten Arbeiten abgeschlossen waren, um die Beweismethode und das Beweissystem reibungsloser zu gestalten. Deng Huiqi schrieb vor seinem Abschluss nicht viele Arbeiten, nachdem er Ende 2021 zu Lehrer Zhang kam, und erledigte in mehr als einem Jahr drei Aufgaben im Rahmen des Spielinteraktionssystems, darunter (1) die Entdeckung und theoretische Erklärung des allgemeinen Repräsentationsengpasses neuronaler Systeme Netzwerke, d. h. neuronale Netze, haben sich als noch weniger geeignet für die Modellierung interaktiver Darstellungen mittlerer Komplexität erwiesen. Diese Arbeit hatte das Glück, als mündliche Arbeit des ICLR 2022 ausgewählt zu werden, und ihr Rezensionsergebnis rangierte unter den ersten fünf (Punktzahl 8, 8, 8, 10). (2) Die Theorie beweist den konzeptionellen Darstellungstrend von Bayes'schen Netzwerken und bietet eine neue Perspektive zur Erklärung der Klassifizierungsleistung, der Generalisierungsfähigkeit und der kontroversen Robustheit von Bayes'schen Netzwerken. (3) Erklärt theoretisch die Fähigkeit des neuronalen Netzwerks, während des Trainingsprozesses interaktive Konzepte unterschiedlicher Komplexität zu lernen.

Das obige ist der detaillierte Inhalt vonVerstehen und vereinheitlichen Sie 14 Attributionsalgorithmen, um neuronale Netze interpretierbar zu machen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Crossplay haben?
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

CLIP-BEVFormer: Überwacht explizit die BEVFormer-Struktur, um die Leistung der Long-Tail-Erkennung zu verbessern CLIP-BEVFormer: Überwacht explizit die BEVFormer-Struktur, um die Leistung der Long-Tail-Erkennung zu verbessern Mar 26, 2024 pm 12:41 PM

Oben geschrieben und das persönliche Verständnis des Autors: Derzeit spielt das Wahrnehmungsmodul im gesamten autonomen Fahrsystem eine entscheidende Rolle Das Steuermodul im autonomen Fahrsystem trifft zeitnahe und korrekte Urteile und Verhaltensentscheidungen. Derzeit sind Autos mit autonomen Fahrfunktionen in der Regel mit einer Vielzahl von Dateninformationssensoren ausgestattet, darunter Rundumsichtkamerasensoren, Lidar-Sensoren und Millimeterwellenradarsensoren, um Informationen in verschiedenen Modalitäten zu sammeln und so genaue Wahrnehmungsaufgaben zu erfüllen. Der auf reinem Sehen basierende BEV-Wahrnehmungsalgorithmus wird von der Industrie aufgrund seiner geringen Hardwarekosten und einfachen Bereitstellung bevorzugt, und seine Ausgabeergebnisse können problemlos auf verschiedene nachgelagerte Aufgaben angewendet werden.

Implementierung von Algorithmen für maschinelles Lernen in C++: Häufige Herausforderungen und Lösungen Implementierung von Algorithmen für maschinelles Lernen in C++: Häufige Herausforderungen und Lösungen Jun 03, 2024 pm 01:25 PM

Zu den häufigsten Herausforderungen, mit denen Algorithmen für maschinelles Lernen in C++ konfrontiert sind, gehören Speicherverwaltung, Multithreading, Leistungsoptimierung und Wartbarkeit. Zu den Lösungen gehören die Verwendung intelligenter Zeiger, moderner Threading-Bibliotheken, SIMD-Anweisungen und Bibliotheken von Drittanbietern sowie die Einhaltung von Codierungsstilrichtlinien und die Verwendung von Automatisierungstools. Praktische Fälle zeigen, wie man die Eigen-Bibliothek nutzt, um lineare Regressionsalgorithmen zu implementieren, den Speicher effektiv zu verwalten und leistungsstarke Matrixoperationen zu nutzen.

Entdecken Sie die zugrunde liegenden Prinzipien und die Algorithmusauswahl der C++-Sortierfunktion Entdecken Sie die zugrunde liegenden Prinzipien und die Algorithmusauswahl der C++-Sortierfunktion Apr 02, 2024 pm 05:36 PM

Die unterste Ebene der C++-Sortierfunktion verwendet die Zusammenführungssortierung, ihre Komplexität beträgt O(nlogn) und bietet verschiedene Auswahlmöglichkeiten für Sortieralgorithmen, einschließlich schneller Sortierung, Heap-Sortierung und stabiler Sortierung.

Kann künstliche Intelligenz Kriminalität vorhersagen? Entdecken Sie die Möglichkeiten von CrimeGPT Kann künstliche Intelligenz Kriminalität vorhersagen? Entdecken Sie die Möglichkeiten von CrimeGPT Mar 22, 2024 pm 10:10 PM

Die Konvergenz von künstlicher Intelligenz (KI) und Strafverfolgung eröffnet neue Möglichkeiten zur Kriminalprävention und -aufdeckung. Die Vorhersagefähigkeiten künstlicher Intelligenz werden häufig in Systemen wie CrimeGPT (Crime Prediction Technology) genutzt, um kriminelle Aktivitäten vorherzusagen. Dieser Artikel untersucht das Potenzial künstlicher Intelligenz bei der Kriminalitätsvorhersage, ihre aktuellen Anwendungen, die Herausforderungen, denen sie gegenübersteht, und die möglichen ethischen Auswirkungen der Technologie. Künstliche Intelligenz und Kriminalitätsvorhersage: Die Grundlagen CrimeGPT verwendet Algorithmen des maschinellen Lernens, um große Datensätze zu analysieren und Muster zu identifizieren, die vorhersagen können, wo und wann Straftaten wahrscheinlich passieren. Zu diesen Datensätzen gehören historische Kriminalstatistiken, demografische Informationen, Wirtschaftsindikatoren, Wettermuster und mehr. Durch die Identifizierung von Trends, die menschliche Analysten möglicherweise übersehen, kann künstliche Intelligenz Strafverfolgungsbehörden stärken

Verbesserter Erkennungsalgorithmus: zur Zielerkennung in hochauflösenden optischen Fernerkundungsbildern Verbesserter Erkennungsalgorithmus: zur Zielerkennung in hochauflösenden optischen Fernerkundungsbildern Jun 06, 2024 pm 12:33 PM

01Ausblicksübersicht Derzeit ist es schwierig, ein angemessenes Gleichgewicht zwischen Detektionseffizienz und Detektionsergebnissen zu erreichen. Wir haben einen verbesserten YOLOv5-Algorithmus zur Zielerkennung in hochauflösenden optischen Fernerkundungsbildern entwickelt, der mehrschichtige Merkmalspyramiden, Multierkennungskopfstrategien und hybride Aufmerksamkeitsmodule verwendet, um die Wirkung des Zielerkennungsnetzwerks in optischen Fernerkundungsbildern zu verbessern. Laut SIMD-Datensatz ist der mAP des neuen Algorithmus 2,2 % besser als YOLOv5 und 8,48 % besser als YOLOX, wodurch ein besseres Gleichgewicht zwischen Erkennungsergebnissen und Geschwindigkeit erreicht wird. 02 Hintergrund und Motivation Mit der rasanten Entwicklung der Fernerkundungstechnologie wurden hochauflösende optische Fernerkundungsbilder verwendet, um viele Objekte auf der Erdoberfläche zu beschreiben, darunter Flugzeuge, Autos, Gebäude usw. Objekterkennung bei der Interpretation von Fernerkundungsbildern

Üben und denken Sie an die multimodale große Modellplattform DataCanvas von Jiuzhang Yunji Üben und denken Sie an die multimodale große Modellplattform DataCanvas von Jiuzhang Yunji Oct 20, 2023 am 08:45 AM

1. Die historische Entwicklung multimodaler Großmodelle zeigt den ersten Workshop zur künstlichen Intelligenz, der 1956 am Dartmouth College in den Vereinigten Staaten stattfand Pioniere der symbolischen Logik (außer dem Neurobiologen Peter Milner in der Mitte der ersten Reihe). Diese symbolische Logiktheorie konnte jedoch lange Zeit nicht verwirklicht werden und leitete in den 1980er und 1990er Jahren sogar den ersten KI-Winter ein. Erst mit der kürzlich erfolgten Implementierung großer Sprachmodelle haben wir entdeckt, dass neuronale Netze dieses logische Denken tatsächlich tragen. Die Arbeit des Neurobiologen Peter Milner inspirierte die spätere Entwicklung künstlicher neuronaler Netze, und aus diesem Grund wurde er zur Teilnahme eingeladen in diesem Projekt.

Anwendung von Algorithmen beim Aufbau einer 58-Porträt-Plattform Anwendung von Algorithmen beim Aufbau einer 58-Porträt-Plattform May 09, 2024 am 09:01 AM

1. Hintergrund des Baus der 58-Portrait-Plattform Zunächst möchte ich Ihnen den Hintergrund des Baus der 58-Portrait-Plattform mitteilen. 1. Das traditionelle Denken der traditionellen Profiling-Plattform reicht nicht mehr aus. Der Aufbau einer Benutzer-Profiling-Plattform basiert auf Data-Warehouse-Modellierungsfunktionen, um Daten aus mehreren Geschäftsbereichen zu integrieren, um genaue Benutzerporträts zu erstellen Und schließlich muss es über Datenplattformfunktionen verfügen, um Benutzerprofildaten effizient zu speichern, abzufragen und zu teilen sowie Profildienste bereitzustellen. Der Hauptunterschied zwischen einer selbst erstellten Business-Profiling-Plattform und einer Middle-Office-Profiling-Plattform besteht darin, dass die selbst erstellte Profiling-Plattform einen einzelnen Geschäftsbereich bedient und bei Bedarf angepasst werden kann. Die Mid-Office-Plattform bedient mehrere Geschäftsbereiche und ist komplex Modellierung und bietet allgemeinere Funktionen. 2.58 Benutzerporträts vom Hintergrund der Porträtkonstruktion im Mittelbahnsteig 58

Fügen Sie SOTA in Echtzeit hinzu und explodieren Sie! FastOcc: Schnellere Inferenz und ein einsatzfreundlicher Occ-Algorithmus sind da! Fügen Sie SOTA in Echtzeit hinzu und explodieren Sie! FastOcc: Schnellere Inferenz und ein einsatzfreundlicher Occ-Algorithmus sind da! Mar 14, 2024 pm 11:50 PM

Oben geschrieben & Das persönliche Verständnis des Autors ist, dass im autonomen Fahrsystem die Wahrnehmungsaufgabe eine entscheidende Komponente des gesamten autonomen Fahrsystems ist. Das Hauptziel der Wahrnehmungsaufgabe besteht darin, autonome Fahrzeuge in die Lage zu versetzen, Umgebungselemente wie auf der Straße fahrende Fahrzeuge, Fußgänger am Straßenrand, während der Fahrt angetroffene Hindernisse, Verkehrszeichen auf der Straße usw. zu verstehen und wahrzunehmen und so flussabwärts zu helfen Module Treffen Sie richtige und vernünftige Entscheidungen und Handlungen. Ein Fahrzeug mit autonomen Fahrfähigkeiten ist in der Regel mit verschiedenen Arten von Informationserfassungssensoren ausgestattet, wie z. B. Rundumsichtkamerasensoren, Lidar-Sensoren, Millimeterwellenradarsensoren usw., um sicherzustellen, dass das autonome Fahrzeug die Umgebung genau wahrnehmen und verstehen kann Elemente, die es autonomen Fahrzeugen ermöglichen, beim autonomen Fahren die richtigen Entscheidungen zu treffen. Kopf

See all articles