Inhaltsverzeichnis
Forschungshintergrund
Ursache 1: Inkonsistenter Test-OOD-Datensatz.
Grund 2: Verwirrende Terminologie.
Ursache 3: Falsche Bedienung.
1. Riesige, modulare Codebasis.
2.
3. Online-Rangliste.
4. Neue Entdeckungen in experimentellen Ergebnissen.
Problembeschreibung
Standard-OOD-Erkennung
Vollspektrum-OOD-Erkennung
Warum sind Vollspektrum-OOD-Tests wichtig?
Experimentelle Ergebnisse und neue Erkenntnisse
Entdeckung 1: Es gibt keinen einzelnen Gewinner.
Ergebnis 2: Datenerweiterungen helfen.
Ergebnis 3: Die Vollspektrumerkennung stellt eine Herausforderung für aktuelle Detektoren dar.
Ausblick
Heim Technologie-Peripheriegeräte KI OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstützt

OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstützt

Jul 03, 2023 pm 04:41 PM
性能 数量 openood

Out-of-Distribution (OOD)-Erkennung ist für den zuverlässigen Betrieb offener intelligenter Systeme von entscheidender Bedeutung, aktuelle objektorientierte Erkennungsmethoden leiden jedoch unter dem Problem der „Bewertungsinkonsistenzen“.

Frühere Arbeiten OpenOOD v1 vereinheitlicht die Auswertung der OOD-Erkennung, weist jedoch immer noch Einschränkungen in der Skalierbarkeit und Benutzerfreundlichkeit auf.

Kürzlich hat das Entwicklungsteam erneut OpenOOD v1.5 vorgeschlagen. Im Vergleich zur Vorgängerversion wurde die Bewertung der neuen OOD-Erkennungsmethode erheblich verbessert, um Genauigkeit, Standardisierung und Benutzerfreundlichkeit zu gewährleisten.

OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstütztBilder

Papier: https://arxiv.org/abs/2306.09301

OpenOOD-Codebasis: https://github.com/Jingkang50/OpenOOD

OpenOOD-Bestenliste: https://zjysteven. github.io/OpenOOD/

Bemerkenswert ist, dass OpenOOD v1.5 seine Auswertungsmöglichkeiten auf große Datensätze wie ImageNet erweitert, die wichtige, aber noch unerschlossene Vollspektrum-OOD-Erkennung untersucht und neue Funktionen einführt, einschließlich Online-Bestenlisten und einfach -zu verwendender Evaluator.

Diese Arbeit trägt auch zu tiefgreifenden Analysen und Erkenntnissen aus umfassenden experimentellen Ergebnissen bei und bereichert so die Wissensbasis über OOD-Nachweismethoden.

Mit diesen Verbesserungen zielt OpenOOD v1.5 darauf ab, den Fortschritt der OOD-Forschung voranzutreiben und einen leistungsfähigeren und umfassenderen Bewertungsmaßstab für die OOD-Erkennungsforschung bereitzustellen.

Forschungshintergrund

Für einen gut trainierten Bildklassifikator ist die Erkennung unbekannter Proben außerhalb der Verteilung (OOD) eine Schlüsselfunktion, die es ihm ermöglicht, zuverlässig in der offenen Welt zu arbeiten.

Zum Beispiel haben wir einen Katzen- und Hundeklassifikator anhand einer Reihe von Katzen- und Hundefotos trainiert. Bei In-Distribution-(ID-)Proben, hier also Katzen- und Hundebildern, erwarten wir natürlich, dass der Klassifikator sie genau in die entsprechenden Kategorien einordnet.

Für nicht im Handel erhältliche OOD-Proben, also alle Bilder außer Katzen und Hunden (wie Flugzeuge, Früchte usw.), hoffen wir, dass das Modell erkennen kann, dass es sich um unbekannte und neuartige Objekte/Konzepte handelt und können sie daher keiner Kategorie von Katzen oder Hunden innerhalb der Verteilung zuordnen.

Bei diesem Problem handelt es sich um die Out-of-Distribution-Erkennung (OOD-Erkennung), die in den letzten Jahren große Aufmerksamkeit erregt hat, und nach und nach entstehen neue Arbeiten. Obwohl sich das Feld rasch ausdehnt, ist es aus verschiedenen Gründen schwierig geworden, den Entwicklungsstatus des Feldes zu verfolgen und zu messen.

Ursache 1: Inkonsistenter Test-OOD-Datensatz.

Die schnelle Entwicklung verschiedener Deep-Learning-Aufgaben ist untrennbar mit einem einheitlichen Testdatensatz verbunden (genau wie CIFAR, ImageNet zur Bildklassifizierung, PASCAL VOC, COCO zur Objekterkennung).

Allerdings fehlte im Bereich der OOD-Erkennung immer ein einheitlicher und weit verbreiteter OOD-Datensatz. Dies führt zu der obigen Abbildung. Wenn wir auf die experimentellen Einstellungen bestehender Arbeiten zurückblicken, werden wir feststellen, dass die verwendeten OOD-Daten sehr inkonsistent sind (z. B. werden für CIFAR-10, bei dem es sich um ID-Daten handelt, MNIST und SVHN verwendet). als OOD, einige Werke verwenden CIFAR-100, Tiny ImageNet als OOD). Unter solchen Umständen ist ein direkter und fairer Vergleich aller Methoden mit erheblichen Schwierigkeiten verbunden.

Grund 2: Verwirrende Terminologie.

Neben der OOD-Erkennung tauchen in der Literatur auch häufig andere Begriffe wie „Open-Set Recognition (OSR)“ und „Novelty Detection“ auf.

Sie konzentrieren sich im Wesentlichen auf dasselbe Problem, mit nur geringfügigen Unterschieden in den Details einiger experimenteller Einstellungen. Unterschiedliche Terminologien können jedoch zu unnötigen Verzweigungen zwischen den Methoden führen. Beispielsweise wurden OOD-Erkennung und OSR früher als zwei unabhängige Aufgaben betrachtet, und es gab nur sehr wenige Methoden zwischen verschiedenen Zweigen (obwohl sie das gleiche Problem gemeinsam lösten).

Ursache 3: Falsche Bedienung.

In vielen Arbeiten verwenden Forscher häufig direkt Proben im OOD-Testsatz, um Parameter anzupassen oder sogar Modelle zu trainieren. Ein solcher Vorgang würde die OOD-Erkennungsfähigkeit der Methode überschätzen.

Die oben genannten Probleme beeinträchtigen offensichtlich die ordnungsgemäße Entwicklung des Fachgebiets. Wir benötigen dringend einen einheitlichen Benchmark und eine einheitliche Plattform, um bestehende und zukünftige OOD-Erkennungsmethoden zu testen und zu bewerten.

OpenOOD entstand unter solchen Herausforderungen. Die erste Version hat einen wichtigen Schritt gemacht, weist jedoch Probleme hinsichtlich des geringen Umfangs und der Benutzerfreundlichkeit auf, die verbessert werden müssen.

Deshalb haben wir OpenOOD v1.5 in der neuen Version weiter gestärkt und aktualisiert und versucht, eine umfassende, genaue und benutzerfreundliche Testplattform für die Mehrheit der Forscher zu schaffen.

Zusammenfassend verfügt OpenOOD über die folgenden wichtigen Funktionen und Beiträge:

1. Riesige, modulare Codebasis.

Diese Codebasis versteht und modularisiert Modellstruktur, Datenvorverarbeitung, Nachverarbeitung, Schulung, Tests usw., um die Wiederverwendung und Entwicklung zu erleichtern. Derzeit implementiert OpenOOD fast 40 hochmoderne OOD-Erkennungsmethoden für Bildklassifizierungsaufgaben.

OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstütztBilder

2.

Wie in der Abbildung oben gezeigt, kann der Evaluator von OpenOOD mit nur wenigen Codezeilen die OOD-Erkennungstestergebnisse des bereitgestellten Klassifikators und Postprozessors für den angegebenen ID-Datensatz liefern.

Die entsprechenden OOD-Daten werden intern vom Gutachter ermittelt und bereitgestellt, was die Konsistenz und Fairness des Tests gewährleistet. Der Evaluator unterstützt auch Szenarien für die Standard-OOD-Erkennung (Standard-OOD-Erkennung) und die Vollspektrum-OOD-Erkennung (Vollspektrum-OOD-Erkennung) (mehr dazu später).

3. Online-Rangliste.

Mit OpenOOD haben wir die Leistung von fast 40 OOD-Erkennungsmethoden anhand von vier ID-Datensätzen verglichen: CIFAR-10, CIFAR-100, ImageNet-200 und ImageNet-1K, und die Ergebnisse in ein öffentliches Ranking umgewandelt. Wir hoffen, jedem jederzeit dabei zu helfen, die effektivsten und vielversprechendsten Methoden auf diesem Gebiet zu verstehen.

4. Neue Entdeckungen in experimentellen Ergebnissen.

Basierend auf den umfassenden experimentellen Ergebnissen von OpenOOD liefern wir in der Arbeit viele neue Erkenntnisse. Obwohl es beispielsweise wenig mit der OOD-Erkennung zu tun zu haben scheint, kann die Datenerweiterung tatsächlich die Leistung der OOD-Erkennung effektiv verbessern, und diese Verbesserung ist orthogonal und komplementär zu der Verbesserung, die durch bestimmte OOD-Erkennungsmethoden erzielt wird.

Darüber hinaus haben wir festgestellt, dass die Leistung bestehender Methoden bei der Vollspektrum-OOD-Detektion nicht zufriedenstellend ist, was auch ein wichtiges Problem sein wird, das in Zukunft gelöst werden muss.

Problembeschreibung

In diesem Teil werden kurz und allgemein die Ziele der Standard- und Vollspektrum-OOD-Detektion beschrieben. Für eine detailliertere und formalere Beschreibung können Sie gerne unser Papier lesen.

OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstütztBilder

Zuerst ein paar Hintergrundinformationen. In dem von uns betrachteten Bildklassifizierungsszenario werden die In-Distribution-Daten (ID) durch die entsprechende Klassifizierungsaufgabe definiert. Beispielsweise entspricht bei der CIFAR-10-Klassifizierung die ID-Verteilung ihren 10 semantischen Kategorien.

Das Konzept von OOD wird relativ zur ID gebildet: Bilder, die einer anderen semantischen Kategorie als der ID-Semantikkategorie entsprechen und sich von der ID-Kategorie unterscheiden, sind nicht verbreitete OOD-Bilder. Gleichzeitig müssen wir die folgenden zwei Arten von Verteilungsverschiebungen diskutieren.

Semantische Verschiebung: Verteilungsänderungen auf der tiefen semantischen Ebene, entsprechend der horizontalen Achse der obigen Abbildung. Beispielsweise sind die semantischen Kategorien beim Training Katzen und Hunde und beim Testen sind die semantischen Kategorien Flugzeuge und Früchte.

Kovariatenverschiebung: Verteilungsänderungen auf statistischer Oberflächenebene (während die Semantik unverändert bleibt), entsprechend der vertikalen Achse der obigen Abbildung. Während des Trainings gibt es beispielsweise klare und natürliche Fotos von Katzen und Hunden, während es beim Testen verrauschte oder handgezeichnete Bilder von Katzen und Hunden gibt.

Mit dem obigen Hintergrund und dem obigen Bild können Sie die Standard- und Vollspektrum-OOD-Erkennung leicht verstehen.

Standard-OOD-Erkennung

Ziel (1): Einen Klassifizierer auf die ID-Verteilung trainieren, damit er ID-Daten genau klassifizieren kann. Hierbei wird davon ausgegangen, dass es keine Kovariatenverschiebung zwischen den Test-ID-Daten und den Trainings-ID-Daten gibt.

Ziel (2): Entwerfen Sie basierend auf dem trainierten Klassifikator eine OOD-Erkennungsmethode, mit der jede Probe in zwei Kategorien klassifiziert werden kann: ID/OOD. Die entsprechende Sache in der obigen Abbildung besteht darin, (a) von (c) + (d) zu unterscheiden.

Vollspektrum-OOD-Erkennung

Ziel (1): Ähnlich wie bei der Standard-OOD-Erkennung, der Unterschied besteht jedoch darin, dass die Kovariatenverschiebung berücksichtigt wird, d. h. der Klassifikator muss unabhängig davon verwendet werden, ob eine vorhanden ist Kovariatenverschiebung im Test-ID-Bild im Vergleich zum Trainingsbild. Der Katzen- und Hundeklassifikator sollte beispielsweise nicht nur „saubere“ Katzen- und Hundebilder genau klassifizieren, sondern auch in der Lage sein, diese zu verallgemeinern verrauschte und verschwommene Katzen- und Hundebilder).

Ziel (2): Berücksichtigen Sie auch kovariatenverschobene ID-Stichproben, die von OOD-Stichproben zusammen mit normalen (keine Kovariatenverschiebung) ID-Stichproben unterschieden werden müssen. Entspricht der Unterscheidung zwischen (a) + (b) und (c) + (d) in der obigen Abbildung.

Warum sind Vollspektrum-OOD-Tests wichtig?

Vertraute Freunde haben möglicherweise entdeckt, dass Ziel (1) bei der Vollspektrum-OOD-Detektion tatsächlich einem anderen sehr wichtigen Forschungsthema entspricht – der Out-of-Distribution-Generalisierung (OOD-Generalisierung).

Es muss klargestellt werden, dass sich der OOD in der OOD-Generalisierung auf die Stichproben mit Kovariatenverschiebung bezieht, während sich der OOD in der OOD-Erkennung auf die Stichproben mit semantischer Verschiebung bezieht.

Beide Arten von Verschiebungen kommen in der realen Welt sehr häufig vor. Die bestehende OOD-Generalisierung und die standardmäßige OOD-Erkennung berücksichtigen jedoch nur eine davon und ignorieren die andere.

Im Gegensatz dazu berücksichtigt die Vollspektrum-OOD-Erkennung natürlich beide Offsets im selben Szenario und spiegelt so genauer unsere Erwartungen an die Leistung eines idealen Klassifikators in der offenen Welt wider.

Experimentelle Ergebnisse und neue Erkenntnisse

In Version 1.5 vergleicht OpenOOD fast 40 Methoden anhand von 6 Benchmark-Datensätzen (4 für die Standard-OOD-Erkennung, 2 für die Vollspektrum-OOD-Erkennung). Es wurde ein einheitlicher und umfassender Test durchgeführt.

Die implementierten Methoden und Datensätze sind im Papier beschrieben, und jeder ist herzlich eingeladen, es sich anzusehen. Alle Experimente können auch in der OpenOOD-Codebasis reproduziert werden. Hier diskutieren wir direkt die aus den Vergleichsergebnissen abgeleiteten Erkenntnisse.

OpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstütztBilder

Entdeckung 1: Es gibt keinen einzelnen Gewinner.

In der obigen Tabelle ist es nicht schwer zu erkennen, dass keine Methode bei allen Benchmark-Datensätzen konstant eine hervorragende Leistung erbringen kann.

Zum Beispiel funktionieren die Post-hoc-Inferenzmethoden ReAct und ASH gut auf dem großen Datensatz ImageNet, haben aber keinen Vorteil gegenüber anderen Methoden auf CIFAR.

Im Gegensatz dazu sind einige Trainingsmethoden, die dem Training Einschränkungen hinzufügen, wie RotPred und LogitNorm, bei kleinen Datensätzen besser als Nachbearbeitungsmethoden, bei ImageNet jedoch nicht herausragend.

Ergebnis 2: Datenerweiterungen helfen.

Wie in der Tabelle oben gezeigt, sind Datenverbesserungen zwar nicht speziell für die OOD-Erkennung konzipiert, können aber die Leistung der OOD-Erkennung effektiv verbessern. Noch überraschender ist, dass sich die durch die Datenerweiterung erzielten Verbesserungen und die durch bestimmte OOD-Nachbearbeitungsmethoden erzielten Verbesserungen gegenseitig verstärken.

Hier ist AugMix als Beispiel. In Kombination mit dem einfachsten MSP-Postprozessor erreicht es eine nahezu OOD-Erkennungsrate von ImageNet-1K, was nur geringer ist als der Kreuzentropieverlust ohne Datenverbesserung (korrespondierend). Entropieverlust) hat das Training eine Erkennungsrate von 77,38 %, was 1,47 % höher ist.

Wenn AugMix jedoch mit dem fortschrittlicheren ASH-Postprozessor kombiniert wird, ist die entsprechende Erkennungsrate 3,99 % höher als die Kreuzentropie-Basislinie und erreicht den höchsten Wert in unseren Tests von 82,16 %. Solche Ergebnisse zeigen, dass die Kombination aus Datenverbesserung und Nachbearbeitung großes Potenzial hat, die OOD-Erkennungsfähigkeiten in Zukunft weiter zu verbessern.

Ergebnis 3: Die Vollspektrumerkennung stellt eine Herausforderung für aktuelle Detektoren dar.

Aus der obigen Abbildung ist deutlich ersichtlich, dass beim Wechsel der Szene von der Standard-OOD-Erkennung zur Vollspektrum-OOD-Erkennung (d. h. Kovariaten-verschobene ID-Bilder werden zu den Test-ID-Daten hinzugefügt) die Leistung am meisten beeinträchtigt wird Alle Methoden zeigen eine erhebliche Verschlechterung (mehr als 10 % Rückgang der Erkennungsrate).

Das bedeutet, dass die aktuelle Methode dazu neigt, kovariatenverschobene ID-Bilder, deren tatsächliche Semantik sich nicht geändert hat, als OOD zu kennzeichnen.

Dieses Verhalten widerspricht der menschlichen Wahrnehmung (und ist auch das Ziel der Vollspektrum-OOD-Erkennung): Angenommen, ein menschlicher Etikettierer beschriftet Katzen- und Hundebilder und ihm/ihr werden zu diesem Zeitpunkt verrauschte und verschwommene Katzen- und Katzenbilder angezeigt Bei Bildern von Hunden sollte er/sie immer noch erkennen, dass es sich um eine Katze/einen Hund handelt und dass es sich um In-Distribution-ID-Daten und nicht um unbekannte Out-of-Distribution-OOD-Daten handelt.

Im Allgemeinen können aktuelle Methoden den Vollspektrum-OOD-Nachweis nicht effektiv lösen, und wir glauben, dass dies in Zukunft ein wichtiges Thema auf diesem Gebiet sein wird.

Darüber hinaus gibt es viele Erkenntnisse, die hier nicht aufgeführt sind, wie zum Beispiel, dass die Datenerweiterung für die Vollspektrum-OOD-Erkennung immer noch wirksam ist usw. Auch hier ist jeder herzlich willkommen, unsere Zeitung zu lesen.

Ausblick

Wir hoffen, dass die Codebasis, Tester, Rankings, Benchmark-Datensätze und detaillierten Testergebnisse von OpenOOD Forscher aus allen Lebensbereichen zusammenbringen können, um die Entwicklung des Fachgebiets voranzutreiben. Ich freue mich darauf, dass jeder OpenOOD nutzt, um die OOD-Erkennung zu entwickeln und zu testen.

Wir freuen uns auch über jede Form von Beiträgen zu OpenOOD, einschließlich, aber nicht beschränkt auf die Bereitstellung von Feedback, das Hinzufügen der neuesten Methoden zur OpenOOD-Codebasis und den Bestenlisten, die Erweiterung zukünftiger Versionen von OpenOOD usw.

Referenz: https://arxiv.org/abs/2306.09301

Das obige ist der detaillierte Inhalt vonOpenOOD-Update v1.5: umfassende und genaue Bibliothek und Testplattform zur Erkennung von Out-of-Distribution-Codes, die Online-Rankings und One-Click-Tests unterstützt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der Unterschied zwischen vivox100s und x100: Leistungsvergleich und Funktionsanalyse Der Unterschied zwischen vivox100s und x100: Leistungsvergleich und Funktionsanalyse Mar 23, 2024 pm 10:27 PM

Sowohl die Mobiltelefone vivox100s als auch x100 sind repräsentative Modelle der Mobiltelefonproduktlinie von vivo. Sie repräsentieren jeweils das High-End-Technologieniveau von vivo in unterschiedlichen Zeiträumen. Daher weisen diese beiden Mobiltelefone gewisse Unterschiede in Design, Leistung und Funktionen auf. In diesem Artikel wird ein detaillierter Vergleich dieser beiden Mobiltelefone im Hinblick auf Leistungsvergleich und Funktionsanalyse durchgeführt, um Verbrauchern dabei zu helfen, das für sie geeignete Mobiltelefon besser auszuwählen. Schauen wir uns zunächst den Leistungsvergleich zwischen vivox100s und x100 an. vivox100s ist mit dem Neusten ausgestattet

So zeigen Sie versteckte Leistungsüberlagerungen in Windows 11 an So zeigen Sie versteckte Leistungsüberlagerungen in Windows 11 an Mar 24, 2024 am 09:40 AM

In diesem Tutorial helfen wir Ihnen, versteckte Leistungsüberlagerungen in Windows 11 aufzudecken. Mit der Performance-Overlay-Funktion von Windows 11 können Sie Ihre Systemressourcen in Echtzeit überwachen. Sie können die CPU-Auslastung, Festplattenauslastung, GPU-Auslastung, RAM-Auslastung usw. in Echtzeit auf Ihrem Computerbildschirm anzeigen. Dies ist praktisch, wenn Sie Spiele spielen oder große Grafikprogramme (z. B. Videoeditoren) verwenden und überprüfen müssen, wie stark die Systemleistung durch die Verwendung eines bestimmten Programms beeinträchtigt wird. Zwar gibt es hervorragende kostenlose Software zur Überwachung der Systemleistung und einige integrierte Tools wie Resource Monitor können zur Überprüfung der Systemleistung verwendet werden, doch die Leistungsüberlagerungsfunktion hat auch ihre Vorteile. Sie müssen beispielsweise das Programm oder die App, die Sie gerade verwenden, nicht verlassen

Leistungsvergleich Windows 10 vs. Windows 11: Welches ist besser? Leistungsvergleich Windows 10 vs. Windows 11: Welches ist besser? Mar 28, 2024 am 09:00 AM

Leistungsvergleich Windows 10 vs. Windows 11: Welches ist besser? Aufgrund der kontinuierlichen Weiterentwicklung und Weiterentwicklung der Technologie werden Betriebssysteme ständig aktualisiert und aktualisiert. Als einer der weltweit größten Betriebssystementwickler hat Microsoft mit seinen Windows-Betriebssystemen schon immer große Aufmerksamkeit bei den Benutzern auf sich gezogen. Im Jahr 2021 veröffentlichte Microsoft das Betriebssystem Windows 11, was breite Diskussionen und Aufmerksamkeit auslöste. Was ist also der Leistungsunterschied zwischen Windows 10 und Windows 11?

Vergleicht man die Leistung von Win11- und Win10-Systemen: Welches ist besser? Vergleicht man die Leistung von Win11- und Win10-Systemen: Welches ist besser? Mar 27, 2024 pm 05:09 PM

Das Windows-Betriebssystem war schon immer eines der am weitesten verbreiteten Betriebssysteme auf PCs, und Windows 10 war lange Zeit das Flaggschiff-Betriebssystem von Microsoft, bis Microsoft vor kurzem das neue Windows 11-System auf den Markt brachte. Mit der Einführung des Windows 11-Systems haben sich die Menschen für die Leistungsunterschiede zwischen Windows 10 und Windows 11-Systemen interessiert. Welches ist besser? Werfen wir zunächst einen Blick auf W

Kirin 8000-Prozessor konkurriert mit Snapdragon-Serie: Wer kann König sein? Kirin 8000-Prozessor konkurriert mit Snapdragon-Serie: Wer kann König sein? Mar 25, 2024 am 09:03 AM

Im Zeitalter des mobilen Internets sind Smartphones aus dem Alltag der Menschen nicht mehr wegzudenken. Die Leistung von Smartphones bestimmt oft direkt die Qualität des Benutzererlebnisses. Als „Gehirn“ eines Smartphones ist die Leistung des Prozessors besonders wichtig. Auf dem Markt steht die Qualcomm Snapdragon-Serie seit jeher für starke Leistung, Stabilität und Zuverlässigkeit, und kürzlich hat Huawei auch seinen eigenen Kirin 8000-Prozessor auf den Markt gebracht, dem eine hervorragende Leistung nachgesagt wird. Für normale Benutzer ist die Auswahl eines Mobiltelefons mit starker Leistung zu einer zentralen Frage geworden. Heute werden wir es tun

Vergleich der PHP- und Go-Sprachen: großer Leistungsunterschied Vergleich der PHP- und Go-Sprachen: großer Leistungsunterschied Mar 26, 2024 am 10:48 AM

PHP und Go sind zwei häufig verwendete Programmiersprachen und weisen unterschiedliche Eigenschaften und Vorteile auf. Unter ihnen sind Leistungsunterschiede ein Problem, das im Allgemeinen allen Sorgen bereitet. In diesem Artikel werden PHP- und Go-Sprachen aus Leistungssicht verglichen und ihre Leistungsunterschiede anhand spezifischer Codebeispiele demonstriert. Lassen Sie uns zunächst kurz die Grundfunktionen von PHP und der Go-Sprache vorstellen. PHP ist eine Skriptsprache, die ursprünglich für die Webentwicklung entwickelt wurde. Sie ist einfach zu erlernen und zu verwenden und wird im Bereich der Webentwicklung häufig verwendet. Die Go-Sprache ist eine von Google entwickelte kompilierte Sprache.

Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Die lokale Ausführungsleistung des Embedding-Dienstes übertrifft die von OpenAI Text-Embedding-Ada-002, was sehr praktisch ist! Apr 15, 2024 am 09:01 AM

Ollama ist ein superpraktisches Tool, mit dem Sie Open-Source-Modelle wie Llama2, Mistral und Gemma problemlos lokal ausführen können. In diesem Artikel werde ich vorstellen, wie man Ollama zum Vektorisieren von Text verwendet. Wenn Sie Ollama nicht lokal installiert haben, können Sie diesen Artikel lesen. In diesem Artikel verwenden wir das Modell nomic-embed-text[2]. Es handelt sich um einen Text-Encoder, der OpenAI text-embedding-ada-002 und text-embedding-3-small bei kurzen und langen Kontextaufgaben übertrifft. Starten Sie den nomic-embed-text-Dienst, wenn Sie o erfolgreich installiert haben

PHP-Array-Schlüsselwertumdrehen: Vergleichende Leistungsanalyse verschiedener Methoden PHP-Array-Schlüsselwertumdrehen: Vergleichende Leistungsanalyse verschiedener Methoden May 03, 2024 pm 09:03 PM

Der Leistungsvergleich der PHP-Methoden zum Umdrehen von Array-Schlüsselwerten zeigt, dass die Funktion array_flip() in großen Arrays (mehr als 1 Million Elemente) eine bessere Leistung als die for-Schleife erbringt und weniger Zeit benötigt. Die for-Schleifenmethode zum manuellen Umdrehen von Schlüsselwerten dauert relativ lange.

See all articles