Inhaltsverzeichnis
Eins. Forschungshintergrund
II. Forschungsmethode
1.Tip-Adapter
3. Bewertung der Domänengeneralisierungsfähigkeit
Vier. Fazit
Heim Technologie-Peripheriegeräte KI Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Apr 12, 2023 pm 03:25 PM
图像 训练

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich


  • Papier-Link: https://arxiv.org/pdf/2207.09519.pdf
  • Code-Link: https://github.com/gaopengcuhk/Tip-Adapter

Eins. Forschungshintergrund

Das Contrastive Image Language Pre-Training Model (CLIP) hat kürzlich starke Fähigkeiten zur visuellen Domänenübertragung gezeigt und kann eine Zero-Shot-Bilderkennung für einen neuen Downstream-Datensatz durchführen. Um die Migrationsleistung von CLIP weiter zu verbessern, verwenden bestehende Methoden Fow-Shot-Einstellungen wie CoOp und CLIP-Adapter, die eine kleine Menge an Trainingsdaten für nachgelagerte Datensätze bereitstellen, sodass CLIP bessere Entscheidungen für verschiedene visuelle Szenarien treffen kann . Anpassung. Dieser zusätzliche Schulungsschritt wird jedoch einen erheblichen zeitlichen und räumlichen Ressourcenaufwand mit sich bringen, der sich in gewissem Maße auf die inhärente schnelle Wissenstransferfähigkeit von CLIP auswirkt. Daher schlagen wir Tip-Adapter vor, eine Methode zur Bildklassifizierung mit wenigen Bildern, die kein zusätzliches Downstream-Training erfordert und die Genauigkeit von CLIP erheblich verbessern kann. Auf dieser Grundlage haben wir eine Lösung vorgeschlagen, die mit nur geringem Feinabstimmungsaufwand eine Leistung auf dem neuesten Stand der Technik erzielen kann: Tip-Adapter-F, die den besten Kompromiss zwischen Effizienz und Leistung erzielt. Wie in Tabelle 1 unten gezeigt, benötigt Tip-Adapter keine Trainingszeit, wodurch die Genauigkeit von CLIP im ImageNet-Datensatz um +1,7 % (Accuracy) verbessert werden kann, während Tip-Adapter-F nur ein Zehntel der Trainingszeit benötigt der vorherigen Lösung (Epochen, Zeit) kann die beste vorhandene Klassifizierungsleistung erreicht werden.

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Tabelle 1: Vergleich der Genauigkeit der 16-Aufnahmen-Bildklassifizierung und der Trainingszeit verschiedener Schemata im ImageNet-Datensatz

II. Forschungsmethode

1.Tip-Adapter

Die gesamte Netzwerkstruktur von Tip-Adapter ist in Abbildung 1 unten dargestellt. Für einen bestimmten Trainingsdatensatz und Etiketten mit wenigen Schüssen verwenden wir CLIP, um einen Cache für Nicht-Trainingslösungen zu erstellen Modell, das Klassifizierungswissen aus nachgelagerten Trainingsdaten speichert; Tip-Adapter erhält bessere endgültige Klassifizierungsergebnisse, indem es die Vorhersagen des Cache-Modells und die Vorhersagen des ursprünglichen CLIP linear addiert.

Im Detail verwenden wir den vorab trainierten visuellen Encoder von CLIP, um die Merkmale aller Bilder im Trainingssatz mit wenigen Aufnahmen als Schlüssel des Cache-Modells zu extrahieren und die entsprechenden Bildbezeichnungen in eins umzuwandeln. Hot-Codierungsform, als Werte des Cache-Modells. Diese Konstruktionsmethode des Schlüsselwert-Cache-Modells erfordert keinen Trainingsaufwand, da sie den vorab trainierten visuellen Encoder verwendet und da der Trainingssatz mit wenigen Aufnahmen nur eine kleine Anzahl von Bildern für jede Kategorie enthält (1 bis 16 Aufnahmen). Das Cache-Modell beansprucht außerdem nahezu keinen zusätzlichen Grafikspeicher-Overhead. Siehe die GPU-Speicherindikatoren in Tabelle 1.

Für ein Testbild verwenden wir zunächst den Visual Encoder von CLIP, um seine Funktionen abzurufen, und behandeln die Funktionen dann als Abfrage, um einen Wissensabruf für Downstream-Daten mit wenigen Aufnahmen im Cache-Modell durchzuführen. Da Schlüssel auch vom Visual Encoder von CLIP extrahiert werden, haben sie denselben Ursprung wie die Testbildfunktion. Abfrage. Wir können die Kosinusähnlichkeit zwischen ihnen direkt berechnen, um eine Schlüssel-Abfrage-Adjazenzmatrix zu erhalten. Diese Matrix kann als entsprechendes Gewicht angesehen werden zum Wert. Daher können wir die gewichtete Summe der Werte berechnen, um die Klassifizierungsvorhersage für dieses Testbild zu erhalten, das durch Abrufen des Cache-Modells erhalten wird. Darüber hinaus können wir auch die Zero-Shot-Vorhersage von CLIP erhalten, indem wir die Testbildfunktionen mit den Textfunktionen des Textual Encoder von CLIP abgleichen. Durch lineares Gewichten der Summe beider erhalten wir die endgültige Klassifizierungsvorhersage, die sowohl das durch CLIP vorab trainierte kontrastive Wissen der Bildsprache als auch das Wenig-Schuss-Wissen des neuen Downstream-Datensatzes enthält, sodass genauere Vorhersagen erzielt werden können. Hohe Bildklassifizierungsgenauigkeit.

Basierend auf der Netzwerkstruktur von Tip-Adapter können wir den Schlüsselteil im Cache-Modell weiter in Lernparameter umwandeln, die durch Training aktualisiert werden können. Diese Lösung ist Tip-Adapter-F. Mit Hilfe des bereits erstellten Cache-Modells benötigt Tip-Adapter-F nur ein Zehntel der Trainingsrunden und Zeit des vorhandenen CLIP-Adapters, um eine höhere Leistung zu erzielen, wie in Tabelle 1 gezeigt.

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Abbildung 1: Netzwerkflussdiagramm von Tip-Adapter und Tip-Adapter-F

2. Unterschiede und Zusammenhänge zwischen Tip-Adapter und bestehenden Lösungen

Vergleich CLIP-Adapter Wie in Abbildung 2 dargestellt, können die im Tip-Adapter gespeicherten Schlüssel und Werte tatsächlich den beiden linearen Schichten der Adapterstruktur im CLIP-Adapter entsprechen. Ersteres erfordert jedoch kein Training zum Erstellen und letzteres ist zufällig Anschließend ist Training erforderlich, um die optimalen Parameter zu erlernen. Abbildung 2: Tip-Adapter im Vergleich zu CLIP-Adapter Cache ist eine multimodale visuelle Sprache. Da die vom Text-Encoder von CLIP ausgegebenen Merkmale als Schlüsselwert des Textes betrachtet werden können, entspricht dies dem Testen der Bildmerkmale als Abfrage und dem Abrufen von Wissen im visuellen bzw. Text-Cache im Vergleich zur vorhandenen Lösung, die nur die enthält Mit dem visuellen Cache kann der Tip-Adapter multimodales Wissen nutzen, um eine stärkere Erkennungsleistung zu erzielen.

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Abbildung 3: Tip-Adapter im Vergleich zu anderen Lösungen zum Aufbau eines Cache-Modells

Drei. Experimentelle Ergebnisse1. Klassifizierungsgenauigkeit in ImageNet

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblichAbbildung 4 und Tabelle 2 vergleichen Tip-Adapter, Tip-Adapter-F und bestehende Lösungen in 1, 2, 4, 8 und 16 Aufnahmen 3 vergleicht die Genauigkeit von Visual Encoder unter Verwendung verschiedener CLIPs für den 16-Schuss-ImageNet-Datensatz. Es ist ersichtlich, dass beide unserer Lösungen eine hervorragende Leistung bei sehr geringem Ressourcenaufwand erzielen.

Abbildung 4 und Tabelle 2: Vergleich der 1-16-Aufnahmen-Bildklassifizierungsgenauigkeit verschiedener Methoden im ImageNet-Datensatz

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

5:16 - Schuss Vergleich der Bildklassifizierungsgenauigkeit von Visual Encoder mit verschiedenen CLIP auf ImageNet

2. In weiteren 10 Bildklassifizierungsdatensätzen


Wie in Abbildung 5 gezeigt, stellen wir die Genauigkeit von weiteren 10 Bildklassifizierungsdatensätzen bereit Die Ergebnisse sind StandfordCars, UCF101, Caltech101, Flowers102, SUN397, DTD, EuroSAT, FGVCAircraft, OxfordPets und Food101. Wie in der Abbildung gezeigt, erreichten alle unsere Tip-Adapter-F die höchste Erkennungsgenauigkeit.

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Abbildung 5: Vergleich der Klassifizierungsgenauigkeit von Bildern mit 1 bis 16 Aufnahmen verschiedener Methoden an weiteren 10 Datensätzen

3. Bewertung der Domänengeneralisierungsfähigkeit

Wir haben auch die Leistung von Tip-Adapter und Tip-Adapter-F bei der Domänengeneralisierung getestet. Wie in Tabelle 6 gezeigt, weisen beide unserer Schemata eine hohe Robustheit und Fähigkeit zur Funktionsübertragung auf.

Ohne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich

Vier. Fazit

Dieses Papier schlägt Tip-Adapter vor, eine schulungsfreie Lösung für die Verwendung von CLIP für die nachgelagerte Bildklassifizierung mit wenigen Aufnahmen. Tip-Adapter erstellt ein Schlüsselwert-Cache-Modell als Wissensabrufdatenbank für die Testbildabfrage und erzielt eine stärkere Erkennungsleistung durch die Zusammenführung der Vorhersagen des Cache-Modells und der Zero-Shot-Vorhersagen von CLIP. Wir hoffen, dass Tip-Adapter weitere Folgearbeiten zur effizienten Migration vorab trainierter Modelle anregen kann.

Das obige ist der detaillierte Inhalt vonOhne nachgelagertes Training verbessert Tip-Adapter die Genauigkeit der CLIP-Bildklassifizierung erheblich. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Apr 03, 2024 pm 12:04 PM

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5 Tongyi Qianwen ist wieder Open Source, Qwen1.5 bietet sechs Volumenmodelle und seine Leistung übertrifft GPT3.5 Feb 07, 2024 pm 10:15 PM

Pünktlich zum Frühlingsfest ist Version 1.5 des Tongyi Qianwen Large Model (Qwen) online. Heute Morgen erregten die Neuigkeiten über die neue Version die Aufmerksamkeit der KI-Community. Die neue Version des großen Modells umfasst sechs Modellgrößen: 0,5B, 1,8B, 4B, 7B, 14B und 72B. Unter ihnen übertrifft die Leistung der stärksten Version GPT3.5 und Mistral-Medium. Diese Version umfasst das Basismodell und das Chat-Modell und bietet Unterstützung für mehrere Sprachen. Das Tongyi Qianwen-Team von Alibaba gab an, dass die entsprechende Technologie auch auf der offiziellen Website von Tongyi Qianwen und der Tongyi Qianwen App eingeführt wurde. Darüber hinaus bietet die heutige Version von Qwen 1.5 auch die folgenden Highlights: Unterstützt eine Kontextlänge von 32 KB und öffnet den Prüfpunkt des Base+Chat-Modells.

Verzichten Sie auf die Encoder-Decoder-Architektur und verwenden Sie das Diffusionsmodell zur Kantenerkennung, das effektiver ist. Die National University of Defense Technology hat DiffusionEdge vorgeschlagen Verzichten Sie auf die Encoder-Decoder-Architektur und verwenden Sie das Diffusionsmodell zur Kantenerkennung, das effektiver ist. Die National University of Defense Technology hat DiffusionEdge vorgeschlagen Feb 07, 2024 pm 10:12 PM

Aktuelle Deep-Edge-Erkennungsnetzwerke verwenden normalerweise eine Encoder-Decoder-Architektur, die Up- und Down-Sampling-Module enthält, um mehrstufige Merkmale besser zu extrahieren. Diese Struktur schränkt jedoch die Ausgabe genauer und detaillierter Kantenerkennungsergebnisse des Netzwerks ein. Als Antwort auf dieses Problem bietet ein Papier zu AAAI2024 eine neue Lösung. Titel der Abschlussarbeit: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection Autoren: Ye Yunfan (Nationale Universität für Verteidigungstechnologie), Xu Kai (Nationale Universität für Verteidigungstechnologie), Huang Yuxing (Nationale Universität für Verteidigungstechnologie), Yi Renjiao (Nationale Universität für Verteidigungstechnologie), Cai Zhiping (National University of Defense Technology) Link zum Papier: https://ar

Große Modelle können ebenfalls in Scheiben geschnitten werden, und Microsoft SliceGPT erhöht die Recheneffizienz von LLAMA-2 erheblich Große Modelle können ebenfalls in Scheiben geschnitten werden, und Microsoft SliceGPT erhöht die Recheneffizienz von LLAMA-2 erheblich Jan 31, 2024 am 11:39 AM

Große Sprachmodelle (LLMs) verfügen typischerweise über Milliarden von Parametern und werden auf Billionen von Token trainiert. Die Schulung und Bereitstellung solcher Modelle ist jedoch sehr teuer. Um den Rechenaufwand zu reduzieren, werden häufig verschiedene Modellkomprimierungstechniken eingesetzt. Diese Modellkomprimierungstechniken können im Allgemeinen in vier Kategorien unterteilt werden: Destillation, Tensorzerlegung (einschließlich Faktorisierung mit niedrigem Rang), Bereinigung und Quantisierung. Pruning-Methoden gibt es schon seit einiger Zeit, aber viele erfordern nach dem Pruning eine Feinabstimmung der Wiederherstellung (Recovery Fine-Tuning, RFT), um die Leistung aufrechtzuerhalten, was den gesamten Prozess kostspielig und schwierig zu skalieren macht. Forscher der ETH Zürich und von Microsoft haben eine Lösung für dieses Problem namens SliceGPT vorgeschlagen. Die Kernidee dieser Methode besteht darin, die Einbettung des Netzwerks durch das Löschen von Zeilen und Spalten in der Gewichtsmatrix zu reduzieren.

Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Apr 29, 2024 pm 06:55 PM

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Jun 11, 2024 am 09:51 AM

Was? Wird Zootopia durch heimische KI in die Realität umgesetzt? Zusammen mit dem Video wird ein neues groß angelegtes inländisches Videogenerationsmodell namens „Keling“ vorgestellt. Sora geht einen ähnlichen technischen Weg und kombiniert eine Reihe selbst entwickelter technologischer Innovationen, um Videos zu produzieren, die nicht nur große und vernünftige Bewegungen aufweisen, sondern auch die Eigenschaften der physischen Welt simulieren und über starke konzeptionelle Kombinationsfähigkeiten und Vorstellungskraft verfügen. Den Daten zufolge unterstützt Keling die Erstellung ultralanger Videos von bis zu 2 Minuten mit 30 Bildern pro Sekunde, mit Auflösungen von bis zu 1080p und unterstützt mehrere Seitenverhältnisse. Ein weiterer wichtiger Punkt ist, dass es sich bei Keling nicht um eine vom Labor veröffentlichte Demo oder Video-Ergebnisdemonstration handelt, sondern um eine Anwendung auf Produktebene, die von Kuaishou, einem führenden Anbieter im Bereich Kurzvideos, gestartet wurde. Darüber hinaus liegt das Hauptaugenmerk darauf, pragmatisch zu sein, keine Blankoschecks auszustellen und sofort nach der Veröffentlichung online zu gehen. Das große Modell von Ke Ling wurde bereits in Kuaiying veröffentlicht.

Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. May 07, 2024 pm 05:00 PM

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,

See all articles