Kürzlich wurden die Ergebnisse des CVPR 2023-Wettbewerbs bekannt gegeben. NetEase Fuxi Lab erreichte den ersten Platz bei der CVPR 2023 UG2+ Haze Target Recognition Challenge und der VizWiz Few-Sample Target Recognition Challenge. Ihre entsprechenden Arbeiten wurden auch von TIP, der führenden internationalen Fachzeitschrift, angenommen. Dies zeigt, dass die herausragenden technologischen Innovationsfähigkeiten von NetEase Fuxi im Bereich Computer Vision international hohe Anerkennung genießen.
Von Februar bis Juni 2023 hat die IEEE/CVF Computer Vision and Pattern Recognition Conference (CVPR), als führende Konferenz im Bereich der internationalen Computer Vision und Mustererkennung, mit weltweit renommierten akademischen Institutionen und namhaften Unternehmen zusammengearbeitet um eine Reihe von Herausforderungen zu veranstalten. Diese Herausforderungen haben eine breite Beteiligung vieler KI-Forschungsteams hervorgerufen. Kürzlich hat CVPR nacheinander die Auszeichnungsergebnisse bekannt gegeben und Auszeichnungszertifikate ausgestellt. Als eine der führenden akademischen KI-Konferenzen des IEEE verfügt CVPR über einen äußerst hohen akademischen Einfluss und gesellschaftliche Anerkennung.
Bei der CVPR 2023 UG2+Object Detection in Haze Challenge und der CVPR 2023 VizWiz Few-Shot Object Recognition Challenge arbeiteten NetEase Fuxi und der China Science and Technology Teacher Yu Jun von der Universität als Team und erreichten den ersten Platz. Diese Zusammenarbeit konzentriert sich hauptsächlich auf zwei Aspekte: Zielerkennung und Zielerkennung mit wenigen Stichproben im Bereich Computer Vision. Diese Technologien können bei Sehaufgaben in verschiedenen Bereichen umfassend eingesetzt werden. Insbesondere in industriellen Anwendungen ist die Zielerkennung mit wenigen Proben von großem Wert und Bedeutung in Szenarien, in denen die Datenerfassung und -annotation schwierig ist. Durch den Erfolg dieses Wettbewerbs haben wir die Forschungsstärke und Innovationsfähigkeit von NetEase Fuxi im Bereich Computer Vision unter Beweis gestellt. Wir werden uns weiterhin dafür einsetzen, die Entwicklung der Computer-Vision-Technologie voranzutreiben und genauere und effizientere Lösungen für praktische Anwendungen bereitzustellen.
UG2+ zielt darauf ab, die Analyse „schwieriger“ Bilder durch die Anwendung von Bildwiederherstellungs- und -verbesserungsalgorithmen voranzutreiben, um die Analyseleistung zu verbessern. Die Aufgabe der Teilnehmer besteht darin, neue Algorithmen zu entwickeln, um die Analyse von Bildern zu verbessern, die unter problematischen Bedingungen aufgenommen wurden. Ziel von VizWiz ist es, mehr Menschen für die Technologiebedürfnisse und -interessen von Menschen mit Sehbehinderungen zu sensibilisieren und Forscher im Bereich der künstlichen Intelligenz zu ermutigen, neue Algorithmen zu entwickeln, um Barrieren bei der Zugänglichkeit zu beseitigen. Wettbewerbe umfassen in der Regel Aufgaben wie das Identifizieren von Objekten in Bildern, das Identifizieren von Text in Bildern und das Beantworten von Fragen zu Bildern. Im Folgenden finden Sie einen kurzen Überblick über das preisgekrönte Papier von NetEase Fuxi:
Omni-Frequency Channel-Selection Representations for Unsupervised Anomaly Detection
Omni-Frequency Channel-Selection Representations for Unsupervised Anomaly Detection
Stichwörter: Unsupervised Image Anomaly Detection
Die Anomalieerkennung spielt eine wichtige Rolle beim visuellen Bildverständnis und wird verwendet, um festzustellen, ob ein bestimmtes Bild von einem voreingestellten Normalzustand abweicht. Es wird häufig zur Erkennung von Neuheiten, zur bildbasierten Überwachung der Produktqualität in der Industrie, zur automatischen Fehlerbeseitigung, zur Überwachung der menschlichen Gesundheit und zur Videoüberwachung eingesetzt. Derzeit gibt es drei Haupttypen gängiger unbeaufsichtigter Anomalieerkennungsmethoden, darunter dichtebasierte Methoden, klassifizierungsbasierte Methoden und rekonstruktionsbasierte Methoden. Diese Methoden ermöglichen die Anomalieerkennung durch die Analyse der statistischen Eigenschaften von Bildern, das Erlernen normaler Proben und die Rekonstruktion von Bildern und bieten zuverlässige Werkzeuge und technischen Support für verschiedene Anwendungen.
Unter diesen wird die auf Rekonstruktion basierende Methode aufgrund der schlechten Rekonstruktionsfähigkeit und der geringen Leistung selten erwähnt. Sie erfordert jedoch keine große Anzahl zusätzlicher Trainingsbeispiele für unbeaufsichtigtes Training und ist in industriellen Anwendungen praktischer. Zu diesem Zweck konzentriert sich diese Studie auf die Verbesserung der rekonstruktionsbasierten Methode und schlägt ein neues kanalselektives Rekonstruktionsnetzwerk mit voller Frequenz (OCR-GAN) vor, das als erstes die Aufgabe der Erkennung sensorischer Anomalien aus der Perspektive der Frequenz übernimmt. Zahlreiche Experimente haben die Wirksamkeit und Überlegenheit dieser Methode gegenüber anderen Methoden nachgewiesen. Ohne zusätzliche Trainingsdaten wird beispielsweise eine neue SOTA-Leistung für den MVTec AD-Datensatz mit einer AUC von 98,3 erreicht, was den Basiswert der rekonstruktionsbasierten Methode von 38,1 und die aktuelle SOTA-Methode um 0,3 deutlich übertrifft.
Das Papier schlägt eine innovative Lösung zur Lösung des UI-Anomalieproblems beim Testen der Smart-Game-Kompatibilität vor. Diese Lösung nutzt Technologie der künstlichen Intelligenz, um automatisch UI-Anomalien zu erkennen, die während der Ausführung des Spiels auftreten, und realisiert die Automatisierung von Spielkompatibilitätstests. Durch die Verwendung der Bildanomalie-Erkennungstechnologie erkennen wir automatisch eine große Anzahl generierter Screenshots der Spieloberfläche aus der Sicht der Computer Vision, erhalten daraus abnormale Bilder der Benutzeroberfläche und unterstützen Spieleentwickler dabei, die Ursache des Problems schnell und genau zu lokalisieren und so effektiv zu sparen Spieltests. Die Arbeitskosten von Experten.
Dieser Artikel wurde in Zusammenarbeit mit dem Team von Professor Liu Yong von der Zhejiang-Universität für die Veröffentlichung in der Zeitschrift IEEE Transactions on Image Processing (TIP) ausgewählt. TIP ist die Top-Zeitschrift im Bereich der Bildverarbeitungsforschung gemäß IEEE. Es handelt sich um eine Zeitschrift im SCI-Bereich der Chinesischen Akademie der Wissenschaften und eine empfohlene Zeitschrift der Kategorie A im Bereich Computergrafik und Multimedia (CCF A). von der China Computer Society. Der Impact Factor der Zeitschrift liegt im Zeitraum 2022–2023 bei 11,041.
Das obige ist der detaillierte Inhalt vonNetEase Fuxi gewann die CVPR 2023 UG2+- und VizWiz-Wettbewerbe und seine Arbeit wurde als TIP ausgewählt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!