Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

王林
Freigeben: 2023-09-15 12:13:10
nach vorne
670 Leute haben es durchsucht

Mit dem Aufkommen der Deep-Learning-Technologie ist die visuelle Bildverarbeitung in den letzten Jahren immer beliebter geworden und wurde in verschiedenen Bereichen weit verbreitet. Gleichzeitig ist eine große Anzahl von Praktikern entstanden. Viele Menschen nutzen jedoch nur Deep Learning und denken, dass herkömmliche Bildverarbeitungsalgorithmen veraltet sind. Ich habe einmal jemanden sagen hören, dass die Bildverarbeitung so weit verbreitet ist, dass herkömmliche Algorithmen veraltet sind und der Schwellenwert sehr niedrig ist und jeder sie verwenden kann. Ehrlich gesagt, wenn ich solche Bemerkungen höre, bin ich manchmal wirklich sprachlos

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Ich habe heute einfach etwas Zeit und möchte über dieses Thema sprechen. Lassen Sie uns zunächst analysieren, wofür die Bildverarbeitung hauptsächlich verwendet wird. Unabhängig davon, in welcher Branche die Bildverarbeitung eingesetzt wird, umfassen ihre Hauptfunktionen Identifizierung, Klassifizierung, Positionierung, Erkennung, Größenmessung und visuelle Führung. Da einige Leute sagen, dass Deep Learning die traditionelle Bildverarbeitungstechnologie ersetzt hat, werde ich Ihnen heute ein Beispiel geben. Schauen wir uns einige konkrete Fälle an, um die Anwendung von Deep Learning zu sehen. Gleichzeitig wollen wir auch sehen, ob die traditionelle Bildverarbeitungstechnologie noch ihre Berechtigung hat.

Lassen Sie uns zunächst kurz vorstellen, was die oben genannten Hauptfunktionen des Sehens sind. Es besteht ein gewisser Zusammenhang zwischen Identifizierung und Klassifizierung. Gesichtserkennung, Nummernschilderkennung, Zeichenerkennung, Barcode-/QR-Code-Erkennung, Produktkategorieerkennung, Fruchterkennung usw. sind allesamt Bilderkennungstechnologien. Nach Abschluss der Erkennung werden die Erkennungsergebnisse manchmal direkt ausgegeben, und manchmal ist eine Klassifizierung erforderlich . Beispielsweise müssen die in der gemischten Produktionslinie identifizierten Produkte klassifiziert und verpackt werden

Auf Chinesisch umgeschrieben: Es gibt viele Positionierungsmethoden. Manchmal muss man den Zielort nur grob kennen, manchmal braucht man eine genaue Positionierung, damit der Roboter ihn automatisch greifen kann. Zu den Erkennungsmethoden gehören die Zielerkennung und die Fehlererkennung. Die Zielerkennung muss normalerweise nur wissen, ob das Ziel in der Szene vorhanden ist, während die Fehlererkennung nicht nur erkennt, ob der Fehler vorhanden ist, sondern auch die Größe und Kategorie des Fehlers bestimmen muss. Das Ziel der Größenmessung ist sehr klar , um visuell zu erkennen, ob die spezifische Größe des Zielobjekts den Anforderungen entspricht. Die visuelle Führung wird mit dem automatischen Greifen des Roboters kombiniert. Er muss die Zielposition genau lokalisieren und auch die spezifische Position des Greifers bestimmen, um zu verhindern, dass das Ziel herunterfällt, wenn sich der Roboter bewegt. Ich werde unten einige spezifische Fälle auflisten, die zeigen, wie Sie können Deep Learning nutzen, um dies zu erreichen. Da das Unternehmen nicht möchte, dass diese Bilder veröffentlicht werden, erfassen die folgenden Bilder nur einen kleinen Teil davon und der konkrete Inhalt kann nicht bestimmt werden

Alle folgenden Beispiele sind tatsächliche Bedürfnisse des Unternehmens und die Bilder wurden ebenfalls aufgenommen vor Ort. Schauen wir uns zunächst einen einfachen Fall der Zeichenerkennung an. In diesem Fall muss festgestellt werden, ob diese Zeichen korrekt sind. Das Budget beträgt 20.000 Yuan pro visuellem System. Die Gesamtkosten betragen 2 Millionen Yuan. Meinen Sie, dass es getan werden sollte oder nicht? Obwohl 2 Millionen Yuan schon viel Geld sind, kostet jedes Vision-System nur 20.000 Yuan. Wird es profitabel sein? Wenn der Host-Computer außerdem fehlerhafte Zeichen erkennt, müssen diese automatisch beseitigt werden

Eine kurze Analyse zeigt, dass 20 Produkte pro Sekunde erkannt werden können, was bedeutet, dass jedes Produkt innerhalb von 50 Millisekunden fertiggestellt werden muss. Gleichzeitig muss der Host-Computer ein Signal an den Ablehnungsmechanismus senden. Um die Stabilität des Signals sicherzustellen, müssen 20 Millisekunden reserviert werden. Die restlichen 30 Millisekunden werden für die Bildaufnahme und Bildbearbeitung verwendet. Für das Deep-Learning-Training muss die Konfiguration des Industriecomputers berücksichtigt werden. Darüber hinaus müssen die Kosten für SPS, Aussortiergerät, Kamera, Lichtquelle, Objektiv, Gehäuse und anderes kleines Zubehör berücksichtigt werden. Wie viel kostet die manuelle Inbetriebnahme vor Ort? Wie hoch sind die Gesamtkosten?

Lassen Sie uns ein weiteres Beispiel geben. Das Bild unten zeigt die Erkennung von Schweißfehlern. Es gibt viele Arten von Schweißfehlern. Jemand hat einmal eine Woche lang Deep Learning eingesetzt, um zu trainieren und zu erkennen. Sie sagten mir, die Testergebnisse seien großartig, aber einen Monat später meldeten sie sich bei mir und sagten, sie könnten sich die Kosten nicht leisten und die Testergebnisse seien schlecht. Denken Sie darüber nach, warum passiert das?

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Nehmen wir ein weiteres Beispiel. Das Bild unten ist ein Beispiel für die Barcode-Erkennung. Sie sehen, dass der Barcode sehr verschwommen und schwer zu identifizieren ist, oder? Wir können Deep Learning nutzen, um es zu identifizieren

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Als Beispiel schauen wir uns das Bild unten an. Wir müssen prüfen, ob die Dicke auf beiden Seiten gleichmäßig ist und ob es Mängel auf der Oberfläche gibt. Wie können wir also Deep Learning nutzen, um dieses Problem zu lösen? Jemand hat es einmal ein halbes Jahr lang vor Ort getestet, aber am Ende war der Kunde nicht zufrieden

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Wie nutzt man Deep Learning, um den Roboter automatisch zu greifen und den Neigungswinkel des gegriffenen Objekts zu erkennen, um so die Haltung des Roboters anzupassen?

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Wie misst man mithilfe von Deep Learning die Größe einer Feder, die über einen bestimmten Zeitraum verwendet wurde, um festzustellen, ob sie geeignet ist? Wie kann man andere ähnliche Parameter von Lagern, Zahnrädern, Gewinden usw. messen?

Kann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?

Die oben genannten Beispiele sind nur ein kleiner Teil vieler tatsächlicher Fälle, die immer wieder auftauchen, wie etwa automatisches Anziehen von Schrauben, ungeordnetes Greifen und präzise Positionierung im Mikrometerbereich. Leider verwenden viele Menschen jedoch nur Deep Learning, und einige behaupten, die Bildverarbeitung sei veraltet und Deep Learning habe andere Bildverarbeitungsmethoden ersetzt, ohne die grundlegenden Bildkonzepte zu verstehen. Wenn Sie mit realeren Fällen konfrontiert wären, würden Sie so etwas nicht sagen

Viele Menschen glauben fälschlicherweise, dass sie zum Training nur Bilder in das Deep-Learning-Modell eingeben müssen. Wenn der Effekt nicht gut ist, können sie das Training steigern Proben oder passen Sie die Parameter an, um das ideale Ergebnis zu erzielen. Ich kann nur sagen, dass dieses Bildverständnis zu oberflächlich ist. Die häufigsten Bildanwendungen sind Gesichtserkennung und Nummernschilderkennung. Für diese Erkennungsaufgaben stellt der Einsatz von Deep Learning kein großes Problem dar, da die Anforderungen an die Erkennung nicht hoch sind. Selbst wenn die Erkennung lange dauert oder ein Erkennungsfehler auftritt, stellt dies kein allzu großes Problem dar. Wenn das Gesicht beispielsweise nicht erkannt werden kann, können Sie bei der Zahlung per Gesichtserkennung auch manuell bezahlen. Wenn das Nummernschild oder das Gesicht nicht erkannt werden kann, können Sie auch die Tür öffnen manuell. In einem vollautomatischen Anwendungsszenario ist diese Situation jedoch nicht zulässig. Zur Erkennung, Klassifizierung und Identifizierung von Produktfehlern ist Deep Learning eine häufig verwendete Methode, muss jedoch auch entsprechend der spezifischen Situation entschieden werden. Darüber hinaus müssen vor dem Training normalerweise andere Bildverarbeitungsalgorithmen verwendet werden.

Manche Leute verwenden einfach öffentliche Datensätze, um Deep-Learning-Modelle zu trainieren und Artikel zu schreiben, was kein Problem darstellt. Bis zur praktischen Anwendung dieser Modelle ist es jedoch noch ein weiter Weg. Ein mir bekanntes Unternehmen rekrutierte einige Doktoranden, um an der visuellen Inspektion zu arbeiten. Dies führte jedoch dazu, dass sie vom Leiter heftig kritisiert wurden. Wissen Sie warum?

Deep Learning hat seinen Platz im Anwendungsbereich, das ist eine unbestreitbare Tatsache. Sie ist jedoch nur ein Teil der Sichtprüfung und kann in vielen anderen Aspekten nicht umgesetzt werden. Die aktuelle visuelle Erkennungstechnologie kann nur auf einige einfache Szenen angewendet werden. Bei vielen komplexen Szenen kann unabhängig vom verwendeten Algorithmus keine effektive Erkennung erreicht werden. Daher haben visuelle Bildverarbeitungsalgorithmen noch einen langen Weg vor sich. Wenn Deep Learning Bilder trainiert, ist normalerweise eine gewisse Verarbeitung des Originalbilds erforderlich, z. B. Filterung, Verbesserung, Schwellenwertsegmentierung, Kantenerkennung und morphologische Operationen. Manchmal ist es auch notwendig, das Bild zu verarbeiten und dann Bildmerkmale für Deep-Learning-Training direkt zu extrahieren. Viele Menschen, die sich mit visueller Arbeit beschäftigen, verstehen dieses Prinzip

Es wurde bereits erwähnt, dass es ausreicht, sich eingehend mit einer Richtung zu befassen, wenn man nur eine Arbeit schreiben möchte. Eine vertiefte theoretische Forschung ist ebenfalls erfolgsversprechend, erfordert jedoch höhere persönliche theoretische Fähigkeiten. Wenn Sie noch keine Erfahrung mit tatsächlichen Bildverarbeitungsanwendungen haben, sollten Sie nicht einfach so behaupten, dass andere Bildverarbeitungsalgorithmen nicht mehr verwendet werden. Brauchen wir also immer noch herkömmliche Bildverarbeitungsalgorithmen? Verarbeitung? Was ist mit Verarbeitungsalgorithmen? Ich denke, die Antwort auf diese Frage ist klar. Wenn immer noch etwas unklar ist, denken Sie bitte sorgfältig darüber nach, mit wie vielen Vision-bezogenen Projekten Sie konfrontiert waren und was Sie sonst noch nicht wissen. Verstehen Sie wirklich, was eine visuelle Inspektion leisten kann und wie man sie durchführt? Nur sehr wenige visuelle Inspektionen werden allein durch die Verwendung eines einzigen Bildverarbeitungsalgorithmus erreicht. Daher müssen wir auf Anwendungsebene die Verwendung verschiedener Bildverarbeitungsalgorithmen und die kombinierte Anwendung verschiedener Algorithmen beherrschen, um in der visuellen Industrie problemlos agieren zu können. Die Sommerferien stehen vor der Tür. Die Sommerferien sind eine sehr gute Zeit zum Lernen. Nutzen Sie diese Ferien und diese Lernplattform, um die Anwendung von Bildverarbeitungsalgorithmen schnell zu beherrschen

Das obige ist der detaillierte Inhalt vonKann Deep Learning andere Bildverarbeitungsalgorithmen ersetzen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!