Elektronische Computer wurden in den 1940er Jahren geboren und innerhalb von 10 Jahren nach dem Aufkommen von Computern erschien die erste KI-Anwendung in der Geschichte der Menschheit.
KI-Modelle werden seit mehr als 70 Jahren entwickelt und können nun nicht nur Gedichte erstellen, sondern auch Bilder basierend auf Textaufforderungen erzeugen und sogar Menschen dabei helfen, unbekannte Proteinstrukturen zu entdecken
In so kurzer Zeit , KI-Technologie hat exponentielle Ergebnisse erzielt Ebenenwachstum, was ist der Grund dafür?
Ein langes Bild aus „Our World in Data“ zeichnet die Geschichte der KI-Entwicklung anhand von Änderungen in der Rechenleistung nach, die zum Trainieren von KI-Modellen als Maßstab verwendet wird.
Hochauflösendes großes Bild: https://www.visualcapitalist.com/wp-content/uploads/2023/09/01.-CP_AI-Computation-History_Full-Sized.html Der Inhalt, der neu geschrieben werden muss, ist: Link zu hochauflösenden Großbildern: https://www.visualcapitalist.com/wp-content/uploads/2023/09/01.-CP_AI-Computation-History_Full-Sized.html
Die Quelle dieser Daten ist ein Artikel, der von Forschern des MIT und anderer Universitäten veröffentlicht wurde. Ein anderes Forschungsteam erstellte eine visuelle Tabelle basierend auf den Daten in diesem Artikel. Benutzer können das Diagramm nach Belieben vergrößern und verkleinern, um detailliertere Daten zu erhalten
Der Inhalt, der neu geschrieben werden muss, ist: Tabellenadresse: https://epochai.org/blog/compute-trends#compute -Trends-sind-langsamer-als-zuvor-berichtet
Der Autor des Diagramms schätzt hauptsächlich den Rechenaufwand für das Training jedes Modells, indem er die Anzahl der Operationen und die GPU-Zeit berechnet, für welches Modell er als Vertreter ausgewählt werden soll Als wichtiges Modell verwendet der Autor hauptsächlich drei Eigenschaften zur Schätzung:
Erhebliche Bedeutung: Ein System hat erhebliche historische Auswirkungen, verbessert SOTA erheblich oder wurde mehr als 1.000 Mal zitiert.
Relevanz: Der Autor berücksichtigt nur Artikel, die experimentelle Ergebnisse und wichtige Komponenten des maschinellen Lernens enthalten, und das Ziel des Artikels besteht darin, die Entwicklung bestehender SOTA zu fördern.
Einzigartigkeit: Wenn es einen anderen einflussreicheren Artikel gibt, der dasselbe System beschreibt, wird der Artikel aus dem Datensatz des Autors entfernt brachte einer Robotermaus namens Theseus bei, durch ein Labyrinth zu navigieren und sich seine Wege zu merken. Dies ist die erste Instanz künstlichen Lernens
Theseus basiert auf 40 Gleitkommaoperationen (FLOPs). FLOPs werden üblicherweise als Maß für die Rechenleistung der Computerhardware verwendet. Je höher die Anzahl der FLOPs, desto größer die Rechenleistung und desto leistungsfähiger das System.
Der Fortschritt der KI basiert auf drei Schlüsselelementen: Rechenleistung, verfügbaren Trainingsdaten und Algorithmen. In den ersten Jahrzehnten der KI-Entwicklung wuchs der Bedarf an Rechenleistung gemäß dem Mooreschen Gesetz weiter, was bedeutet, dass sich die Rechenleistung etwa alle 20 Monate verdoppelte Mit dem Aufkommen der erkennenden künstlichen Intelligenz (KI), die den Beginn der Deep-Learning-Ära markierte, wurde diese Verdopplungszeit erheblich auf sechs Monate verkürzt, da die Forscher ihre Investitionen in Computer und Prozessoren erhöhten
Mit dem AlphaGo 2015 Mit dem Aufkommen von Go – ein Computerprogramm, das einen professionellen menschlichen Go-Spieler besiegte – haben Forscher ein drittes Zeitalter entdeckt: die Ankunft groß angelegter KI-Modelle, deren Rechenanforderungen größer sind als alle bisherigen KI-Systeme.
Rückblickend auf die letzten zehn Jahre ist die Wachstumsrate der Rechenleistung einfach unglaublich
Zum Beispiel war die Rechenleistung, die zum Trainieren von Minerva, einer KI, die komplexe mathematische Probleme lösen kann, verwendet wurde, fast sechs Millionen Mal so hoch wie die Rechenleistung, die vor zehn Jahren zum Trainieren von AlexNet verwendet wurde.
Dieses Wachstum in der Datenverarbeitung, gepaart mit der massiven Verfügbarkeit von Datensätzen und besseren Algorithmen, hat es der KI ermöglicht, in extrem kurzer Zeit große Fortschritte zu machen. Heute kann KI nicht nur das menschliche Leistungsniveau erreichen, sondern in vielen Bereichen sogar den Menschen übertreffen.
Aus der obigen Abbildung geht deutlich hervor, dass künstliche Intelligenz in vielen Bereichen die menschliche Leistung übertroffen hat und in anderen Aspekten bald auch die Leistung des Menschen übertreffen wird .
Die folgende Abbildung zeigt, in welchem Jahr die KI das menschliche Niveau bei allgemeinen Fähigkeiten erreicht oder übertroffen hat, die Menschen in der täglichen Arbeit und im Leben nutzen.
Es ist schwierig zu bestimmen, ob das Computerwachstum die gleiche Geschwindigkeit beibehalten kann. Das Training großer Modelle erfordert immer mehr Rechenleistung. Wenn das Angebot an Rechenleistung nicht weiter wachsen kann, kann dies die Entwicklung der Technologie der künstlichen Intelligenz verlangsamen. Ebenso kann es auch dazu führen, dass alle derzeit verfügbaren Daten erschöpft sind zum Trainieren von KI-Modellen. Erschwert die Entwicklung und Implementierung neuer Modelle.
Im Jahr 2023 wird die KI-Branche einen Kapitalzufluss erleben, insbesondere generative KI, repräsentiert durch große Sprachmodelle. Dies könnte darauf hindeuten, dass weitere Durchbrüche bevorstehen. Es scheint, dass die oben genannten drei Elemente, die die Entwicklung der KI-Technologie fördern, in Zukunft weiter optimiert und weiterentwickelt werden. In der ersten Hälfte des Jahres 2023 wird der Finanzierungsumfang von Startups in der Die KI-Industrie erreichte 140 Milliarden, sogar mehr als die Gesamtfinanzierung, die in den letzten vier Jahren erhalten wurde.
Und eine große Anzahl (78 %) der generativen KI-Startups befindet sich noch in einem sehr frühen Entwicklungsstadium, und sogar 27 % der generativen KI-Startups haben noch keine Mittel eingesammelt.
Mehr als 360 Unternehmen im Bereich der generativen künstlichen Intelligenz, 27 % haben noch keine Mittel aufgebracht. Bei mehr als der Hälfte handelt es sich um Projekte der ersten Runde oder früher, was darauf hindeutet, dass sich die gesamte generative KI-Branche noch in einem sehr frühen Stadium befindet.
Aufgrund der kapitalintensiven Natur der Entwicklung groß angelegter Sprachmodelle hat die Kategorie der generativen KI-Infrastruktur seit dem dritten Quartal 2022 über 70 % der Mittel erhalten, was nur 10 % des gesamten generativen KI-Transaktionsvolumens ausmacht. Ein Großteil der Finanzierung stammt aus dem Interesse der Anleger an neuer Infrastruktur wie zugrunde liegenden Modellen und APIs, MLOps (Machine Learning Operations) und Vektordatenbanktechnologie.
Das obige ist der detaillierte Inhalt vonDie KI-Technologie explodiert exponentiell: Die Rechenleistung hat sich in 70 Jahren um das 680-Millionen-fache erhöht, was in drei historischen Phasen zu beobachten ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!