


Wohin wird die KI-Rechenleistung im Zeitalter des „großen Bauwesens' gehen?
Rechenleistung bedeutet Produktivität, und wer über Rechenleistung verfügt, gewinnt die Welt.
Mit der rasanten Entwicklung und den Durchbrüchen der neuen Generation der künstlichen Intelligenz ist die Nachfrage nach KI-Rechenleistung, die hauptsächlich auf dem Deep-Learning-Rechenmodus basiert, exponentiell gestiegen.
Daten zeigen, dass sich die Rechenkomplexität der KI zwischen 1960 und 2010 alle zwei Jahre verdoppelte; zwischen 2010 und 2020 stieg die Rechenkomplexität der KI jedes Jahr um das Zehnfache.
Angesichts solch großer Modelle und komplexer Berechnungen ist es dringend erforderlich, die Rechenleistung der KI zu verbessern.
Schließlich sind unter den drei Elementen der Entwicklung künstlicher Intelligenz: Daten, Algorithmen und Rechenleistung sowohl Daten als auch Algorithmen untrennbar mit der Unterstützung durch Rechenleistung verbunden.
Woher kommt also die KI-Rechenleistung?
KI-Rechenleistung ist in eine Phase des „großen Aufbaus“ eingetreten
Die wichtige Rolle der KI-Rechenleistung bei der Verbesserung der zentralen Wettbewerbsfähigkeit nationaler und regionaler Volkswirtschaften ist zu einem Branchenkonsens geworden.
Der „2020 Global Computing Power Index Assessment Report“ zeigt, dass mit jedem Anstieg des Rechenleistungsindex um durchschnittlich 1 Punkt die digitale Wirtschaft und das BIP um 3,3‰ bzw. 1,8‰ wachsen werden. Der sichtbare treibende Effekt auf die Digitalisierung Die Wirtschaft ist zu einem nationalen und lokalen System geworden. Die interne Logik der Erhöhung der KI-Rechenleistung durch die Regierung.
Mit Blick auf den internationalen Markt sind die Vereinigten Staaten im Rahmen des regierungsinvestitionsgesteuerten Modells auf sechs nationale Labore des Energieministeriums angewiesen Rechenzentren, die auf Universitäten basieren, die von der National Science Foundation unterstützt werden, und Forschungszentren, die der NASA angeschlossen sind, haben das „Wachstum“ intelligenter Rechenkapazitäten in Rechenplattformen energisch gefördert -Scale-Computing-Plattformen in Europa durch den „EuroHPC-Plan“ und förderte aktiv die Integration mit der Technologie der künstlichen Intelligenz
Chinas KI-Rechenleistungsbau tritt ebenfalls in eine Phase des „großen Aufbaus“ ein Seit der Staatsrat die „Neue Generation“ herausgegeben hat „Entwicklungsplan für künstliche Intelligenz“ im Jahr 2017 hat mein Land von der Regierung, von Unternehmen und Unternehmen geleitete Joint Ventures zwischen Regierung und Unternehmen und andere Modelle eingeführt. In den letzten Jahren wurde mit dem Start des Projekts „Eastern Digital and Western Calculation“ begonnen und dem Bau intelligenter Rechenzentren wurde eine effektive Integration der Ressourcenstruktur auf nationaler Ebene erreicht. Derzeit gibt es im ganzen Land den Bau von nationalen Rechenzentrumsknoten und 10 nationalen Rechenzentrumsclustern geplant, um den Aufbau einer intensiven, umweltfreundlichen, energiesparenden, sicheren und stabilen Rechenleistungsinfrastruktur zu fördern Gleichzeitig führen die Kommunalverwaltungen mit der Förderung und Unterstützung neuer Infrastrukturen und anderer Richtlinien auch aktiv den Bau durch Rechenzentren für künstliche Intelligenz (AIDC) Laut Statistiken von Zhidongxi wurden zwischen Januar 2021 und Februar 2022 landesweit mehr als 20 Rechenzentren für künstliche Intelligenz geplant, gebaut und in Betrieb genommen Die von AIDC an verschiedenen Orten bereitgestellte oder geplante Rechenleistung beträgt in der Regel 100PFLOPS, was der Rechenleistung von 50.000 Hochleistungscomputern entspricht.Die erste Phase von Wuhan AIDC kann bereitgestellt werden Von Mai bis Dezember 2021 hat es mehr als 100 Unternehmen zur Ansiedlung gebracht und mehr als 50 Arten von szenariobasierten Lösungen entwickelt. Die durchschnittliche tägliche Rechenleistung wird genutzt
Mit Da die Rechenleistungsauslastung von Wuhan AIDC nahe der Sättigung liegt, hat das Unternehmen Ende 2021 die zweite Phase des Erweiterungsprojekts abgeschlossen, die eine Gesamtrechenleistung von 200PFLOPS bereitstellen kann, und plant die dritte Phase des Erweiterungsprojekts
In der KI-Industrialisierung. Angetrieben durch Bedürfnisse wie industrielle KI und intelligente Regierungsführung boomt die KI-Rechenleistung meines Landes. Laut dem von IDC und Inspur Information gemeinsam veröffentlichten „2022-2023 China Artificial Intelligence Computing Power Development Report“ boomt Chinas KI-Rechenleistung Die Rechenleistung wächst weiterhin rasant und der Umfang der intelligenten Rechenleistung wird im Jahr 2022 268 Exaflops pro Sekunde (EFLOPS) erreichen und damit den Umfang der allgemeinen Rechenleistung übertreffen
Es wird erwartet, dass die durchschnittliche jährliche Wachstumsrate von Chinas intelligentem Rechnen Die Leistung wird in den nächsten fünf Jahren 52,3 % erreichen, während die durchschnittliche Wachstumsrate der allgemeinen Rechenleistung im gleichen Zeitraum 18,5 % betrug. Der Aufbau der KI-Rechenleistung steht derzeit noch vor Herausforderungen befindet sich noch im Anfangsstadium der Erkundung, mit inkonsistenten Baustandards und verwirrenden Branchenpreisfragen. Diese Probleme werden zu Hindernissen für die Entwicklung dieser neuen Plattform.
Im Weißbuch „Forschung zur Entwicklung einer Infrastruktur für künstliche Intelligenz und Rechenleistung der neuen Generation“ hat das National Industrial Information Security Development Research Center vier Probleme beim Aufbau einer KI-Rechenleistungsinfrastruktur gelöst: den Aufbau nationaler Systeme auf höchster Ebene und Standardsysteme sind immer noch nicht einheitlich; inländische KI-Chips und andere Software- und Hardwaretechnologien sind immer noch mit Doppelkonstruktionen und hohem Energieverbrauch konfrontiert. Der Schwerpunkt liegt auf der Konstruktion, aber nicht auf Anwendungen die Unfähigkeit, die Anforderungen verschiedener Anwendungsszenarien abzudecken.
Am Beispiel der chaotischen Preisstandards in der Branche wies Huang Peng, stellvertretender Chefingenieur des National Industrial Information Security Development Research Center und Direktor des Information Policy Institute, darauf hin, dass die Bauinvestitionen für zwei intelligente Rechenzentren mit ähnlichen Funktionen erforderlich seien und ähnliche Skalen unterschieden sich um mehr als das Sechsfache.
Die Baukosten für KI-Rechenleistung lassen sich in Infrastruktur wie Fabriken, Geräte und Produkte wie Server und Computerchips, Nachbetriebs- und Wartungskosten sowie Stromrechnungen unterteilen.
In Bezug auf die Kosten für Infrastruktur, Stromrechnungen, Personal usw. kann es Unterschiede zwischen Ost und West geben, aber der Unterschied beträgt nicht das Sechsfache.
Dies zeigt auch, dass sich unser Land noch in der Anfangsphase der Entwicklung intelligenter Rechenleistung befindet und noch kein standardisiertes Modell entwickelt hat.
Huang Peng glaubt, dass sich der Bau intelligenter Rechenzentren auf den von der Artificial Intelligence Industry-Academic-Research Innovation Alliance der Chinesischen Akademie der Wissenschaften ins Leben gerufenen Preisstandardplan für Rechenleistung beziehen kann – umfassende Speicherung, Energieverbrauch, Entwicklung, Anpassung, Datenplanung und andere Faktoren und ersetzen sie eindeutig. Nach dem Algorithmusstandard wird der Schluss gezogen, dass der Infrastrukturpreis des intelligenten Rechenzentrums etwa 100 bis 150 Millionen Yuan beträgt.
Huang Peng schlug vor, dass die Kommunalverwaltungen vor dem Aufbau einer KI-Rechenleistungsplattform ausreichend Forschung und Demonstration durchführen sollten, um „geringfügige Doppelkonstruktionen“ und „Nichtübereinstimmung mit den lokalen Entwicklungsbedürfnissen“ zu vermeiden.
Wenn Probleme wie „Konzeptverwirrung“, „Preisverwirrung“ und „Betonung der Konstruktion vor der Anwendung“ durch ausreichende Forschung und Demonstration vermieden werden können, erfordern einige tiefgreifende Probleme beim Aufbau der KI-Rechenleistung immer noch die Bemühungen der Die gesamte Industriekette wie KI-Software und -Hardwaretechnologien sind durch das Ausland, übermäßigen Energieverbrauch und hohe Kosten für große KI-Rechenzentren usw. begrenzt.
Die Unternehmensebene sollte sich aktiv mit der Forschung und Entwicklung von KI-Technologien befassen und Innovationen modellieren, insbesondere die unabhängige Forschung und Entwicklung von Kerntechnologien wie KI-Chips verstärken, mit vor- und nachgelagerten Unternehmen zusammenarbeiten, um den Zusammenhalt und die ökologische Verträglichkeit der Industriekette zu verbessern, und Gleichzeitig stärken wir das Verständnis für Algorithmen, Frameworks. Die Forschung und Entwicklung von Softwareplattformen und Anwendungen wie Modellen nimmt die technologische Entwicklung selbst in die Hand.
Szenarioumsetzung fördert die Entwicklung der KI-Rechenleistung
Es ist unbestreitbar, dass der wirtschaftliche Entwicklungsstand umso höher ist, je größer die Rechenleistung eines Landes ist.
Der Umfang der Rechenleistung und der wirtschaftliche Entwicklungsstand von Ländern auf der ganzen Welt haben eine signifikante positive Korrelation gezeigt.
Der Beginn des Zeitalters der intelligenten Vernetzung aller Dinge und die Implementierung intelligenter KI-Szenarien wird unvorstellbar große Datenmengen erzeugen. Diese Daten werden die Nachfrage nach KI-Rechenleistung weiter ankurbeln.
Der „China Artificial Intelligence Computing Power Development Assessment Report 2022-2023“ zeigt, dass die fünf Branchen mit der größten Anwendungsdurchdringung in Chinas Industrie für künstliche Intelligenz im Jahr 2022 das Internet, das Finanzwesen, die Regierung, die Telekommunikation und das verarbeitende Gewerbe sind.
Im Vergleich zu 2021 hat die Durchdringung von KI in der Branche deutlich zugenommen.
Unter ihnen ist die Internetbranche immer noch die Branche mit der höchsten Verbreitung und Investition in Anwendungen der künstlichen Intelligenz.
Die Verbreitung künstlicher Intelligenz in der Finanzbranche ist von 55 % im Jahr 2021 auf 62 % gestiegen, einschließlich intelligentem Kundenservice. Physische Roboter, intelligente Verkaufsstellen und Cloud-Internet sind zu einer typischen Anwendung künstlicher Intelligenz in der Finanzbranche geworden.
Die Verbreitung künstlicher Intelligenz in der Telekommunikationsbranche wird im Jahr 2021 von 45 % auf 51 % steigen Technologie ist in den Aufbau und die Optimierung von Telekommunikationsnetzen integriert und bildet die Grundlage für den Aufbau der nächsten Generation intelligenter Netzwerke.
Die Verbreitung künstlicher Intelligenz in der Fertigungsindustrie ist von 40 % auf 45 % gestiegen Es wird erwartet, dass bis Ende 2023 50 % der Glieder der chinesischen Fertigungslieferkette künstliche Intelligenz nutzen werden.
Da die Nutzung und Entwicklung neuer Technologien und Anwendungsszenarien weiter zunimmt, hat dies auch der Entwicklung der KI-Rechenleistung einen stetigen Strom verliehen.
Erstens entwickeln sich Cloud-KI-Modelle in eine groß angelegte Richtung, und der Aufbau einer Rechenleistungsinfrastruktur ist zu einem Schlüsselelement des Wettbewerbs geworden.
Das 2019 von Google eingeführte BERT-Großmodell verfügt über 340 Millionen Parameter, verwendet 64 TPUs und kostet 15.000 US-Dollar für das Training auf Zielgenauigkeit.
Im Jahr 2020 verfügte das von OpenAI eingeführte große GPT-3-Modell über 175 Milliarden Parameter und die Trainingskosten beliefen sich auf 12 Millionen US-Dollar.
Im Jahr 2021 verwendeten Microsoft und NVIDIA 4.480 GPUs, um ein großes MT-NLG-Modell mit 530 Milliarden Parametern zu trainieren, und die Trainingskosten beliefen sich auf bis zu 85 Millionen US-Dollar.
Zweitens steigt die Nachfrage nach KI-Rechenleistung am Edge rasant.
Aufkommende Anwendungsszenarien wie Cloud-Gaming und autonomes Fahren stellen höhere Anforderungen an die Geschwindigkeit und den Umfang der Datenübertragung. Es ist zu einer zukünftigen Technologieentwicklung geworden, Edge-Terminals zwischen Terminals und Clouds einzusetzen, um ein „Cloud-Edge-End“ zu bilden " Kommunikationsarchitektur. Hauptrichtung.
Die wachsende Nachfrage nach Edge Computing wird die Entwicklung der KI-Rechenleistung effektiv vorantreiben.
Drittens haben intelligente vernetzte Autos die Nachfrage nach KI-Rechenleistung erhöht.
Die Verbreitungsrate selbstfahrender Autos nimmt weiter zu und die Steuerungssysteme für das Autofahren entwickeln sich hin zu intelligenten Funktionen wie „Wahrnehmung-Erkennung-Interaktion“.
Daher spielt das KI-Modell für intelligentes Fahren eine wichtige Rolle bei der Überführung des Fahrzeugs von der Stufe des unterstützten Fahrens L1/L2 in die Stufe des autonomen Fahrens L3/L4 und realisiert letztendlich die Funktionen „intelligenter Entscheidungsfindung und Echtzeitsteuerung“. ".
Mit der zunehmenden Menge verschiedener Arten von Fahrdaten, die trainiert werden müssen, und der steigenden Nachfrage nach der Entwicklung intelligenter Fahr-KI-Modelle wird der Bedarf an KI-Rechenleistung in Zukunft deutlich steigen.
Viertens erfordert der Aufbau der Virtual-Reality-Welt die Unterstützung der KI-Rechenleistung.
Die KI-Technologie bietet intelligente Möglichkeiten wie Modellierungsautomatisierung und intelligente Interaktionsmethoden für die Welt der virtuellen Realität, wodurch die Effizienz der VR-Inhaltsproduktion und das immersive Erlebnis der Benutzer verbessert werden sollen.
Das Streben der Anbieter von VR-Inhalten, schnell virtuelle Szenen zu erstellen und die Sinneserfahrung der Benutzer zu verbessern, hat ihre Nachfrage nach KI-Rechenleistung angekurbelt.
Fazit
Eine neue Runde der Rechenleistungsrevolution nimmt Fahrt auf.
Als neue Produktivkraft steht die Rechenleistung noch vor vielen Herausforderungen. Es ist notwendig, die umfassende Funktion der zentralisierten Rechenleistung zu implementieren und wirklich die Rolle von „Strom“ und „Öl“ zu spielen.
Schließlich sind Computerressourcen, die „verfügbar, erschwinglich und gut genutzt“ sind, die eigentliche Infrastruktur, die die Produktivität verändert.
Das obige ist der detaillierte Inhalt vonWohin wird die KI-Rechenleistung im Zeitalter des „großen Bauwesens' gehen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

Herausgeber | Rettichhaut Seit der Veröffentlichung des leistungsstarken AlphaFold2 im Jahr 2021 verwenden Wissenschaftler Modelle zur Proteinstrukturvorhersage, um verschiedene Proteinstrukturen innerhalb von Zellen zu kartieren, Medikamente zu entdecken und eine „kosmische Karte“ jeder bekannten Proteininteraktion zu zeichnen. Gerade hat Google DeepMind das AlphaFold3-Modell veröffentlicht, das gemeinsame Strukturvorhersagen für Komplexe wie Proteine, Nukleinsäuren, kleine Moleküle, Ionen und modifizierte Reste durchführen kann. Die Genauigkeit von AlphaFold3 wurde im Vergleich zu vielen dedizierten Tools in der Vergangenheit (Protein-Ligand-Interaktion, Protein-Nukleinsäure-Interaktion, Antikörper-Antigen-Vorhersage) deutlich verbessert. Dies zeigt, dass dies innerhalb eines einzigen einheitlichen Deep-Learning-Frameworks möglich ist
