Heim Technologie-Peripheriegeräte KI Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen

Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen

Sep 19, 2023 am 09:05 AM
ai大模型 Stetiger Fortschritt Schneller Vorlauf

Die Disziplin der künstlichen Intelligenz entstand im Jahr 1956 und machte im nächsten halben Jahrhundert kaum Fortschritte. Die Entwicklung von Rechenleistung und Daten blieb weit hinter den Algorithmen zurück. Mit dem Aufkommen des Internetzeitalters im Jahr 2000 wurden jedoch die Grenzen der Rechenleistung durchbrochen, künstliche Intelligenz drang nach und nach in alle Lebensbereiche vor und leitete die Ära der Großmodelle ein. Allerdings scheinen qualitativ hochwertige Daten zum letzten „Flaschenhals“ in der Entwicklung der künstlichen Intelligenz geworden zu sein

Huawei OceanStor Pacific gewann den „Best Innovation Award for AI Storage Base“ auf der kürzlich abgehaltenen National High Performance Computing Academic Annual Conference (CCF HPC China 2 muss umgeschrieben werden als: 023)

Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen

Die Entstehung des Konzepts der KI-Aufbewahrung spiegelt tatsächlich die kontinuierliche Verbesserung des Werts von Daten für KI wider

Der Inhalt, der neu geschrieben werden muss, ist: 01

Daten bestimmen den Intelligenzgrad der künstlichen Intelligenz

Die Entwicklung künstlicher Intelligenz ist ein Prozess der kontinuierlichen Datenerfassung und -analyse. Daten als Informationsträger sind die Grundlage für künstliche Intelligenz, um die Welt zu lernen und zu verstehen. Allgemeine Intelligenz ist das ultimative Ziel der Entwicklung künstlicher Intelligenz. Sie kann selbstständig lernen, verstehen, argumentieren und Probleme lösen, und Daten sind die größte treibende Kraft für ihre Entwicklung

Je mehr Daten, desto intelligenter wird die KI? Kann KI die Rolle von Experten übertreffen, solange es große Datenmengen gibt?

Nehmen Sie als Beispiel künstliche Intelligenzsysteme im medizinischen Bereich. Für viele Diagnosefälle gibt es tatsächlich keine einzige richtige Antwort. In der medizinischen Diagnose hat jede Gruppe von Symptomen eine Reihe möglicher Ursachen mit unterschiedlichen Wahrscheinlichkeiten, sodass KI-gestützte Entscheidungsfindung Ärzten dabei helfen kann, die möglichen Ursachen einzugrenzen, bis eine Lösung gefunden ist. In diesem Fall ist die medizinische künstliche Intelligenz nicht auf große Datenmengen angewiesen, sondern auf genaue und qualitativ hochwertige Daten. Nur so kann sichergestellt werden, dass beim „Screening“ die wirklich möglichen Ursachen nicht übersehen werden

Die Bedeutung der Datenqualität für die KI-Intelligenz spiegelt sich in dieser typischen Demonstration wider

In der Branche der künstlichen Intelligenz herrschte schon immer der Konsens „Müll rein, Müll raus“. Das bedeutet, dass ohne qualitativ hochwertige Dateneingabe, egal wie fortgeschritten der Algorithmus oder wie leistungsfähig die Rechenleistung ist, er nicht in der Lage sein wird, qualitativ hochwertige Ergebnisse zu liefern

Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen

Heutzutage stehen wir an der Schwelle zu großen Vorbildern. Große Modelle künstlicher Intelligenz schießen wie Pilze nach dem Regen aus dem Boden. Eine Reihe großer Modelle in China, wie Pangu von Huawei, Spark von iFlytek und Taichu von Zidong, entwickeln sich rasant und engagieren sich für den Aufbau einer branchenübergreifenden, universellen Plattform für künstliche Intelligenz, um die digitale Transformation aller Lebensbereiche voranzutreiben

Laut dem „China Artificial Intelligence Large Model Map Research Report“, der Ende Mai vom New Generation Artificial Intelligence Development Research Center des chinesischen Ministeriums für Wissenschaft und Technologie veröffentlicht wurde, gibt es 79 große Modelle mit einem Maßstab von mehr als einer Milliarde Parameter wurden in China veröffentlicht. Obwohl sich das Muster „Battle of 100 Models“ herausgebildet hat, hat es auch tiefgreifende Überlegungen zur Entwicklung großer Modelle angestoßen

Die Ausdrucksmöglichkeiten von Modellen, die auf kleinen Datenmengen basieren, sind durch die Datengröße begrenzt. Sie können nur grobkörnige Simulationen und Vorhersagen durchführen und sind in Situationen mit relativ hohen Genauigkeitsanforderungen nicht mehr anwendbar. Wenn Sie die Genauigkeit des Modells weiter verbessern möchten, müssen Sie umfangreiche Daten verwenden, um relevante Modelle zu generieren

Der umgeschriebene Inhalt lautet: Das bedeutet, dass die Datenmenge den Grad der KI-Intelligenz bestimmt. Unabhängig von der Qualität der Daten ist die Datenmenge ein Schwerpunkt, der beim Aufbau von „KI-Speicherkapazität“ konzentriert werden muss

Was neu geschrieben werden muss, ist: 02

Im Zeitalter von Big Data stehen Daten vor großen Herausforderungen

Da sich künstliche Intelligenz hin zu großen Modellen und Multimodalität entwickelt, stehen Unternehmen bei der Entwicklung oder Implementierung großer Modellanwendungen vor vielen Herausforderungen

Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielenErstens ist der Datenvorverarbeitungszyklus sehr lang. Da die Daten auf verschiedene Rechenzentren, unterschiedliche Anwendungen und unterschiedliche Systeme verteilt sind, gibt es Probleme wie eine langsame Erfassungsgeschwindigkeit. Daher dauert die Vorverarbeitung von 100 TB Daten. Die Systemauslastung muss verbessert werden Anfang.

Zweitens muss das Problem der geringen Ladeeffizienz des Trainingssatzes gelöst werden. Heutzutage wird der Umfang groß angelegter Modelle immer größer und die Parameterwerte erreichen Hunderte von Milliarden oder sogar Billionen. Der Trainingsprozess erfordert eine große Menge an Rechenressourcen und Speicherplatz. Beispielsweise verwenden multimodale Modelle im großen Maßstab umfangreiche Texte und Bilder als Trainingssätze, aber die aktuelle Ladegeschwindigkeit großer kleiner Dateien ist langsam, was zu einem ineffizienten Laden von Trainingssätzen führt

Darüber hinaus stehen wir auch vor den Herausforderungen der häufigen Abstimmung großer Modellparameter und instabiler Trainingsplattformen, wobei es im Durchschnitt alle zwei Tage zu Trainingsunterbrechungen kommt. Um das Training wieder aufzunehmen, muss ein Checkpoint-Mechanismus verwendet werden, und die Zeit zur Wiederherstellung nach einem Fehler beträgt mehr als einen Tag, was viele Herausforderungen für die Geschäftskontinuität mit sich bringt

Um im Zeitalter der großen KI-Modelle erfolgreich zu sein, müssen wir sowohl auf die Qualität als auch auf die Quantität der Daten achten und eine leistungsstarke Speicherinfrastruktur mit großer Kapazität aufbauen. Dies ist zu einem Schlüsselelement für den Sieg geworden

Der Inhalt, der neu geschrieben werden muss, ist: 03

Der Schlüssel zur KI-Ära ist die Stromspeicherbasis

Durch die Kombination von Big Data, künstlicher Intelligenz und anderen Technologien mit Hochleistungsrechnen ist die Hochleistungsdatenanalyse (HPDA) zu einer neuen Form der Wertschöpfung von Daten geworden. Durch die Nutzung von mehr historischen Daten, mehreren heterogenen Rechenleistungen und Analysemethoden kann HPDA die Analysegenauigkeit verbessern. Dies markiert eine neue Stufe der intelligenten Forschung in der wissenschaftlichen Forschung, und die Technologie der künstlichen Intelligenz wird die Anwendung innovativer Ergebnisse beschleunigen

Heute entsteht im Bereich der wissenschaftlichen Forschung ein neues Paradigma, das auf „datenintensiver Wissenschaft“ basiert. Dieses Paradigma konzentriert sich mehr auf die Kombination von Big Data Knowledge Mining und Trainings- und Argumentationstechnologie für künstliche Intelligenz, um durch Berechnung und Analyse neues Wissen und Entdeckungen zu gewinnen. Dies bedeutet auch, dass sich die Anforderungen an die zugrunde liegende Dateninfrastruktur grundlegend ändern werden. Ob es um Hochleistungsrechnen oder die zukünftige Entwicklung künstlicher Intelligenz geht, es muss eine fortschrittliche Speicherinfrastruktur eingerichtet werden, um die Datenherausforderungen zu bewältigen

Die Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen

Um Datenherausforderungen zu lösen, müssen wir mit Innovationen bei der Datenspeicherung beginnen. Wie das Sprichwort sagt: Die Person, die die Glocke geöffnet hat, muss die Glocke binden

Die KI-Speicherbasis wurde auf Basis des verteilten Speichers von OceanStor Pacific entwickelt und folgt dem AI-Native-Designkonzept, um den Speicherbedarf aller Aspekte der KI zu erfüllen. KI-Systeme stellen umfassende Herausforderungen an die Speicherung, einschließlich der Beschleunigung der Datenverarbeitung, der Datenspeicherverwaltung und der effizienten Zirkulation zwischen Datenspeicherung und Datenverarbeitung. Durch den Einsatz einer Kombination aus „Speicher mit großer Kapazität + Hochleistungsspeicher“ können wir die Planung und Koordination von Speicherressourcen sicherstellen, sodass jede Verbindung effizient arbeiten kann, wodurch der Wert des KI-Systems voll ausgeschöpft wird

Wie demonstriert der verteilte Speicher von OceanStor Pacific seine Kernkompetenzen?

Erstens ist die technische Architektur einzigartig in der Branche. Dieses Speichersystem unterstützt eine unbegrenzte horizontale Erweiterung und kann gemischte Lasten verarbeiten. Es kann die IOPS kleiner Dateien und die Bandbreite des Hochgeschwindigkeitslesens und -schreibens großer Dateien effizient verarbeiten. Es verfügt über intelligente hierarchische Datenflussfunktionen auf der Leistungs- und Kapazitätsebene und kann ein vollständiges KI-Datenmanagement wie Sammlung, Vorverarbeitung, Training und Schlussfolgerung großer Datenmengen realisieren. Darüber hinaus verfügt es über die gleichen Datenanalysefunktionen wie HPC und Big Data

Der umgeschriebene Inhalt lautet: Zweitens ist der beste Weg, die Effizienz in der Branche zu verbessern, Speicherinnovationen. Das erste ist das Datenweben, d. h. der Zugriff auf in verschiedenen Regionen verstreute Rohdaten über das globale GFS-Dateisystem, um eine globale, einheitliche Datenansicht und -planung über Systeme, Regionen und mehrere Clouds hinweg zu erreichen und so den Datenerfassungsprozess zu vereinfachen. Das zweite ist Near-Memory-Computing, das die Vorverarbeitung von Near-Data durch die Speicherung eingebetteter Rechenleistung realisiert, ungültige Datenübertragungen reduziert und die Wartezeit des Vorverarbeitungsservers verkürzt, wodurch die Vorverarbeitungseffizienz erheblich verbessert wird

Tatsächlich ist der „Kampf der Hunderter Modelle“ kein „Zeichen“ für die Entwicklung großer KI-Modelle. In Zukunft werden alle Lebensbereiche die Fähigkeiten großer KI-Modelle nutzen, um die tiefgreifende Entwicklung der digitalen Transformation voranzutreiben, und auch der Aufbau der Dateninfrastruktur wird beschleunigt. Die Innovation der verteilten Speichertechnologie von OceanStor Pacific und ihre hohe Effizienz haben sich als erste Wahl der Branche erwiesen

Wir verstehen, dass Daten neben Land, Arbeit, Kapital und Technologie zu einem neuen Produktionsfaktor geworden sind. Viele traditionelle Definitionen und Betriebsmodelle im digitalen Markt der Vergangenheit werden neu geschrieben. Nur mit bereits vorhandenen Fähigkeiten können wir den stetigen Fortschritt im Zeitalter datengesteuerter Großmodelle mit künstlicher Intelligenz sicherstellen

Das obige ist der detaillierte Inhalt vonDie Entwicklung der KI-Großmodellära erfordert fortschrittliche Speichertechnologie, um stabile Fortschritte zu erzielen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Große KI-Modelle sind sehr teuer und nur große Unternehmen und Superreiche können sie erfolgreich einsetzen Große KI-Modelle sind sehr teuer und nur große Unternehmen und Superreiche können sie erfolgreich einsetzen Apr 15, 2023 pm 07:34 PM

Der ChatGPT-Brand hat zu einer weiteren Welle der KI-Begeisterung geführt. Die Branche geht jedoch allgemein davon aus, dass sich nur große Unternehmen und superreiche Unternehmen KI leisten können, wenn die KI in die Ära großer KI-Modelle eintritt, da die Erstellung großer KI-Modelle sehr teuer ist . Das erste ist, dass es rechenintensiv ist. Avi Goldfarb, Marketingprofessor an der University of Toronto, sagte: „Wenn Sie ein Unternehmen gründen, selbst ein großes Sprachmodell entwickeln und es selbst berechnen möchten, sind die Kosten zu hoch. OpenAI ist sehr teuer und kostet Milliarden von Dollar.“ „Mietcomputer werden sicherlich viel billiger sein, aber Unternehmen müssen immer noch hohe Gebühren an AWS und andere Unternehmen zahlen. Zweitens sind Daten teuer. Trainingsmodelle erfordern riesige Datenmengen, manchmal sind die Daten leicht verfügbar und manchmal nicht. Daten wie CommonCrawl und LAION können kostenlos sein

Wie baut man ein KI-orientiertes Data-Governance-System auf? Wie baut man ein KI-orientiertes Data-Governance-System auf? Apr 12, 2024 pm 02:31 PM

In den letzten Jahren sind mit dem Aufkommen neuer Technologiemodelle, der Wertsteigerung von Anwendungsszenarien in verschiedenen Branchen und der Verbesserung der Produkteffekte aufgrund der Ansammlung riesiger Datenmengen Anwendungen der künstlichen Intelligenz aus Bereichen wie Konsum und Internet ausgestrahlt worden zu traditionellen Branchen wie Fertigung, Energie und Elektrizität. Der Reifegrad der Technologie und Anwendung künstlicher Intelligenz in Unternehmen verschiedener Branchen in den Hauptbereichen wirtschaftlicher Produktionsaktivitäten wie Design, Beschaffung, Produktion, Management und Vertrieb verbessert sich ständig und beschleunigt die Implementierung und Abdeckung künstlicher Intelligenz in allen Bereichen schrittweise Integration in das Hauptgeschäft, um den Industriestatus zu verbessern oder die Betriebseffizienz zu optimieren und die eigenen Vorteile weiter auszubauen. Die groß angelegte Implementierung innovativer Anwendungen der Technologie der künstlichen Intelligenz hat die starke Entwicklung des Big-Data-Intelligence-Marktes vorangetrieben und auch den zugrunde liegenden Data-Governance-Diensten Marktvitalität verliehen. Mit Big Data, Cloud Computing und Computing

Populärwissenschaft: Was ist ein KI-Großmodell? Populärwissenschaft: Was ist ein KI-Großmodell? Jun 29, 2023 am 08:37 AM

Unter KI-Großmodellen versteht man Modelle der künstlichen Intelligenz, die mithilfe umfangreicher Daten und leistungsstarker Rechenleistung trainiert werden. Diese Modelle weisen in der Regel ein hohes Maß an Genauigkeit und Generalisierungsfähigkeiten auf und können auf verschiedene Bereiche wie die Verarbeitung natürlicher Sprache, Bilderkennung, Spracherkennung usw. angewendet werden. Das Training großer KI-Modelle erfordert eine große Menge an Daten und Rechenressourcen, und in der Regel ist es erforderlich, ein verteiltes Computer-Framework zu verwenden, um den Trainingsprozess zu beschleunigen. Der Trainingsprozess dieser Modelle ist sehr komplex und erfordert eine eingehende Untersuchung und Optimierung der Datenverteilung, Merkmalsauswahl, Modellstruktur usw. KI-Großmodelle haben ein breites Anwendungsspektrum und können in verschiedenen Szenarien eingesetzt werden, z. B. im intelligenten Kundenservice, im Smart Home, beim autonomen Fahren usw. In diesen Anwendungen können große KI-Modelle Menschen dabei helfen, verschiedene Aufgaben schneller und genauer zu erledigen und die Arbeitseffizienz zu verbessern.

Im Zeitalter großer KI-Modelle fördern neue Datenspeicherbasen den Übergang zur digitalen Intelligenz in der Bildung und wissenschaftlichen Forschung Im Zeitalter großer KI-Modelle fördern neue Datenspeicherbasen den Übergang zur digitalen Intelligenz in der Bildung und wissenschaftlichen Forschung Jul 21, 2023 pm 09:53 PM

Generative KI (AIGC) hat eine neue Ära der allgemeinen künstlichen Intelligenz eingeleitet. Der Wettbewerb um große Modelle ist zu einem spektakulären Schwerpunkt geworden, und das Erwachen der Macht ist zunehmend zu einem Branchenkonsens geworden. In der neuen Ära bewegen sich große Modelle von Einzelmodalität zu Multimodalität, die Größe von Parametern und Trainingsdatensätzen wächst exponentiell und riesige unstrukturierte Daten erfordern gleichzeitig die Unterstützung leistungsstarker Mischlastfunktionen; datenintensiv Das neue Paradigma erfreut sich immer größerer Beliebtheit und Anwendungsszenarien wie Supercomputing und High Performance Computing (HPC) rücken in die Tiefe. Bestehende Datenspeichergrundlagen sind nicht mehr in der Lage, den ständig wachsenden Anforderungen gerecht zu werden. Wenn Rechenleistung, Algorithmen und Daten die „Troika“ sind, die die Entwicklung künstlicher Intelligenz vorantreibt, dann müssen diese drei angesichts der enormen Veränderungen im äußeren Umfeld dringend wieder an Dynamik gewinnen

Vivo bringt ein selbst entwickeltes Allzweck-KI-Modell auf den Markt – das Blue Heart Model Vivo bringt ein selbst entwickeltes Allzweck-KI-Modell auf den Markt – das Blue Heart Model Nov 01, 2023 pm 02:37 PM

Vivo veröffentlichte am 1. November auf der Entwicklerkonferenz 2023 seine selbst entwickelte allgemeine Matrix für künstliche Intelligenz – das Blue Heart Model. Vivo kündigte an, dass das Blue Heart Model 5 Modelle mit unterschiedlichen Parameterebenen auf den Markt bringen wird : Milliarden, Dutzende Milliarden und Hunderte von Milliarden, die Kernszenarien abdecken, und ihre Modellfähigkeiten nehmen eine führende Position in der Branche ein. Vivo ist der Ansicht, dass ein gutes selbstentwickeltes großes Modell die folgenden fünf Anforderungen erfüllen muss: großer Maßstab, umfassende Funktionen, leistungsstarke Algorithmen, sicher und zuverlässig, unabhängige Entwicklung und sollte weitgehend Open Source sein. Der neu geschriebene Inhalt ist wie folgt: Unter ihnen Das erste ist das Blue-Heart-Modell Modell 7B, ein 7-Milliarden-Level-Modell, das duale Dienste für Mobiltelefone und die Cloud bereitstellen soll. Vivo sagte, dass dieses Modell in Bereichen wie Sprachverständnis und Texterstellung eingesetzt werden kann.

Wird das Lernen des Vergessens in Bezug auf das menschliche Gehirn große KI-Modelle besser machen? Wird das Lernen des Vergessens in Bezug auf das menschliche Gehirn große KI-Modelle besser machen? Mar 12, 2024 pm 02:43 PM

Kürzlich entwickelte ein Team von Informatikern ein flexibleres und belastbareres Modell für maschinelles Lernen mit der Fähigkeit, bekannte Informationen regelmäßig zu vergessen, eine Funktion, die in bestehenden groß angelegten Sprachmodellen nicht zu finden ist. Tatsächliche Messungen zeigen, dass die „Vergessensmethode“ in vielen Fällen beim Training sehr effizient ist und das Vergessensmodell eine bessere Leistung erbringt. Jea Kwon, ein KI-Ingenieur am Institute for Basic Science in Korea, sagte, die neue Forschung bedeute einen erheblichen Fortschritt auf dem Gebiet der KI. Die Trainingseffizienz der „Vergessensmethode“ ist sehr hoch. Die meisten gängigen KI-Sprach-Engines verwenden künstliche neuronale Netzwerktechnologie. Jedes „Neuron“ in dieser Netzwerkstruktur ist eigentlich eine mathematische Funktion. Sie sind miteinander verbunden, um Informationen zu empfangen und zu übertragen.

KI-Großmodelle sind beliebt! Technologiegiganten haben sich angeschlossen, und vielerorts haben die Richtlinien ihre Umsetzung beschleunigt. KI-Großmodelle sind beliebt! Technologiegiganten haben sich angeschlossen, und vielerorts haben die Richtlinien ihre Umsetzung beschleunigt. Jun 11, 2023 pm 03:09 PM

Künstliche Intelligenz ist in jüngster Zeit wieder in den Fokus menschlicher Innovationen gerückt und der Rüstungswettbewerb rund um KI ist intensiver denn je. Nicht nur aus Angst, den neuen Trend zu verpassen, versammeln sich Technologiegiganten, um sich dem Kampf der großen Modelle anzuschließen, sondern auch Peking, Shanghai, Shenzhen und andere Orte haben Richtlinien und Maßnahmen eingeführt, um Forschung zu Algorithmen und Schlüsselinnovationen für große Modelle durchzuführen Technologien, um ein Hochland für Innovationen im Bereich der künstlichen Intelligenz zu schaffen. Große KI-Modelle boomen, und große Technologiegiganten haben sich angeschlossen. Der kürzlich auf dem Zhongguancun-Forum 2023 veröffentlichte „China Artificial Intelligence Large Model Map Research Report“ zeigt, dass Chinas große KI-Modelle einen boomenden Entwicklungstrend aufweisen, und das gibt es auch viele Unternehmen der Branche. Robin Li, Gründer, Vorsitzender und CEO von Baidu, sagte unverblümt, dass wir an einem neuen Ausgangspunkt stehen

Vortragsreservierung | Fünf Experten diskutierten: Wie wirken sich große KI-Modelle auf die Forschung und Entwicklung neuer Medikamente aus? Vortragsreservierung | Fünf Experten diskutierten: Wie wirken sich große KI-Modelle auf die Forschung und Entwicklung neuer Medikamente aus? Jun 08, 2023 am 11:27 AM

1978 gründeten Stuart Marson und andere von der University of California das weltweit erste kommerzielle CADD-Unternehmen und leisteten Pionierarbeit bei der Entwicklung eines chemischen Reaktions- und Datenbankabrufsystems. Seitdem ist das computergestützte Arzneimitteldesign (Computer Aided Drug Design, CADD) in eine Ära rasanter Entwicklung eingetreten und hat sich für Pharmaunternehmen zu einem wichtigen Mittel für die Arzneimittelforschung und -entwicklung entwickelt, was zu revolutionären Verbesserungen in diesem Bereich geführt hat. Am 5. Oktober 1981 veröffentlichte das Fortune-Magazin einen Titelartikel mit dem Titel „Die nächste industrielle Revolution: Merck entwirft Medikamente durch Computer“, in dem offiziell die Einführung der CADD-Technologie angekündigt wurde. Im Jahr 1996 wurde der erste auf SBDD (Structur-Based Drug Design) basierende Carboanhydrase-Inhibitor erfolgreich auf den Markt gebracht und fand breite Anwendung in der Arzneimittelforschung und -entwicklung.

See all articles