


Welche Beziehung besteht zwischen Quantencomputing und künstlicher Intelligenz?
Nach jahrzehntelanger Forschung entwickelt sich künstliche Intelligenz (KI) zu einem der großen Branchentrends. Von Gesprächen mit Alexa und Siri über die selbstfahrenden Autos von Waymo und Tesla bis hin zu OpenAIs GPT-3, der Prosa wie ein Mensch schreibt, und DeepMinds AlphaZero, der den menschlichen Go-Großmeister schlägt – künstliche Intelligenz ist jetzt ausgereift genug. Lösen Sie reale Probleme, oft schneller und besser als Menschen.
Andernorts in der Technologiebranche arbeiten einige Visionäre hart an der Entwicklung von Quantencomputern, die versuchen, die Eigenschaften der Quantenphysik zu nutzen, um Berechnungen schneller als heutige Computer durchzuführen.
An diesem Punkt fragen sich viele von Ihnen vielleicht: Was genau hat Quantencomputing mit künstlicher Intelligenz zu tun? Arbeit von Pionieren im Quantencomputing.
Die Theorie der rechnerischen Komplexität ist ein Bereich, der Mathematik und Informatik umfasst und sich auf die Klassifizierung von Rechenproblemen basierend auf der Ressourcennutzung wie Raum (Speicher) und Zeit konzentriert. Ein Rechenproblem ist im Wesentlichen eine Aufgabe, die von einem Computer mechanisch gelöst werden kann, indem er mathematische Schritte befolgt, die in einem Algorithmus definiert sind.
Betrachten Sie zum Beispiel das Problem, Zahlen in einer Liste zu sortieren. Ein möglicher Algorithmus namens „selection sort“ besteht darin, aus dem unsortierten Teil der Liste (zunächst alle) immer wieder das kleinste Element (in aufsteigender Reihenfolge) zu finden und an den Anfang zu stellen. Der Algorithmus verwaltet während seiner Ausführung effektiv zwei Unterlisten der ursprünglichen Liste: den bereits sortierten Teil und den verbleibenden unsortierten Teil. Nachdem dieser Vorgang mehrere Male durchlaufen wurde, ist das Ergebnis eine vom kleinsten zum größten sortierte Liste. In Bezug auf die zeitliche Komplexität wird dies durch eine Komplexität von N 2 dargestellt, wobei N die Größe oder Anzahl der Elemente in der Liste darstellt. Mathematiker haben effizientere, aber komplexere Sortieralgorithmen wie „Cube Sort“ oder „Tim Sort“ vorgeschlagen, die beide eine Komplexität von N x log(N) haben. Das Sortieren einer Liste mit 100 Elementen ist für heutige Computer eine einfache Aufgabe, das Sortieren einer Liste mit einer Milliarde Datensätzen ist jedoch möglicherweise nicht so einfach. Daher ist die zeitliche Komplexität (oder die Anzahl der Schritte in einem Algorithmus im Verhältnis zur Größe des Eingabeproblems) sehr wichtig.
Um ein Problem schneller zu lösen, können Sie einen schnelleren Computer verwenden oder einen effizienteren Algorithmus finden, der weniger Operationen erfordert. Das bedeutet geringere Zeitkomplexität. Es ist jedoch klar, dass bei Problemen mit exponentieller Komplexität (z. B. N 2 oder 2 N) die Mathematik gegen Sie arbeitet und bei größeren Problemgrößen die einfache Verwendung eines schnelleren Computers nicht praktikabel ist. Und genau das ist im Bereich der künstlichen Intelligenz der Fall.Künstliche Intelligenz ist ein hochkomplexes Problem, das es zu lösen gilt.
Zuerst werden wir uns die Rechenkomplexität künstlicher neuronaler Netze ansehen, die in heutigen Systemen der künstlichen Intelligenz (KI) verwendet werden. Diese mathematischen Modelle sind von den biologischen neuronalen Netzwerken inspiriert, aus denen tierische Gehirne bestehen. Sie „lernen“, Eingabedaten zu erkennen oder zu klassifizieren, indem sie viele Beispiele sehen. Dabei handelt es sich um Ansammlungen miteinander verbundener Knoten oder Neuronen, kombiniert mit einer Aktivierungsfunktion, die die Ausgabe basierend auf den in einer „Eingabeschicht“ präsentierten Daten und den Gewichtungen in den Verbindungen bestimmt.
Um die Gewichte in den Verbindungen so anzupassen, dass die „Ausgabe“ nützlich oder korrekt ist, kann das Netzwerk „trainiert“ werden, indem es vielen Datenbeispielen ausgesetzt wird und der Ausgabeverlust „rückwärts propagiert“ wird.Für ein neuronales Netzwerk mit N Eingängen und M verborgenen Schichten, wobei die i-te verborgene Schicht m, i verborgene Neuronen und k Ausgangsneuronen enthält, wird ein Algorithmus, der die Gewichte aller Neuronen anpasst (Backpropagation-Algorithmus genannt), eine zeitliche Komplexität von haben:
Quantencomputing zur Rettung?
Quantencomputer sind Maschinen, die die Eigenschaften der Quantenphysik, insbesondere Superposition und Verschränkung, nutzen, um Daten zu speichern und Berechnungen durchzuführen. Es wird erwartet, dass sie Milliarden von Operationen gleichzeitig ausführen und so hochkomplexe Probleme, einschließlich künstlicher Intelligenz, erheblich beschleunigen.
Klassische Computer übertragen Informationen in Bits (kurz für „Binärziffern“), während Quantencomputer Qubits (kurz für „Qubits“) verwenden. Wie klassische Bits müssen Qubits letztlich Informationen entweder in Form einer 1 oder einer 0 übertragen, das Besondere ist jedoch, dass sie sowohl eine 1 als auch eine 0 gleichzeitig darstellen können. Man sagt, dass ein Qubit eine Wahrscheinlichkeitsverteilung hat, bei der es mit einer Wahrscheinlichkeit von 70 % eine 1 und mit einer Wahrscheinlichkeit von 30 % eine 0 ist. Das macht Quantencomputer so besonders.
Quantencomputer machen sich zwei grundlegende Eigenschaften der Quantenmechanik zunutze: Superposition und Verschränkung.
Wenn ein Qubit gleichzeitig 1 und 0 ist, spricht man von einem Überlagerungszustand. Superposition ist ein allgemeiner Begriff für Zustände, bei denen sich ein System gleichzeitig in mehreren Zuständen befindet und zum Zeitpunkt der Messung nur ein einziger Zustand angenommen wird. Wenn wir davon ausgehen, dass eine Münze ein Quantenobjekt ist, dann ergibt sich beim Werfen der Münze eine Überlagerung: Die Münze hat nur eine Wahrscheinlichkeit für Kopf oder Zahl. Sobald die Münze den Boden berührt und wir sie messen, wissen wir, ob die Münze Kopf oder Zahl ist. Ebenso wissen wir erst, wenn wir den Spin des Elektrons messen (ähnlich wie bei einer zu Boden fallenden Münze), in welchem Zustand sich das Elektron befindet und ob es eine 1 oder eine 0 ist.
Quantenteilchen in Überlagerung sind nur dann nützlich, wenn wir mehrere Teilchen haben. Dies bringt uns zum zweiten Grundprinzip der Quantenmechanik: der Verschränkung. Zwei (oder mehr) verschränkte Teilchen können nicht einzeln beschrieben werden; ihre Eigenschaften sind vollständig voneinander abhängig. Somit können sich verschränkte Qubits gegenseitig beeinflussen. Die Wahrscheinlichkeitsverteilung eines Qubits (eins oder null) hängt von der Wahrscheinlichkeitsverteilung aller anderen Qubits im System ab.
Aus diesem Grund verdoppelt jedes neue Qubit, das dem System hinzugefügt wird, die Anzahl der Zustände, die der Computer analysieren kann. Dieser exponentielle Anstieg der Computerleistung steht im Gegensatz zum klassischen Rechnen, das nur linear mit jedem neuen Bit skaliert.
Theoretisch können verschränkte Qubits Milliarden von Operationen gleichzeitig ausführen. Es ist klar, dass diese Fähigkeit jedem Algorithmus mit einer Komplexität im Bereich von N2, 2N oder N eine erhebliche Beschleunigung verleihen wird.
Machen Sie sich bereit für quantengesteuerte künstliche Intelligenz
Aufgrund des enormen Potenzials des Quantencomputings arbeiten die Hardware-Teams weiterhin daran, diese Systeme Wirklichkeit werden zu lassen (das bisher größte ist das 127-Qubit-Eagle-System von IBM), Softwareforscher Neu Algorithmen, die diese Fähigkeit des „Simultaneous Computing“ nutzen können, werden bereits in Bereichen wie Kryptographie, Chemie, Materialwissenschaften, Systemoptimierung und maschinellem Lernen/künstliche Intelligenz erforscht. Man geht davon aus, dass der faktorisierte Quantenalgorithmus von Shor im Vergleich zu klassischen Computern zu exponentiellen Beschleunigungen führen wird, was ein Risiko für aktuelle kryptografische Algorithmen darstellt.
Am interessantesten ist, dass angenommen wird, dass die lineare Quantenalgebra eine Polynombeschleunigung bewirken wird, was die Leistung unserer künstlichen neuronalen Netze erheblich verbessern wird. Google hat TensorFlow Quantum auf den Markt gebracht, ein Software-Framework für quantenmaschinelles Lernen, das ein schnelles Prototyping hybrider quantenklassischer maschineller Lernmodelle ermöglicht. IBM, ebenfalls führend im Bereich Quantencomputing, gab kürzlich bekannt, dass es einen „mathematischen Beweis“ für die Quantenüberlegenheit des quantenmechanischen Lernens gefunden hat. Allerdings sind Unternehmen wie IBM und Google zwar vertikal integriert (und entwickeln daher gleichzeitig Hardwaresysteme und Softwarealgorithmen). Es gibt auch eine Reihe sehr interessanter Quantensoftware-Startups, darunter Zapata, Riverlane, 1Qbit und in gewissem Maße auch Quantinuum (das seit der Fusion von Cambridge Quantum Computing mit Honeywell und der Namensänderung kein reines Softwareunternehmen mehr ist). wenige Beispiele.
Da Quantenhardware immer leistungsfähiger wird und Algorithmen für Quantenmaschinenlernen verfeinert werden, wird Quantencomputing wahrscheinlich einen erheblichen Anteil des KI-Chipmarktes erobern.
Das obige ist der detaillierte Inhalt vonWelche Beziehung besteht zwischen Quantencomputing und künstlicher Intelligenz?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten

Herausgeber |. KX Im Bereich der Arzneimittelforschung und -entwicklung ist die genaue und effektive Vorhersage der Bindungsaffinität von Proteinen und Liganden für das Arzneimittelscreening und die Arzneimitteloptimierung von entscheidender Bedeutung. Aktuelle Studien berücksichtigen jedoch nicht die wichtige Rolle molekularer Oberflächeninformationen bei Protein-Ligand-Wechselwirkungen. Auf dieser Grundlage schlugen Forscher der Universität Xiamen ein neuartiges Framework zur multimodalen Merkmalsextraktion (MFE) vor, das erstmals Informationen über Proteinoberfläche, 3D-Struktur und -Sequenz kombiniert und einen Kreuzaufmerksamkeitsmechanismus verwendet, um verschiedene Modalitäten zu vergleichen Ausrichtung. Experimentelle Ergebnisse zeigen, dass diese Methode bei der Vorhersage von Protein-Ligand-Bindungsaffinitäten Spitzenleistungen erbringt. Darüber hinaus belegen Ablationsstudien die Wirksamkeit und Notwendigkeit der Proteinoberflächeninformation und der multimodalen Merkmalsausrichtung innerhalb dieses Rahmens. Verwandte Forschungen beginnen mit „S

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

Laut Nachrichten dieser Website vom 1. August hat SK Hynix heute (1. August) einen Blogbeitrag veröffentlicht, in dem es ankündigt, dass es am Global Semiconductor Memory Summit FMS2024 teilnehmen wird, der vom 6. bis 8. August in Santa Clara, Kalifornien, USA, stattfindet viele neue Technologien Generation Produkt. Einführung des Future Memory and Storage Summit (FutureMemoryandStorage), früher Flash Memory Summit (FlashMemorySummit), hauptsächlich für NAND-Anbieter, im Zusammenhang mit der zunehmenden Aufmerksamkeit für die Technologie der künstlichen Intelligenz wurde dieses Jahr in Future Memory and Storage Summit (FutureMemoryandStorage) umbenannt Laden Sie DRAM- und Speicheranbieter und viele weitere Akteure ein. Neues Produkt SK Hynix wurde letztes Jahr auf den Markt gebracht
