Inhaltsverzeichnis
Gegnerische Angriffe" >Gegnerische Angriffe
Verwandte Forschung" >Verwandte Forschung
Experimenteller Prozess" >Experimenteller Prozess
Experimentelle Ergebnisse" >Experimentelle Ergebnisse
Heim Technologie-Peripheriegeräte KI Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

May 07, 2024 pm 07:20 PM
模型 训练

Große Modelle waren erneut Sicherheitsproblemen ausgesetzt!

Kürzlich veröffentlichten Forscher von Enkrypt AI schockierende Forschungsergebnisse: Quantisierung und Feinabstimmung können tatsächlich die Sicherheit großer Modelle verringern!

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Papieradresse: https://arxiv.org/pdf/2404.04392.pdf

Bei den tatsächlichen Tests des Autors waren Basismodelle wie Mistral und Llama, einschließlich ihrer verfeinerten Versionen, nicht dabei verschont.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Nach der Quantifizierung oder Feinabstimmung ist das Risiko eines Jailbreaks von LLM stark erhöht.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

——LLM: Meine Effekte sind erstaunlich, ich bin allmächtig, ich bin voller Löcher...

Vielleicht wird es noch lange Zeit diverse Schlupflöcher in großen Modellen geben Angriffs- und Verteidigungskriege können nicht gestoppt werden.

Aufgrund prinzipieller Probleme sind KI-Modelle von Natur aus sowohl robust als auch fragil. Unter der Vielzahl an Parametern und Berechnungen sind einige unbedeutend, ein kleiner Teil jedoch entscheidend.

In gewissem Maße entsprechen die Sicherheitsprobleme, auf die große Modelle stoßen, der CNN-Ära.

Verwenden Sie spezielle Eingabeaufforderungen und Sonderzeichen, um LLM zu veranlassen, toxische Ausgaben zu erzeugen, einschließlich der zuvor berichteten Verwendung von LLM-Langkontexten Merkmale und Methoden des Jailbreaking mit mehreren Dialogrunden können als gegnerische Angriffe bezeichnet werden.

Gegnerische Angriffe

In der CNN-Ära kann die Änderung einiger Pixel des Eingabebildes dazu führen, dass das KI-Modell das Bild falsch klassifiziert, und der Angreifer kann das Modell sogar dazu veranlassen, eine bestimmte Kategorie auszugeben .

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Das obige Bild zeigt den Prozess des gegnerischen Angriffs. Um die Beobachtung zu erleichtern, ist die zufällige Störung in der Mitte übertrieben. Tatsächlich sind es bei gegnerischen Angriffen nur kleine Pixelwerte Durch Ändern können Sie den Angriffseffekt erzielen.

Noch gefährlicher ist, dass Forscher herausgefunden haben, dass sich ein solches Angriffsverhalten aus der virtuellen Welt auf die reale Welt übertragen lässt.

Das „STOP“-Schild im Bild unten stammt aus einem berühmten früheren Werk. Durch das Hinzufügen scheinbar nicht verwandter Graffiti zum Schild kann das autonome Fahrsystem das Stoppschild fälschlicherweise als Geschwindigkeitsbegrenzungsschild erkennen.

– Dieses Schild wurde später im London Science Museum gesammelt, um die Welt daran zu erinnern, immer auf die potenziellen Risiken von KI-Modellen zu achten. Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Zu den Schäden, die große Sprachmodelle derzeit erleiden, gehören unter anderem: Jailbreaking, Prompt-Injection-Angriffe, Privacy-Leak-Angriffe usw.

Im folgenden Beispiel werden beispielsweise mehrere Konversationsrunden zum Jailbreak verwendet:

In der Abbildung unten ist auch ein Prompt-Injection-Angriff dargestellt, bei dem spitze Klammern verwendet werden, um böswillige Anweisungen in der Eingabeaufforderung zu verbergen. Das Ergebnis ist, dass GPT-3.5 die ursprüngliche Anweisung zur Zusammenfassung des Textes ignoriert und mit „Raketen aus Zucker herstellen“ beginnt. Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Um mit dieser Art von Problem umzugehen, nutzen Forscher im Allgemeinen gezieltes gegnerisches Training, um das Modell an menschlichen Werten auszurichten. Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Aber tatsächlich gibt es unzählige Aufforderungen, die LLM dazu veranlassen können, böswillige Ausgaben zu erzeugen. Was sollte das rote Team angesichts dieser Situation tun?

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Die Verteidigungsseite kann eine automatisierte Suche verwenden, während die Angriffsseite ein anderes LLM verwenden kann, um Eingabeaufforderungen zu generieren, die beim Jailbreak helfen.

Darüber hinaus handelt es sich bei den meisten aktuellen Angriffen gegen große Modelle um Black-Box-Angriffe, aber je tiefer unser Verständnis von LLM wird, desto mehr White-Box-Angriffe werden hinzukommen.

Verwandte Forschung

Aber keine Sorge, Soldaten werden kommen, um das Wasser zu vertuschen, und die relevanten Forschungsergebnisse wurden bereits zusammengetragen.

Der Herausgeber suchte zufällig und stellte fest, dass es allein im diesjährigen ICLR viele verwandte Werke gab.

Zum Beispiel das folgende mündlich:

Die Feinabstimmung ausgerichteter Sprachmodelle gefährdet die Sicherheit, auch wenn Benutzer dies nicht beabsichtigen!

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Papieradresse: https://openreview. net /pdf?id=hTEGyKf0dZ

Diese Arbeit ist dem heute vorgestellten Artikel sehr ähnlich: Die Feinabstimmung von LLM bringt Sicherheitsrisiken mit sich.

Forscher konnten die sichere Ausrichtung von LLM durchbrechen, indem sie es mit nur wenigen gegnerischen Trainingsbeispielen verfeinerten.

Eines der Beispiele verwendet nur 10 Beispiele, um GPT-3.5 Turbo über die API von OpenAI zu einem Preis von weniger als 0,20 $ zu optimieren, sodass das Modell auf fast alle schädlichen Anweisungen reagieren kann.

Auch ohne böswillige Absicht kann die bloße Feinabstimmung mithilfe harmloser und häufig verwendeter Datensätze die Sicherheitsausrichtung von LLM unbeabsichtigt beeinträchtigen.

Ein weiteres Beispiel ist das folgende Spolight:

Jailbreak in Teilen: Compositional Adversarial Attacks on Multi-Modal Language Models,

stellt eine neue Jailbreak-Angriffsmethode für visuelle Sprachmodelle vor:

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Papieradresse: https://openreview.net/pdf?id=plmBsXHxgR

Die Forscher störten die modalübergreifende Ausrichtung von VLM.

Und die Schwelle für diesen Angriff ist sehr niedrig und erfordert keinen Zugriff auf LLM. Wenn ein visueller Encoder wie CLIP in ein Closed-Source-LLM eingebettet ist, ist die Erfolgsquote beim Jailbreak sehr hoch.

Es gibt noch viele weitere, deshalb werde ich sie hier nicht alle auflisten. Werfen wir einen Blick auf den experimentellen Teil dieses Artikels.

Experimentelle Details

Die Forscher verwendeten eine gegnerische schädliche Eingabeaufforderungsuntergruppe namens AdvBench SubsetAndy Zou, die 50 Eingabeaufforderungen enthielt, in denen nach schädlichen Informationen in 32 Kategorien gefragt wurde. Es handelt sich um eine Hinweis-Teilmenge des schädlichen Verhaltensdatensatzes im AdvBench-Benchmark.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Der im Experiment verwendete Angriffsalgorithmus ist Tree-of-Attacks Pruning (TAP), mit dem drei wichtige Ziele erreicht werden:

(1) Black Box: Der Algorithmus erfordert nur Black-Box-Zugriff Modell;

(2) Automatisch: Nach dem Start ist kein menschliches Eingreifen erforderlich.

(3) Interpretierbar: Der Algorithmus kann semantisch bedeutsame Hinweise generieren.

TAP-Algorithmus wird mit Aufgaben aus der AdvBench-Teilmenge verwendet, um Ziel-LLM unter verschiedenen Einstellungen anzugreifen.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Experimenteller Prozess

Um die Auswirkungen von Feinabstimmung, Quantisierung und Leitplanken auf die LLM-Sicherheit (gegen Jailbreak-Angriffe) zu verstehen, haben Forscher eine Pipeline zur Durchführung von Jailbreak-Tests erstellt.

Wie bereits erwähnt, verwenden Sie die AdvBench-Teilmenge, um LLM über den TAP-Algorithmus anzugreifen, und zeichnen Sie dann die Bewertungsergebnisse und vollständigen Systeminformationen auf.

Der gesamte Prozess wird mehrfach wiederholt, wobei die mit LLM verbundene stochastische Natur berücksichtigt wird. Der vollständige experimentelle Prozess ist in der folgenden Abbildung dargestellt:

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

TAP ist derzeit die fortschrittlichste Blackbox und automatische Methode, die semantisch aussagekräftige Eingabeaufforderungen für den Jailbreak von LLM generieren kann.

TAP-Algorithmus verwendet Angreifer-LLM A, um Eingabeaufforderung P an Ziel-LLM T zu senden. Die Antwort des Ziel-LLM R und die Eingabeaufforderung P werden in den Bewerter JUDGE (LLM) eingegeben, der beurteilt, ob die Eingabeaufforderung vom Thema abweicht.

Wenn die Eingabeaufforderung vom Thema abweicht, löschen Sie sie (entspricht dem Entfernen des entsprechenden Eingabeaufforderungsbaums für fehlerhafte Angriffe). Andernfalls bewertet JUDGE die Eingabeaufforderung (0-10 Punkte).

Themenbezogene Tipps generieren Angriffe mithilfe der Breitensuche. Dieser Prozess wird eine bestimmte Anzahl von Malen wiederholt oder bis ein erfolgreicher Jailbreak erreicht wird.

Schutzmaßnahmen gegen Jailbreak-Eingabeaufforderungen

Das Forschungsteam verwendet das hauseigene Deberta-V3-Modell, um Jailbreak-Eingabeaufforderungen zu erkennen. Deberta-V3 fungiert als Eingangsfilter und als Leitplanke.

Wenn die Eingabeaufforderung durch die Leitplanke gefiltert wird oder der Jailbreak fehlschlägt, generiert der TAP-Algorithmus basierend auf der ursprünglichen Aufforderung und Antwort eine neue Eingabeaufforderung, um den Angriffsversuch fortzusetzen.

Experimentelle Ergebnisse

Im Folgenden soll die Auswirkung von Feinabstimmung, Quantifizierung und Leitplanken unter drei verschiedenen nachgelagerten Aufgaben getestet werden. Die Experimente decken im Wesentlichen die meisten praktischen Anwendungsfälle und Anwendungen von LLM in Industrie und Wissenschaft ab.

Das Experiment verwendet GPT-3.5-Turbo als Angriffsmodell und GPT-4-Turbo als Beurteilungsmodell.

Die im Experiment getesteten Zielmodelle stammen von verschiedenen Plattformen, darunter Anyscale, der OpenAI-API, Azures NC12sv3 (ausgestattet mit 32 GB V100-GPU) und Hugging Face, wie in der folgenden Abbildung dargestellt:

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Während des Experiments wurden verschiedene Grundmodelle, iterative Modelle und verschiedene verfeinerte Versionen sowie quantitative Versionen untersucht.

Feinabstimmung

Die Feinabstimmung verschiedener Aufgaben kann die Effizienz von LLM bei der Erledigung von Aufgaben verbessern. Durch die Feinabstimmung erhält LLM die erforderlichen professionellen Domänenkenntnisse, wie z. B. SQL-Codegenerierung, Chat usw.

Das Experiment besteht darin, die Rolle der Feinabstimmung bei der Erhöhung oder Verringerung der LLM-Schwachstelle zu verstehen, indem die Jailbreak-Schwachstelle des Basismodells mit der fein abgestimmten Version verglichen wird.

Forscher verwenden Basismodelle wie Llama2, Mistral und MPT-7B sowie deren verfeinerte Versionen wie CodeLlama, SQLCoder, Dolphin und Intel Neural Chat.

Wie aus den Ergebnissen in der Tabelle unten ersichtlich ist, verliert das fein abgestimmte Modell im Vergleich zum Basismodell an Sicherheitsausrichtung und kann leicht einen Jailbreak erleiden.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Quantisierung

Viele Modelle erfordern während des Trainings, der Feinabstimmung und sogar der Inferenz viele Rechenressourcen. Die Quantisierung ist eine der beliebtesten Methoden zur Reduzierung des Rechenaufwands (auf Kosten der numerischen Genauigkeit der Modellparameter).

Das quantisierte Modell im Experiment wurde mithilfe des GPT-generierten einheitlichen Formats (GGUF) quantisiert. Die folgenden Ergebnisse zeigen, dass die Quantisierung das Modell anfällig für Schwachstellen macht.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Leitplanken

Leitplanken sind die Verteidigungslinie gegen LLM-Angriffe und als Gatekeeper besteht ihre Hauptfunktion darin, Tipps herauszufiltern, die zu schädlichen oder böswilligen Ergebnissen führen können.

Die Forscher verwendeten einen proprietären Jailbreak-Angriffsdetektor, der vom Deberta-V3-Modell abgeleitet war und auf von LLM generierte schädliche Jailbreak-Eingabeaufforderungen trainiert wurde.

Die folgenden Ergebnisse zeigen, dass die Einführung von Leitplanken als früher Schritt einen erheblichen Effekt hat und das Risiko eines Jailbreaks erheblich reduzieren kann.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Darüber hinaus testeten die Forscher diese Modelle auch mit und ohne integrierte Leitplanken (Guardrails), um die Leistung und Wirksamkeit von Leitplanken zu bewerten. Die folgende Abbildung zeigt die Wirkung von Leitplanken:

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Das Bild unten Zeigt die Anzahl der Abfragen an, die zum Jailbreak des Modells erforderlich sind. Es ist ersichtlich, dass Leitplanken in den meisten Fällen einen zusätzlichen Widerstand gegen LLM bieten.

Feinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont

Das obige ist der detaillierte Inhalt vonFeinabstimmung und Quantifizierung erhöhen tatsächlich das Risiko eines Jailbreaks! Mistral, Lama und andere wurden alle verschont. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Open Source! Jenseits von ZoeDepth! DepthFM: Schnelle und genaue monokulare Tiefenschätzung! Apr 03, 2024 pm 12:04 PM

0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo Das weltweit leistungsstärkste Open-Source-MoE-Modell ist da, mit chinesischen Fähigkeiten, die mit GPT-4 vergleichbar sind, und der Preis beträgt nur fast ein Prozent von GPT-4-Turbo May 07, 2024 pm 04:13 PM

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert KAN, das MLP ersetzt, wurde durch Open-Source-Projekte auf Faltung erweitert Jun 01, 2024 pm 10:03 PM

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Hallo, elektrischer Atlas! Der Boston Dynamics-Roboter erwacht wieder zum Leben, seltsame 180-Grad-Bewegungen machen Musk Angst Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

KI untergräbt die mathematische Forschung! Der Gewinner der Fields-Medaille und der chinesisch-amerikanische Mathematiker führten 11 hochrangige Arbeiten an | Gefällt mir bei Terence Tao KI untergräbt die mathematische Forschung! Der Gewinner der Fields-Medaille und der chinesisch-amerikanische Mathematiker führten 11 hochrangige Arbeiten an | Gefällt mir bei Terence Tao Apr 09, 2024 am 11:52 AM

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Die Vitalität der Superintelligenz erwacht! Aber mit der Einführung der sich selbst aktualisierenden KI müssen sich Mütter keine Sorgen mehr über Datenengpässe machen Apr 29, 2024 pm 06:55 PM

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Die Kuaishou-Version von Sora „Ke Ling' steht zum Testen offen: Sie generiert über 120 Sekunden Videos, versteht die Physik besser und kann komplexe Bewegungen genau modellieren Jun 11, 2024 am 09:51 AM

Was? Wird Zootopia durch heimische KI in die Realität umgesetzt? Zusammen mit dem Video wird ein neues groß angelegtes inländisches Videogenerationsmodell namens „Keling“ vorgestellt. Sora geht einen ähnlichen technischen Weg und kombiniert eine Reihe selbst entwickelter technologischer Innovationen, um Videos zu produzieren, die nicht nur große und vernünftige Bewegungen aufweisen, sondern auch die Eigenschaften der physischen Welt simulieren und über starke konzeptionelle Kombinationsfähigkeiten und Vorstellungskraft verfügen. Den Daten zufolge unterstützt Keling die Erstellung ultralanger Videos von bis zu 2 Minuten mit 30 Bildern pro Sekunde, mit Auflösungen von bis zu 1080p und unterstützt mehrere Seitenverhältnisse. Ein weiterer wichtiger Punkt ist, dass es sich bei Keling nicht um eine vom Labor veröffentlichte Demo oder Video-Ergebnisdemonstration handelt, sondern um eine Anwendung auf Produktebene, die von Kuaishou, einem führenden Anbieter im Bereich Kurzvideos, gestartet wurde. Darüber hinaus liegt das Hauptaugenmerk darauf, pragmatisch zu sein, keine Blankoschecks auszustellen und sofort nach der Veröffentlichung online zu gehen. Das große Modell von Ke Ling wurde bereits in Kuaiying veröffentlicht.

Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. Die U.S. Air Force präsentiert ihren ersten KI-Kampfjet mit großem Aufsehen! Der Minister führte die Testfahrt persönlich durch, ohne in den gesamten Prozess einzugreifen, und 100.000 Codezeilen wurden 21 Mal getestet. May 07, 2024 pm 05:00 PM

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,

See all articles