


Ein amerikanischer Professor trainierte mit seiner zweijährigen Tochter ein KI-Modell für den Auftritt in „Science'! Junge Menschen nutzen am Kopf angebrachte Kameras, um neue KI zu trainieren
Erstaunlich, um das KI-Modell zu trainieren, befestigte ein Professor der State University of New York seiner Tochter eine GoPro-ähnliche Kamera an den Kopf!
Obwohl es unglaublich klingt, ist das Verhalten dieses Professors tatsächlich begründet.
Um das komplexe neuronale Netzwerk hinter LLM zu trainieren, sind umfangreiche Daten erforderlich.
Ist unser aktueller LLM-Ausbildungsprozess unbedingt der einfachste und effizienteste Weg?
Definitiv nicht! Wissenschaftler haben herausgefunden, dass das Gehirn von Kleinkindern wie ein Schwamm Wasser aufnimmt und so schnell ein zusammenhängendes Weltbild bildet.
Obwohl LLM zeitweise erstaunliche Leistungen erbringt, werden menschliche Kinder mit der Zeit schlauer und kreativer als das Modell!
Das Geheimnis, dass Kinder die Sprache beherrschen
Wie kann man LLM besser trainieren?
Als Wissenschaftler vor Rätsel standen, brachten Menschenjunge ihre Augen zum Leuchten –
Die Art und Weise, wie sie Sprache lernten, kann man als Meister des Spracherwerbs bezeichnen.
Wir alle kennen diese Geschichte: Wirf ein kleines Kind in ein Land mit einer völlig anderen Sprache und Kultur. Innerhalb weniger Monate kann es sein, dass es die Landessprache nahezu auf dem Niveau seiner Muttersprache beherrscht.
Und große Sprachmodelle verblassen im Vergleich.
Erstens sind sie zu datenintensiv!
Heutzutage haben große Unternehmen, die Modelle trainieren, fast alle Daten der Welt erschöpft. Denn LLM-Lernen erfordert astronomische Textmengen, die aus dem Internet und von verschiedenen Orten abgerufen werden.
Damit sie eine Sprache beherrschen, müssen Sie ihnen Billionen von Wörtern geben.
Brenden Lake und die NYU-Wissenschaftler, die an dieser Studie teilgenommen haben
Zweitens ist LLM möglicherweise nicht in der Lage, genau zu lernen, selbst wenn mit großem Aufwand so viele Daten eingegeben werden.
Die Ausgabe vieler LLMs besteht darin, das nächste Wort mit einer gewissen Genauigkeit vorherzusagen. Und diese Genauigkeit ist zunehmend beunruhigend.
Im krassen Gegensatz dazu brauchen Kinder nicht so viel Erfahrung, um eine Sprache fließend zu sprechen.
Brenden Lake, ein Psychologe an der State University of New York, der sich mit Menschen und KI beschäftigt, hat sich darauf konzentriert.
Er beschloss, ein Experiment an seiner einjährigen und neun Monate alten Tochter Luna durchzuführen.
In den letzten 11 Monaten ließ Lake ihre Tochter jede Woche eine Stunde lang eine Kamera tragen, um Videos ihrer Spielzeit aus ihrer Perspektive aufzunehmen.
Mit den von Lunas Kamera aufgenommenen Videos hofft Lake, das Modell mit denselben Daten trainieren zu können, denen auch Kinder ausgesetzt sind.
Hat eine GoPro an seine kleine Tochter geschnallt
Obwohl sich Linguisten und Kinderexperten derzeit nicht darüber einig sind, wie Kinder Sprache erwerben, ist Lake überzeugt: LLM mehr machen Das Geheimnis der Effizienz liegt in den Lernmustern der Kinder !
Aus diesem Grund hat Lake ein solches Forschungsprojekt ins Leben gerufen: Er untersucht die Stimulation, die Kinder beim Lernen des ersten Satzes erfahren, um die Effizienz des LLM-Trainings zu verbessern.
Dazu musste Lakes Team Video- und Audiodaten von 25 Kindern in den Vereinigten Staaten sammeln.
Das ist die Szene am Anfang des Artikels – sie befestigten GoPro-ähnliche Kameras an den Köpfen dieser Kinder, darunter auch Lakes Tochter Luna.
Lake erklärte, dass ihr Modell versucht, Videoclips und das, was die Betreuerin des Kindes aus der Perspektive des Kindes sagt, zu verbinden, ähnlich wie das Clip-Modell von OpenAI Anmerkungen und Bilder verbindet.
Clip kann ein Bild als Eingabe verwenden und eine beschreibende Anmerkung als Vorschlag basierend auf den Trainingsdaten von Bild-Anmerkungs-Paaren ausgeben.
Papieradresse: https://openai.com/index/clip/
Darüber hinaus kann das Modell des Lake-Teams auch Bilder von Szenen basierend auf Trainingsdaten von GoPro-Aufnahmen und Audio von Betreuern kombinieren Als Eingabe gibt es dann eine Sprache aus, die die Szene beschreibt.
Darüber hinaus kann das Modell Beschreibungen auch in zuvor im Training gesehene Frames umwandeln.
Auf den ersten Blick klingt es ziemlich einfach, oder? Das heißt, das Modell lernt, gesprochene Wörter den in Videobildern beobachteten Objekten zuzuordnen, genau wie menschliche Kinder.
Aber in der tatsächlichen Umsetzung werden wir noch mit vielen komplexen Situationen konfrontiert sein.
Zum Beispiel schauen Kinder nicht immer auf den beschriebenen Gegenstand oder die beschriebene Handlung.
Es gibt noch abstraktere Situationen, wie zum Beispiel, dass wir unseren Kindern Milch geben, die Milch aber in einem undurchsichtigen Becher ist, was zu einer sehr lockeren Verbindung führt.
So erklärte Lake: Dieses Experiment sollte nicht beweisen, ob wir einem Modell beibringen können, Objekte in Bildern mit entsprechenden Wörtern abzugleichen (OpenAI hat dies bereits demonstriert).
Stattdessen wollte das Team herausfinden, ob das Modell tatsächlich lernen kann, Objekte zu erkennen, indem es nur die spärliche Menge an Daten verwendet, die Kindern zur Verfügung stehen (was unglaublich spärlich ist).
Wie Sie sehen, ist dies völlig das Gegenteil der Idee großer Unternehmen wie OpenAI, Google und Meta, Modelle zu erstellen.
Wissen Sie, Meta hat 15 Billionen Token verwendet, um Lama 3 zu trainieren.
Wenn das Experiment des Lake-Teams erfolgreich ist, wird vielleicht der LLM-Datenmangel, mit dem die ganze Welt konfrontiert ist, gelöst – denn dann werden für das Training von LLM überhaupt nicht so viele Daten benötigt!
Mit anderen Worten: Die neue Idee besteht darin, das KI-Modell aus begrenzten Eingaben lernen zu lassen und dann aus den Daten, die wir sehen, zu verallgemeinern.
Ich denke, unser Fokus sollte sich nicht darauf beschränken, immer größere LLMs aus immer mehr Daten zu trainieren. Ja, auf diese Weise können Sie mit LLM erstaunliche Leistungen erzielen, aber es entfernt sich immer weiter von den Wundern der menschlichen Intelligenz, die wir kennen ...
Frühe Experimente waren erfolgreich
Früh Die experimentellen Ergebnisse haben sich bewährt dass die Idee des Lake-Teams richtig sein könnte.
Im Februar dieses Jahres trainierten sie mithilfe von 61 Stunden Videomaterial ein neuronales Netzwerk, um die Erfahrungen eines kleinen Kindes aufzuzeichnen.
Die Studie ergab, dass das Modell in der Lage war, verschiedene von den Probanden gesprochene Wörter und Sätze mit dem im Videobild erfassten Erlebnis in Verbindung zu bringen – solange das Wort oder der Satz präsentiert wurde, konnte sich das Modell an das entsprechende Bild erinnern . Dieses Papier wurde in Science veröffentlicht.
Papieradresse: https://www.science.org/doi/10.1126/science.adi1374
Lake sagte, das Überraschendste sei, dass das Modell die Namen von Objekten in untrainierten Bildern verallgemeinern kann!
Natürlich ist die Genauigkeit möglicherweise nicht großartig. Doch ursprünglich diente das Modell nur dazu, ein Konzept zu verifizieren.
Das Projekt ist noch nicht abgeschlossen, da das Modell noch nicht alles gelernt hat, was ein Kind wissen würde.
Schließlich sind es nur etwa 60 Stunden kommentierte Rede, also nur ein Prozent der Erfahrung, die ein Kind in zwei Jahren sammelt. Und das Team benötigt mehr Daten, um herauszufinden, was lernbar ist.
Und Lake gab auch zu, dass die vom ersten Modell verwendete Methode immer noch Einschränkungen aufweist –
Nur Videoclips analysiert, die sich auf die Worte der Pflegekraft beziehen, nur das Filmmaterial wurde in Bilder mit einer Geschwindigkeit von 5 Bildern pro Sekunde umgewandelt. Allein auf dieser Grundlage hat die KI nicht wirklich gelernt, was Verben und abstrakte Wörter sind. Sie erhält nur statische Ausschnitte davon, wie die Welt aussieht.
Da es nichts darüber weiß, was vorher passiert ist, was danach passiert ist oder über den Kontext des Gesprächs, ist es schwierig zu lernen, was „Gehen“, „Laufen“ und „Springen“ ist.
Aber in Zukunft, wenn die Technologie hinter Modelvideos ausgereifter wird, glaubt Lake, dass das Team effektivere Modelle entwickeln wird.
Wenn wir ein Modell dafür erstellen könnten, wie der Spracherwerb tatsächlich beginnt, würde dies wichtige Anwendungen für das Verständnis des menschlichen Lernens und der menschlichen Entwicklung eröffnen und uns vielleicht helfen, Entwicklungsstörungen zu verstehen oder wie Kinder Sprache lernen.
Mit einem solchen Modell könnten schließlich auch Millionen verschiedener Sprachtherapien getestet werden.
Apropos: Wie beherrschen Kinder eine Sprache solide mit ihren eigenen Augen und Ohren?
Schauen wir uns diesen Artikel des Lake-Teams in Science genauer an.
Verbinden Sie Wörter mit physischen Objekten und visuellen Bildern
Wie können menschliche Kinder ihre Unwissenheit über die Welt ablegen und sich Wissen aneignen? Das Geheimnis dieser „Black Box“ zieht nicht nur die ständige Suche von Pädagogen nach sich, sondern ist auch eine Frage, die sich im Herzen eines jeden von uns nach dem Ursprung der individuellen Weisheit bewegt.
Der koreanische Science-Fiction-Autor Kim Cho Ye schrieb diese Annahme in der „Symbiose-Hypothese“: Die Weisheit, die menschliche Kinder in ihrer frühen Kindheit an den Tag legen, trägt tatsächlich eine verlorene außerirdische Zivilisation in sich. Sie entscheiden sich für diese Methode, um mit Menschen zu kommunizieren. Aber es dauerte nur fünf kurze Jahre, nachdem die Menschen erwachsen geworden waren und wirklich solide Erinnerungen hatten, wurden die großartigen Erinnerungen an ihre Kindheit gelöscht.
Internetnutzer teilen online oft Geschichten über Menschenjunge, die „vergessen haben, Meng-Po-Suppe zu trinken“.
Was die mysteriöse Kindheit betrifft, ist es ein mysteriöser Ort, der für uns schwer zu erklären und zu dem wir nur schwer zurückkehren können. Es ist eine Art „Nostalgie“. Wie auf einem goldenen Grashalm geschrieben steht: „Geh nicht.“ Nimm dir diese schöne Welt nicht weg. Wenn ich groß bin, bleib bitte bei mir.
Wie verbinden kleine Kinder neue Wörter mit bestimmten Objekten oder visuellen Konzepten?
Wie denken Kinder beispielsweise an elastische, runde Gegenstände, wenn sie das Wort „Ball“ hören? Wachstum von 6 auf 25 Monate und zeichnete einen 61-stündigen visuellen Sprachdatenstrom auf.
Auf diesem 1,5-jährigen Kinderclip-Datensatz (einschließlich 600.000 Videobildern und 37.500 transkribierten Äußerungspaaren) trainierten die Forscher ein Modell, das kontrastive Lernmodell für Kinderperspektive (CVCL).
Dieses Modell instanziiert eine Form des assoziativen Lernens über Situationen hinweg und identifiziert Zuordnungen zwischen Wörtern und möglichen visuellen Referenzen.
Dieses Modell koordiniert die Vergleichsziele zweier neuronaler Netze, eines visuellen Encoders und eines linguistischen Encoders, und wird auf selbstüberwachte Weise trainiert (d. h. nur unter Verwendung von Aufnahmen aus der Kinderperspektive, ohne externe Beschriftungen), verglichen Ziel ist es, Einbettungen (Vektoren) von Videobildern und zeitlich gleichzeitig auftretenden Sprachäußerungen zu kombinieren (Verarbeitung von Einbettungen von gleichzeitigen Videobildern und Sprachäußerungen).
Natürlich ist dieser Datensatz namens SAYCam-S begrenzt, da er nur ca 1 % der Wachzeit eines Kindes, es fehlt ihm ein großer Teil seiner Erfahrung.
Trotzdem kann CVCL aus der begrenzten Erfahrung eines Kindes immer noch leistungsstarke multimodale Darstellungen lernen!
Das Team hat erfolgreich gezeigt, dass das Modell viele referenzielle Abbildungen erfasst, die in den täglichen Erfahrungen von Kindern vorkommen, und daher in der Lage ist, neue visuelle Referenzen ohne Stichproben zu verallgemeinern und die darin enthaltenen visuellen und sprachlichen Konzeptsysteme anzupassen.
Bewertung erlernter Wortbedeutungszuordnungen
Konkret bewertete das Team nach Abschluss des Trainings die Qualität der von CVCL erlernten Wortreferenzzuordnungen und verschiedener alternativer Modelle.
Die Ergebnisse zeigen, dass die Klassifizierungsgenauigkeit von CVCL 61,6 % beträgt.
Und Abbildung 2D zeigt, dass für 11 der 22 Konzepte die Leistung von CVCL innerhalb von 5 % des Fehlers von CLIP liegt, die Trainingsdaten von CLIP jedoch mehrere Größenordnungen größer sind (400 Millionen aus dem Netzwerk von Bild- Textpaare).
Forschungsergebnisse zeigen, dass viele der frühesten Wortreferenzzuordnungen aus mindestens 10 bis 100 natürlich vorkommenden Wortreferenzpaaren erhalten werden können.
Verallgemeinerung auf neue visuelle Paradigmen
Darüber hinaus bewerteten die Forscher auch, ob die durch CVCL gelernten Wörter auf visuelle Reize außerhalb der Verteilung verallgemeinert werden können.
Abbildung 3A zeigt, dass CVCL auch ein gewisses Verständnis für diese visuellen Konzepte zeigt, mit einer Gesamtgenauigkeit von 34,7 %.
Offensichtlich erfordert diese Aufgabe einen größeren Konzeptsatz und zusätzliche Schwierigkeiten bei der Verallgemeinerung außerhalb der Verteilung.
Auf der linken Seite sind zwei zufällig ausgewählte Trainingsfälle und auf der rechten Seite sind vier Testfälle zu sehen. Die folgenden Prozentsätze stellen die Genauigkeit und Leistung des Modells bei der Identifizierung dieses Bildes dar. Die ausgewählten Fälle sind von links nach rechts die beiden höchsten Werte, Median und minimale Werte. Es ist ersichtlich, dass die Genauigkeit der Modellerkennung auch höher ist, wenn der Testfall und der Trainingsfall in Farbe und Form ähnlicher sind. Die multimodale Konsistenz ist sehr gut. Schließlich testete der Forscher Kohärenz der visuellen und sprachlichen Konzeptsysteme von CVCL.
Wenn beispielsweise sowohl die visuelle Einbettung als auch die Worteinbettung von „Auto“ eher „Straße“ als „Ball“ ähneln, deutet dies darauf hin, dass die multimodale Ausrichtung gut funktioniert.
Das Bild unten zeigt die hohe Ausrichtung der visuellen und sprachlichen Systeme von CVCL.
Die Beziehung zwischen Bild und Text. Die gepunktete Linie stellt den Abstand zwischen dem visuellen Schwerpunkt jedes Konzepts und der Worteinbettung dar
Verschiedene visuelle Konzepte unterscheiden sich darin, wie eng ihre Beispiele gruppiert sind. Da die Sichtlinie des Babys zwischen sehr nahen Objekten wandert, bildet das Modell bei der Unterscheidung von „Händen“ und „Spielzeug“ keine klare Referenzzuordnung. „Auto“ und „Kinderbett“ weisen jeweils eine bessere Leistung auf In der Abbildung demonstrieren wir visuell den Vergleich von CVCL-Vorhersagen mit markierten Beispielen unter Verwendung von t-SNE.
Die blauen Punkte auf der linken Seite entsprechen den 100 Frames, die zu einer bestimmten Kategorie gehören, und die grünen Punkte auf der rechten Seite entsprechen den 100 am höchsten aktivierten Frames (basierend auf der Kosinusähnlichkeit der Worteinbettung für jedes Konzept). im CVCL). Unter jeder Abbildung befinden sich mehrere Beispielrahmen, die zu einem oder mehreren Unterclustern innerhalb jedes Konzepts gehören und erfassen, wie Worteinbettungen mit Bildeinbettungen im gemeinsamen Einbettungsraum interagieren. Für das Wort „Treppe“ sehen wir beispielsweise einen Cluster, der Bilder von Holztreppen im Innenbereich darstellt, während ein anderer Hauptcluster Bilder einer Reihe blauer Treppen im Freien darstellt. Alle t-SNE-Diagramme in diesen Abbildungen werden aus demselben Satz gemeinsamer Bild- und Texteinbettungen abgeleitet.
Das Bild unten zeigt, dass das Modell das Ziel in verschiedenen Ansichten lokalisieren kann.
In der normalisierten Aufmerksamkeitskarte zeigt Gelb den Bereich mit der höchsten Aufmerksamkeit an. In den ersten beiden Kategorien (Ball und Turm) können wir sehen, dass das Modell das Ziel in verschiedenen Ansichten lokalisieren kann. In den unteren beiden Kategorien (Katze und Papier) stimmten die Aufmerksamkeitskarten jedoch manchmal nicht mit dem Referenten überein, was darauf hindeutet, dass die Fähigkeit, den Referenten zu lokalisieren, in allen Kategorien nicht konsistent war.
Natürlich gibt es immer noch viele Unterschiede zwischen kindlichem Lernen und maschinellen Lernmodellen.
Aber die Forschung des Lake-Teams hat uns zweifellos sehr inspiriert.
Das obige ist der detaillierte Inhalt vonEin amerikanischer Professor trainierte mit seiner zweijährigen Tochter ein KI-Modell für den Auftritt in „Science'! Junge Menschen nutzen am Kopf angebrachte Kameras, um neue KI zu trainieren. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,
