aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Muss sich die Feinabstimmung großer Modelle auf menschliche Daten stützen? DeepMind: Selbsttraining mit Feedback ist besser
- Angesichts der derzeit gängigen Praxis, bei der Feinabstimmung großer Modelle hauptsächlich auf von Menschen generierten Daten zu basieren, hat Google DeepMind nach einer effizienteren Möglichkeit gesucht, diese Abhängigkeit zu verringern. Wie Sie und ich sehen können, verändern große Sprachmodelle (LLMs) die Deep-Learning-Landschaft und demonstrieren überlegene Fähigkeiten bei der Generierung von Texten in menschlicher Qualität und der Lösung einer Vielzahl von Sprachaufgaben. Während die Branche die Leistung bei bestimmten Aufgaben durch die überwachte Feinabstimmung der von Menschen gesammelten Daten weiter verbessert hat, stößt die Beschaffung hochwertiger menschlicher Daten auf erhebliche Engpässe. Dies gilt insbesondere für Aufgaben, bei denen es um die Lösung komplexer Probleme geht, die erhebliche Ressourcen und Fachwissen erfordern. Wie man es löst? Durch Modelle generierte synthetische Daten sind eine potenzielle Alternative, die skalierbar und kostengünstig sein kann, solange die Qualität der Daten erhalten bleibt.
- KI 906 2024-08-05 20:48:40
-
- Integration neuer Qualitäten und Resonanz der Rechenleistung: Bose Quantum bringt eine neue Generation kohärenter optischer Quantencomputer mit 550 Qubits auf den Markt
- Am 18. April 2024 veranstaltete Beijing Bose Quantum Technology Co., Ltd. (im Folgenden „Bose Quantum“ genannt) erfolgreich die Konferenz zur Einführung neuer Produkte 2024 in Wangjing, Peking, mit dem Thema „Integration neuer Qualitäten und Resonanz von“. Rechenleistung". Pound veröffentlichte zentrale Forschungsergebnisse wie die neue Generation kohärenter Lichtquantencomputer mit 550 rechnerischen Qubits – „Tiangong Quantum Brain 550W“ und das Kaiwu SDK, das die Integration von Quantencomputern und KI vollständig demonstriert und den Ausgangspunkt dafür darstellt Praktisches Quantencomputing. Im Jahr 2024 wird die Quantentechnologie ein wichtiger Teil der Entwicklung zukünftiger Industrien und neuer Produktivkräfte sein, was Pekings künftiges Industrielayout deutlich vorgibt
- KI 1023 2024-08-05 20:43:00
-
- Apple lässt große Modelle lernen, faul zu sein: den ersten Token schneller ausspucken und die Genauigkeit beibehalten
- Wer faul ist, arbeitet besser. Llama 3.1 wurde gerade veröffentlicht. Haben Sie es schon ausprobiert? Selbst wenn Ihr PC über die neueste Top-Konfiguration verfügt, kann es beim Ausführen der kleinsten 8B-Version dennoch zu erheblichen Verzögerungen kommen. Um die Argumentationseffizienz des Modells zu verbessern, haben Forscher verschiedene Methoden entwickelt, von denen jedoch viele dazu führen, dass das Modell etwas an Genauigkeit verliert. Kürzlich hat ein Forschungsteam von Apple und MetaAI eine neue Methode vorgeschlagen, die die Inferenzgeschwindigkeit der Llama2-Vorfüllphase auf mehr als das Zweifache erhöhen kann und gleichzeitig sicherstellt, dass die Genauigkeit nicht wesentlich abnimmt. Dies kann die Beschleunigung von Llama3.1 verbessern Inspiration. Sie nennen diesen Ansatz LazyLLM, was für Lazy Large Language Model steht. Titel der Arbeit: LazyL
- KI 573 2024-08-05 20:41:02
-
- Nature-Unterjournal, 10-mal schnellere, umgekehrte Proteinsequenz-Designmethode basierend auf Transformer
- Herausgeber |. Das Design und die Entwicklung von Radish Skin Protein schreiten dank der Fortschritte im Deep Learning in beispiellosem Tempo voran. Aktuelle Modelle können jedoch nicht auf natürliche Weise Nicht-Protein-Entitäten während des Designprozesses berücksichtigen. Hier schlagen Forscher der Ecole Polytechnique Fédérale de Lausanne (EPFL) in der Schweiz eine Deep-Learning-Methode vor, die vollständig auf einem geometrischen Transformator von Atomkoordinaten und Elementnamen basiert und Proteine basierend auf Grundgerüsten mit Einschränkungen durch unterschiedliche molekulare Umgebungen vorhersagen kann. Mit dieser Methode können Forscher hoch thermostabile, katalytisch aktive Enzyme mit hoher Erfolgsquote herstellen. Es wird erwartet, dass dies die Vielseitigkeit von Proteindesign-Pipelines zur Erreichung gewünschter Funktionen erhöht. Diese Studie verwendet „Context-awaregeometricde“.
- KI 953 2024-08-05 20:33:31
-
- Der Autor von Transformer kehrt zu Google zurück und das Gründerteam von Character.AI wird „übernommen', solange die Leute das Unternehmen nicht wollen
- Werden KI-Startups in großen Unternehmen landen? Als ich aufwachte, schrumpfte der generative KI-„Hühnerfresswettbewerb“ wieder. Das Startup Character.AI gab am Freitag bekannt, dass es eine Vereinbarung mit Google unterzeichnet hat, um eine nicht-exklusive Lizenz für die LLM-Technologie (Large Language Model) von Character.AI zu erhalten. Google gab außerdem die Wiedereinstellung von Noam Shazeer und Daniel DeFreitas bekannt. Unter ihnen ist NoamShazeer der Gründer und CEO von Character.AI und einer der Autoren des Transformer-Artikels. Er war einst Chef-Softwareentwickler bei Google. Daniel DeFreitas ist Präsident von Character.AI und war als leitender Ingenieur bei Google tätig.
- KI 847 2024-08-05 20:17:10
-
- Das hochauflösende Video ist nicht echt. Die in mehreren Fotos wiedergegebenen 3D-Szenen machen es für Sie schwierig, die Authentizität zu erkennen.
- Bitte beachten Sie, dass es sich bei der obigen Animation vollständig um eine 3D-Szene handelt, die aus mehreren Fotos gerendert wurde. Für Menschen ist es schwierig, ihre Fehler zu erkennen. Schauen wir uns also an, wie dieses Szenario realisiert wird. Gitter und Punkte sind die häufigsten Darstellungen von 3D-Szenen, da sie explizit sind und sich gut für eine schnelle GPU/CUDA-basierte Rasterung eignen. Im Gegensatz dazu basieren hochmoderne NeRF-Methoden (Neural Radiation Field) auf einer kontinuierlichen Szenendarstellung und verwenden häufig volumetrische Strahlenwiedergabe optimierte Mehrschicht-Perzeptrone (MLP), um neue Perspektiven auf die erfasste Szene zu synthetisieren. Während die Kontinuität dieser Methoden bei der Optimierung hilft, ist die für das Rendering erforderliche Zufallsstichprobe teuer und verrauscht. Forscher der Universität der französischen Riviera haben eine neue Methode eingeführt, die die beiden Methoden kombiniert
- KI 601 2024-08-05 20:15:51
-
- Warum ist das verzögerte Interaktionsmodell Standard für die nächste RAG-Generation?
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Zhang Yingfeng: Mitbegründer von Infra, mit langjähriger Erfahrung in den Bereichen Suche, KI und Infrastrukturentwicklung arbeitet er derzeit am Aufbau der nächsten Generation von RAG-Kernprodukte. Bei der Entwicklung des RAG-Systems ist ein gutes Reranker-Modell ein unverzichtbares Bindeglied.
- KI 1139 2024-08-05 20:15:22
-
- ECCV2024 |. Das Harvard-Team entwickelt FairDomain, um Fairness bei der domänenübergreifenden Segmentierung und Klassifizierung medizinischer Bilder zu erreichen
- Herausgeber |. ScienceAI-Autor |. YuTian-Team Im Bereich der künstlichen Intelligenz (KI), insbesondere der medizinischen KI, ist die Auseinandersetzung mit Fairness-Fragen von entscheidender Bedeutung, um faire medizinische Ergebnisse sicherzustellen. In jüngster Zeit wurden im Rahmen der Bemühungen zur Verbesserung der Fairness neue Methoden und Datensätze eingeführt. Allerdings wurde die Frage der Fairness im Zusammenhang mit der Domänenübertragung kaum untersucht, obwohl Kliniken bei der Patientendiagnose häufig auf unterschiedliche Bildgebungstechnologien (z. B. unterschiedliche Bildgebungsmodalitäten der Netzhaut) zurückgreifen. In diesem Artikel wird FairDomain vorgeschlagen, die erste systematische Studie zur Algorithmengerechtigkeit beim Domänentransfer. Wir testen hochmoderne Algorithmen zur Domänenanpassung (DA) und Domänengeneralisierung (DG) für medizinische Bildsegmentierungs- und Klassifizierungsaufgaben mit dem Ziel, dies zu verstehen wie Voreingenommenheit zwischen verschiedenen Domänen übertragen wird.
- KI 1215 2024-08-05 20:04:36
-
- Ab sofort können mehr als 100 Millionen Entwickler auf GitHub direkt auf die weltweit führenden Großmodelle zugreifen, um KI-Anwendungen zu erstellen
- Die von GitHub eingeführte neue Funktion „GitHubModels“ soll den Beginn der Ära der KI-Ingenieure beschleunigen. Was? Die bekannte Code-Hosting-Plattform GitHub hat sich erneut weiterentwickelt! Die Plattform hat auch damit begonnen, Playgroud mit großen KI-Modellen auszustatten. Alle beliebten großen Modelle der Branche, die Sie nennen können, einschließlich Phi-3 von Microsoft, GPT-4o von OpenAI, Llama3.1 von Meta, CommandR+ von Cohere und MistralLarge von MistralAI, können in einer interaktiven Sandbox ausprobiert werden. In den kommenden Monaten wird Github außerdem weitere sprachliche, visuelle und andere Arten von Modellen hinzufügen. Mit anderen Worten, das Modell auf diesem Bild
- KI 1106 2024-08-05 19:36:38
-
- KI im Einsatz |. Verwenden Sie große Modelle, um „leuchtende' Texte zu schreiben, und die Artikel sind voller nationaler Schönheit
- Die Kraft der Maschinen Mitwirkender: Jia Siluan Die Welle der künstlichen Intelligenz, repräsentiert durch große Modelle und AIGC, hat still und heimlich die Art und Weise verändert, wie wir leben und arbeiten, aber die meisten Menschen wissen immer noch nicht, wie sie sie nutzen sollen. Aus diesem Grund haben wir die Kolumne „KI im Einsatz“ ins Leben gerufen, um detailliert vorzustellen, wie KI durch intuitive, interessante und prägnante Anwendungsfälle für künstliche Intelligenz genutzt werden kann, und um das Denken aller anzuregen. Wir heißen Leser auch willkommen, innovative, praktische Anwendungsfälle einzureichen. Einreichungs-E-Mail: content@jiqizhixin.com Vor zwei Tagen habe ich einen kleinen Artikel über KI-Anwendungen gesehen, der von Jiqizhixin veröffentlicht wurde. Es war etwas interessant, ein großes Modell zu verwenden, um eine „verrückte“ Kopie zu schreiben Model schreibe ein paar Absätze von „Lass dich“ Der lustige Titel und das Texten von „Laugh Out of Parkinson's“ lassen das große Model den Stil des Textens zusammenfassen
- KI 622 2024-08-05 19:26:47
-
- Nach Sora hat OpenAI Lilian Weng persönlich einen Artikel geschrieben, in dem Sie lernen, wie Sie ein Diffusionsmodell für die Videogenerierung von Grund auf entwerfen.
- Die leistungsstarken Bildsynthesefähigkeiten von Diffusionsmodellen wurden in den letzten Jahren gut demonstriert. Die Forschungsgemeinschaft beschäftigt sich nun mit einer schwierigeren Aufgabe: der Videogenerierung. Kürzlich hat Lilian Weng, Leiterin von OpenAI Safety Systems (SafetySystems), einen Blog über das Diffusionsmodell der Videogenerierung geschrieben. Die Website von LilianWeng hat diesen Blog zusammengestellt und organisiert, ohne seine ursprüngliche Bedeutung zu ändern. Das Folgende ist der Originaltext des Blogs: Die Videogenerierungsaufgabe selbst ist eine Obermenge der Bildsynthese, da das Bild ein einzelnes Videobild ist. Die Videosynthese ist aus folgenden Gründen viel schwieriger: 1. Die Videosynthese erfordert auch zeitliche Konsistenz zwischen verschiedenen Frames, was natürlich die Kodierung von mehr Weltwissen in das Modell erfordert. 2. Im Vergleich zu Text oder Bildern
- KI 998 2024-08-05 19:20:02
-
- Getestet 7 Artefakte zur Videogenerierung auf „Sora-Ebene'. Wer hat die Fähigkeit, den „Eisernen Thron' zu besteigen?
- Herausgeber des Machine Power Report: Yang Wen Wer kann der King of AI-Videokreis werden? In der amerikanischen Fernsehserie „Game of Thrones“ gibt es einen „Eisernen Thron“. Der Legende nach wurde es vom riesigen Drachen „Schwarzer Tod“ erschaffen, der Tausende von von Feinden weggeworfenen Schwertern zum Schmelzen brachte und so höchste Autorität symbolisierte. Um auf diesem eisernen Stuhl zu sitzen, begannen die großen Familien zu kämpfen und zu kämpfen. Seit der Entstehung von Sora wurde im KI-Videokreis ein energisches „Game of Thrones“ gestartet. Zu den Hauptakteuren in diesem Spiel zählen RunwayGen-3 und Luma von der anderen Seite des Ozeans sowie die einheimischen Kuaishou Keling, ByteDream, und Zhimo. Spectrum Qingying, Vidu, PixVerseV2 usw. Heute werden wir bewerten und sehen, wer qualifiziert ist, auf dem „Eisernen Thron“ des KI-Videokreises zu sitzen. -1- Vincent Video
- KI 937 2024-08-05 19:19:51
-
- KI hilft menschlichen Malern, bei Kunstwettbewerben den ersten Platz zu gewinnen. Was ist das Geheimnis dahinter?
- Vor zwei Jahren gewann ein Werk mit dem Titel „Space Opera“ den ersten Platz beim Kunstwettbewerb der Colorado State Fair. Dieses Gemälde ist majestätisch, hell und dunkel und erinnert stark an den französischen symbolistischen Maler Gustave Moreau. Allerdings wurde es nicht von einem Menschen gezeichnet, sondern von einem Teilnehmer ohne malerischen Hintergrund, der ein KI-Zeichenwerkzeug nutzte. Drehen wir die Zeit zurück ins Jahr 2018. Damals wurde ein KI-Gemälde mit dem Titel „Portrait of Edmund Bellamy“ im Auktionshaus Christie’s in New York für mehr als 400.000 US-Dollar verkauft. Dies ist das erste Werk der künstlichen Intelligenz, das versteigert wird, was auch den Beginn der Anerkennung von KI-Kunstwerken durch den Markt markiert. Heutzutage ist KI-Malerei alltäglich geworden, und KI-Spieler im In- und Ausland verlassen einen nach dem anderen und versuchen, diesen Track in Flammen aufgehen zu lassen.
- KI 661 2024-08-05 18:29:12
-
- Kleine Tricks mit großer Wirkung: „Lesen Sie die Eingabeaufforderung nur zweimal' ermöglicht es dem zyklischen Sprachmodell, Transformer++ zu übertreffen
- Im aktuellen KI-Bereich ist Transformer die gängige Architektur, die von großen Sprachmodellen übernommen wird. Mit dem Aufkommen von Architekturen wie RWKV und Mamba gibt es jedoch einen offensichtlichen Trend: Zyklische große Sprachmodelle, die in Bezug auf die Sprachmodellierungsschwierigkeit mit Transformer konkurrieren, geraten schnell in die Aufmerksamkeit der Menschen. Spannend ist, dass diese Architekturen während der Inferenz eine konstante Menge an Speicher verbrauchen. Aufgrund des begrenzten Speichers können sich rekurrente Sprachmodelle (LM) jedoch nicht alle Informationen in langen Kontexten merken und verwenden, was zu einer schlechten Qualität des kontextbezogenen Lernens (ICL) führt. Daher besteht eine zentrale Herausforderung beim Erreichen effizienter großer Sprachmodelle darin, zu entscheiden, welche Informationen gespeichert oder verworfen werden sollen.
- KI 579 2024-08-05 17:09:49
-
- Es sind nur wenige Demonstrationen erforderlich, um große Modelle auszurichten. Das von Yang Diyis Team vorgeschlagene DITTO ist äußerst effizient.
- Auch für große Modelle funktionieren Methoden der menschlichen Bildung gut. Bei der Kindererziehung haben Menschen aller Zeiten über eine wichtige Methode gesprochen: mit gutem Beispiel voranzugehen. Das heißt, seien Sie ein Vorbild für Kinder, das sie nachahmen und von dem sie lernen können, anstatt ihnen nur zu sagen, was sie tun sollen. Beim Training eines großen Sprachmodells (LLM) können wir diese Methode möglicherweise auch verwenden und dem Modell demonstrieren. Kürzlich hat das Team von Yang Diyi an der Stanford University ein neues Framework DITTO vorgeschlagen, das LLM durch eine kleine Anzahl von Demonstrationen (von Benutzern bereitgestellte Beispiele für gewünschtes Verhalten) an bestimmte Einstellungen anpassen kann. Diese Beispiele können aus den vorhandenen Interaktionsprotokollen des Benutzers oder durch direktes Bearbeiten der Ausgabe von LLM abgerufen werden. Dies ermöglicht es dem Modell, Benutzer effizient zu verstehen und auf unterschiedliche Benutzer und Aufgaben auszurichten
- KI 748 2024-08-05 16:10:32