


Auf dem Gebiet der künstlichen Intelligenz ist ein Durchbruch gelungen: Das Problem des „quellenlosen Wassers' inländisch hergestellter Großmodelle wurde gelöst.
Im Bereich der künstlichen Intelligenz ist ein Durchbruch gelungen: Das Problem des „quellenlosen Wassers“ inländisch hergestellter Großmodelle wurde gelöst.
Auf dem Forum „Chancen und Risiken der allgemeinen Entwicklung der künstlichen Intelligenz im Zeitalter der großen Modelle“ auf der Weltkonferenz für künstliche Intelligenz 2023 konzentrierten sich mehrere Experten auf dem Gebiet der allgemeinen künstlichen Intelligenz auf große Modelle und führten eine ausführliche Diskussion zu grundlegenden Innovationen, Anwendungstechnik und Zukunftsaussichten.
Dai Qionghai, Akademiker der Chinesischen Akademie für Ingenieurwissenschaften, sagte: „Unser Land sollte die Talentausbildung und die Grundlagenforschung zu künstlicher Intelligenz in Bezug auf Richtlinien, Mechanismen und Investitionen vertiefen, originelle Innovationen stärken und vermeiden, in das Dilemma von ‚Wasser ohne‘ zu geraten.“ „Eine Quelle‘.“ Er betonte in seiner Grundsatzrede diese Ansicht.
Wang Yu, ordentlicher Professor und Vorsitzender der Abteilung für Elektrotechnik an der Tsinghua-Universität, wies darauf hin, dass es in Shanghai bereits viele Chipunternehmen und Algorithmen gibt, aber wie diese Algorithmen effizient und einheitlich auf Chips eingesetzt werden können, ist eine sehr wichtige Frage. Er betonte, dass dies eine zentrale Herausforderung für Shanghai im Bereich der künstlichen Intelligenz sei.
Aus Sicht der Grundlagenforschung glaubt Dai Qionghai, dass die bahnbrechenden Erfolge meines Landes bei groß angelegten Innovationen relativ begrenzt sind. Seiner Ansicht nach konzentrieren sich Chinas Talente im Bereich der künstlichen Intelligenz hauptsächlich auf Anwendungen, sodass ein enormes Entwicklungspotenzial bei Anwendungsszenarien und technischen Ebenen besteht. Allerdings ist China hinsichtlich der Talente auf der Basisebene eindeutig im Nachteil und es mangelt an origineller Innovation.
Dai Qionghai sagte, dass die innovative Entwicklung künstlicher Intelligenz drei Säulen erfordert: Algorithmen, Daten und Rechenleistung. Algorithmen bestimmen den Grad der Intelligenz, Daten bestimmen den Umfang der Intelligenz und Rechenleistung bestimmt die Effizienz der Intelligenz. Generell wird erwartet, dass in den nächsten fünf Jahren große Algorithmusmodelle zur zentralen Basisplattform für Anwendungen der künstlichen Intelligenz werden.
Dai Qionghai wies auch darauf hin, dass Gehirnintelligenz die neue Richtung der Zukunft sei. Neue Algorithmen für künstliche Intelligenz, die Gehirn und Kognition integrieren, werden die Entwicklung einer neuen Generation von Intelligenz vorantreiben. Er schlug vor, dass die Regierung Unternehmen dazu ermutigen sollte, den Bau großer Modelle voranzutreiben, die Kombination von biologischen Mechanismen und Maschinenfunktionen zu erforschen und die Grundlagenforschung und Anwendungsentwicklung weiter zu fördern. Er prognostizierte, dass künstliche Intelligenz mit kognitiver Intelligenz als Kern in zehn Jahren weit verbreitet sein wird.
Darüber hinaus erinnerte Dai Qionghai die Menschen auch daran, bei großen Modellanwendungen auf Sicherheitsprobleme zu achten. Große Modelle sind noch nicht in der Lage, die Glaubwürdigkeit von Ergebnissen zu überprüfen, beispielsweise die Generierung irreführender Inhalte. Er betonte, dass die Probleme der groß angelegten Modellanwendung nicht so einfach seien wie Computernetzwerkviren. Sobald Probleme auftreten, werden sie störende Auswirkungen haben. Daher sollten Sicherheit und Vertrauenswürdigkeit bei der Anwendung großer Modelle explizit diskutiert werden.
Es ist notwendig, sich auf die Lösung der Schwachstellen zu konzentrieren, die zur Lösung der vier Probleme erforderlich sind, mit denen die Implementierung groß angelegter Modelle in China konfrontiert ist. Zunächst muss das Problem der Langtextverarbeitung gelöst werden. Zweitens muss die Kostenleistung großer Modelle verbessert werden. Drittens müssen große Modelle auf mehrere vertikale Domänen angewendet werden. Schließlich gibt es eine neue Anforderung für die Bereitstellung aus einer Hand. Er betonte, dass die Lösung dieser Bedürfnisse die Entwicklung der gesamten Industriekette fördern werde.
Im Forum bringen die Teilnehmer weitere Meinungen und Vorschläge zur Entwicklung großer Modelle ein. Einige Experten glauben, dass die Abhängigkeit im Chipbereich durch die Förderung der Entwicklung und Anwendung heimischer Hochleistungs-Rechenchips ausgeglichen werden kann. Sie betonten, dass in China zwar einige Chip-Unternehmen entstanden seien, die Fähigkeit zur effizienten und einheitlichen Bereitstellung von Algorithmen auf Chips jedoch weiter gestärkt werden müsse.
Gleichzeitig erwähnten Experten auch die Anwendungsprobleme großer Modelle in verschiedenen vertikalen Bereichen. In Bereichen wie Medizin und Finanzen ist die Beschaffung umfangreicher Korpusdaten ein großes Problem. Daher wird die Erstellung eines großen Modells einer universellen Basis und eine detaillierte Feinabstimmung dazu beitragen, die Grundleistung verschiedener Branchen zu verbessern.
Es ist allgemein anerkannt, dass die Automatisierung der Bereitstellung und Optimierung großer Modelle in integrierten Lösungen ein wichtiger Trend ist. Verbessern Sie die Gesamteffizienz und erzielen Sie kostengünstigere Ergebnisse, indem Sie einen mehrschichtigen Ansatz zur Optimierung der Software- und Hardware-Zusammenarbeit, der Kompilierungsoptimierung und der Bereitstellung der Hardware-Infrastruktur implementieren. Experten fordern eine weitere Erforschung effizienter Feinabstimmungsalgorithmen, um den Anforderungen großer Modelle in verschiedenen vertikalen Bereichen gerecht zu werden.
Die Teilnehmer kamen zu einem Konsens und betonten, dass die Entwicklung großer Modelle die gemeinsamen Anstrengungen von Regierungen, Unternehmen und Wissenschaft erfordert. Die Regierung sollte die politische Führung stärken und Grundlagenforschung und Talentausbildung fördern. Unternehmen sollten eine führende Rolle übernehmen und die Investitionen und Förderung im Bau großer Modelle erhöhen. Die akademische Gemeinschaft sollte die Zusammenarbeit mit der Industrie stärken, um die Transformation und Anwendung wissenschaftlicher und technologischer Errungenschaften zu fördern.
Experten betonen die Notwendigkeit, die Forschung und Erforschung von Sicherheit und Glaubwürdigkeit bei der Entwicklung groß angelegter Modelle zu stärken. Sie plädieren für die Etablierung entsprechender Normen und Standards, um sicherzustellen, dass die Anwendung großer Modelle keine negativen Auswirkungen und Risiken mit sich bringt.
Abschließend brachten die Teilnehmer zum Ausdruck, dass die Entwicklung großer Modelle große Chancen für die Branche der künstlichen Intelligenz mit sich bringt, sie jedoch auch auf potenzielle Risiken und Herausforderungen achten müssen. Sie ermutigen alle Parteien zu einer intensiven Zusammenarbeit bei der Forschung und Entwicklung, dem Einsatz und der Anwendung großer Modelle, um gemeinsam die gesunde Entwicklung künstlicher Intelligenz und den sozialen Fortschritt zu fördern.
Experten führten im Forum der World Artificial Intelligence Conference ausführliche Diskussionen und Austausche zur Entwicklung und Anwendung großräumiger Modelle. Sie lieferten wertvolle Einblicke und Anregungen zu grundlegenden Innovationen, Technologieanwendungen und Zukunftsaussichten im Bereich der künstlichen Intelligenz und zeigten die Richtung für die Entwicklung der Branche der künstlichen Intelligenz auf.
Das obige ist der detaillierte Inhalt vonAuf dem Gebiet der künstlichen Intelligenz ist ein Durchbruch gelungen: Das Problem des „quellenlosen Wassers' inländisch hergestellter Großmodelle wurde gelöst.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Am 30. Mai kündigte Tencent ein umfassendes Upgrade seines Hunyuan-Modells an. Die auf dem Hunyuan-Modell basierende App „Tencent Yuanbao“ wurde offiziell eingeführt und kann in den App-Stores von Apple und Android heruntergeladen werden. Im Vergleich zur Hunyuan-Applet-Version in der vorherigen Testphase bietet Tencent Yuanbao Kernfunktionen wie KI-Suche, KI-Zusammenfassung und KI-Schreiben für Arbeitseffizienzszenarien. Yuanbaos Gameplay ist außerdem umfangreicher und bietet mehrere Funktionen für KI-Anwendungen , und neue Spielmethoden wie das Erstellen persönlicher Agenten werden hinzugefügt. „Tencent strebt nicht danach, der Erste zu sein, der große Modelle herstellt.“ Liu Yuhong, Vizepräsident von Tencent Cloud und Leiter des großen Modells von Tencent Hunyuan, sagte: „Im vergangenen Jahr haben wir die Fähigkeiten des großen Modells von Tencent Hunyuan weiter gefördert.“ . In die reichhaltige und umfangreiche polnische Technologie in Geschäftsszenarien eintauchen und gleichzeitig Einblicke in die tatsächlichen Bedürfnisse der Benutzer gewinnen

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

1. Einführung in den Hintergrund Lassen Sie uns zunächst die Entwicklungsgeschichte von Yunwen Technology vorstellen. Yunwen Technology Company ... 2023 ist die Zeit, in der große Modelle vorherrschen. Viele Unternehmen glauben, dass die Bedeutung von Diagrammen nach großen Modellen stark abgenommen hat und die zuvor untersuchten voreingestellten Informationssysteme nicht mehr wichtig sind. Mit der Förderung von RAG und der Verbreitung von Data Governance haben wir jedoch festgestellt, dass eine effizientere Datenverwaltung und qualitativ hochwertige Daten wichtige Voraussetzungen für die Verbesserung der Wirksamkeit privatisierter Großmodelle sind. Deshalb beginnen immer mehr Unternehmen, darauf zu achten zu wissenskonstruktionsbezogenen Inhalten. Dies fördert auch den Aufbau und die Verarbeitung von Wissen auf einer höheren Ebene, wo es viele Techniken und Methoden gibt, die erforscht werden können. Es ist ersichtlich, dass das Aufkommen einer neuen Technologie nicht alle alten Technologien besiegt, sondern auch neue und alte Technologien integrieren kann.

Laut Nachrichten vom 13. Juni hat Xiaomis Assistent für künstliche Intelligenz „Xiao Ai“ laut Bytes öffentlichem Bericht „Volcano Engine“ eine Zusammenarbeit mit Volcano Engine erzielt. Die beiden Parteien werden ein intelligenteres interaktives KI-Erlebnis auf der Grundlage des großen Beanbao-Modells erzielen . Berichten zufolge kann das von ByteDance erstellte groß angelegte Beanbao-Modell bis zu 120 Milliarden Text-Tokens effizient verarbeiten und täglich 30 Millionen Inhalte generieren. Xiaomi nutzte das große Doubao-Modell, um die Lern- und Denkfähigkeiten seines eigenen Modells zu verbessern und einen neuen „Xiao Ai Classmate“ zu schaffen, der nicht nur die Benutzerbedürfnisse genauer erfasst, sondern auch eine schnellere Reaktionsgeschwindigkeit und umfassendere Inhaltsdienste bietet. Wenn ein Benutzer beispielsweise nach einem komplexen wissenschaftlichen Konzept fragt, &ldq

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten
