Maison > Périphériques technologiques > IA > LeCun, PDG de Meta AI : Ne poursuivez pas un emploi LLM

LeCun, PDG de Meta AI : Ne poursuivez pas un emploi LLM

王林
Libérer: 2024-06-09 20:29:50
original
797 Les gens l'ont consulté

Produit par | 51CTO Technology Stack (WeChat ID : blog51cto)

Lors de VivaTech, la conférence technologique annuelle pour les startups à Paris, Yann LeCun, PDG de Meta AI, a conseillé aux étudiants qui souhaitent travailler dans l'écosystème de l'IA de ne pas poursuivre un LLM (travail sur de grands modèles de langage).

Si vous souhaitez créer la prochaine génération de systèmes d'IA, vous n'êtes pas obligé de travailler en LLM. C'est l'affaire des grandes entreprises et vous ne pouvez pas y contribuer", a déclaré LeCun lors de la conférence.

Il a également déclaré que les gens devraient développer des systèmes d'IA de nouvelle génération capables de surmonter les limites des grands modèles de langage.

1 . Éloignez-vous du LLM

Fait intéressant, des discussions sur les alternatives au LLM (Large Language Model) durent depuis un certain temps, Mufeed VH, le jeune fondateur de Devika (Devika est le remplaçant de Devin) a parlé de la façon dont les gens devraient bouger. s'éloigner du modèle Transformer et commencer à construire de nouvelles architectures.

Bien que tout le monde fasse la même chose, il serait très bénéfique que nous nous concentrions sur une architecture différente, telle que RMKV (une architecture RNN), a expliqué Mufeed et des fenêtres contextuelles illimitées. capacités de raisonnement avec cette architecture particulière

Il pense également qu'avec cette approche, il pourrait même être possible de construire quelque chose d'aussi impressionnant que GPT-4

Meta AI的首席执行官LeCun:不要从事LLM工作Photo

2 Cependant, LLM s'améliore encore

Malgré celui de LeCun. opposition à l'étude du LLM en même temps, le consultant AI/ML Dan Hou a parlé de GPT-4o et a souligné son modèle de formation

L'article original a été considéré comme la base de tous les modèles complexes, GPT-. 4o est conçu pour comprendre la vidéo et l'audio de manière native. Cela affecte la quantité de données sur lesquelles les futures versions peuvent être formées.

« Dans quelle mesure l'IA peut-elle devenir intelligente ? Avec une architecture multimodale native, je suppose que la réponse est très, très bonne", a déclaré Hou.

De plus, Sam Altman a également déclaré dans une récente interview que les données ne seraient plus un problème, résolvant ainsi le problème de la formation. LLM Inquiétez-vous. Imaginez, si le problème des données peut être résolu, la loi d'échelle de LLM continuera d'exister. Pour plus d'informations sur l'AIGC, veuillez visiter :

51CTO AI.x Community

https://www. .51cto.com/aigc/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal