Produit par | 51CTO Technology Stack (WeChat ID : blog51cto)
Lors de VivaTech, la conférence technologique annuelle pour les startups à Paris, Yann LeCun, PDG de Meta AI, a conseillé aux étudiants qui souhaitent travailler dans l'écosystème de l'IA de ne pas poursuivre un LLM (travail sur de grands modèles de langage).
Si vous souhaitez créer la prochaine génération de systèmes d'IA, vous n'êtes pas obligé de travailler en LLM. C'est l'affaire des grandes entreprises et vous ne pouvez pas y contribuer", a déclaré LeCun lors de la conférence.
Il a également déclaré que les gens devraient développer des systèmes d'IA de nouvelle génération capables de surmonter les limites des grands modèles de langage.
Fait intéressant, des discussions sur les alternatives au LLM (Large Language Model) durent depuis un certain temps, Mufeed VH, le jeune fondateur de Devika (Devika est le remplaçant de Devin) a parlé de la façon dont les gens devraient bouger. s'éloigner du modèle Transformer et commencer à construire de nouvelles architectures.
Bien que tout le monde fasse la même chose, il serait très bénéfique que nous nous concentrions sur une architecture différente, telle que RMKV (une architecture RNN), a expliqué Mufeed et des fenêtres contextuelles illimitées. capacités de raisonnement avec cette architecture particulière
Il pense également qu'avec cette approche, il pourrait même être possible de construire quelque chose d'aussi impressionnant que GPT-4
Photo
Malgré celui de LeCun. opposition à l'étude du LLM en même temps, le consultant AI/ML Dan Hou a parlé de GPT-4o et a souligné son modèle de formation
L'article original a été considéré comme la base de tous les modèles complexes, GPT-. 4o est conçu pour comprendre la vidéo et l'audio de manière native. Cela affecte la quantité de données sur lesquelles les futures versions peuvent être formées.
« Dans quelle mesure l'IA peut-elle devenir intelligente ? Avec une architecture multimodale native, je suppose que la réponse est très, très bonne", a déclaré Hou.
De plus, Sam Altman a également déclaré dans une récente interview que les données ne seraient plus un problème, résolvant ainsi le problème de la formation. LLM Inquiétez-vous. Imaginez, si le problème des données peut être résolu, la loi d'échelle de LLM continuera d'exister. Pour plus d'informations sur l'AIGC, veuillez visiter :
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!