制作者 | 51CTO Technology Stack (WeChat ID: blog51cto)
パリで開催されるスタートアップ向けの年次テクノロジーカンファレンスである VivaTech で、Meta AI の CEO であるヤン・ルカン氏は、AI エコシステムで働きたい学生に次のようにアドバイスしました。 LLM (大規模な言語モデルに取り組む) を追求します。
次世代の AI システムの構築に興味がある場合、LLM で作業する必要はありません。これは大企業の問題であり、あなたはそれに貢献することはできません」とルカン氏はカンファレンスで述べた
また、人々は大規模な言語モデルの限界を克服できる次世代AIシステムを開発すべきであるとも述べた
興味深いことに、LLM (Large Language Model) の代替案についての議論がしばらく続いています。最近、Devika (Devika は Devin の後継者) の若き創設者である Mufeed VH が、人々がどのように動くべきかについて話しました。 Transformer モデルから離れて、新しいアーキテクチャの構築を開始します
誰もが同じことを行っていますが、RMKV (RNN アーキテクチャ) などの別のアーキテクチャに焦点を当てると非常に有益になると Mufeed は説明しました。この特定のアーキテクチャを使用した推論機能
また、このアプローチを使用すると、GPT-4 と同じくらい優れたものを構築できる可能性があるとも考えています
写真
しかし、LeCun の開発にもかかわらず、LLM はまだ改良中です 。 LLM を一度に研究することには反対ですが、Transformer トレーニング モデルはまだ進化中です。AI/ML コンサルタントの Dan Hou 氏は、GPT-4o について語り、そのトレーニング モデルを強調しました 元の記事では、すべての複雑なモデルの基礎が考慮されています。 4o はビデオとオーディオをネイティブに理解するように設計されており、これは将来のバージョンでトレーニングできるデータの量に影響します。ネイティブのマルチモーダル アーキテクチャを使えば、その答えはとてもとても良いものになると思います」と Hou 氏は言いました。 さらに、Sam Altman 氏も最近のインタビューで、データはもはや問題ではなくなり、トレーニングの問題は解決されると語っていました。 LLM 心配です。データの問題が解決できれば、LLM のスケーリング則は引き続き存在することになります。AIGC の詳細については、 51CTO AI.x コミュニティ以上がMeta AI CEO LeCun: LLM の仕事を追求しないでくださいの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。