Récemment, Jia Yangqing, l'ancien scientifique en chef de l'IA d'Alibaba, s'est plaint qu'un nouveau modèle domestique utilise en fait l'architecture LLaMA et n'a modifié que quelques noms de variables dans le code, déclenchant des discussions animées sur Internet. Après que le grand modèle ait été accusé d'avoir répondu et publié le processus de modèle de formation, Jia Yangqing a récemment publié un article expliquant pourquoi la « modification magique » dans le domaine open source n'est pas souhaitable.
Il a également dit que même si une modification temporaire de la magie apportera du plaisir, si vous voulez vraiment réussir dans la communauté, vous devez être vraiment prêt à jouer avec la communauté
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!