News le 17 mars, cette semaine OpenAI a publié GPT-4. Alors que le chatbot IA continue d’ajouter de nouvelles fonctionnalités, les inquiétudes grandissent quant au fait que l’outil IA pourrait également être utilisé à des fins néfastes. Le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a admis dans une interview que les personnes ayant des arrière-pensées peuvent facilement utiliser l'intelligence artificielle pour nuire à autrui.
«Ces modèles sont très solides et vont le devenir», a-t-il déclaré. "À un moment donné, il est très facile de faire beaucoup de mal avec ces modèles si quelqu'un le souhaite", a déclaré
Satzkover en expliquant pourquoi OpenAI ne fournit plus de détails sur la façon de former ces modèles.
Il a déclaré dans une interview : "Alors que les performances de l'intelligence artificielle continuent de s'améliorer, il y a des raisons de ne pas vouloir les divulguer." "Je suis sûr que d'ici quelques années, il sera très clair pour tout le monde que c'est le cas." Il est imprudent de pratiquer l’intelligence artificielle open source. »
Le PDG d’OpenAI, Sam Altman, a exprimé des sentiments similaires dans le passé.
Dans une interview plus tôt cette année, Altman a déclaré que même si le meilleur scénario pour l'intelligence artificielle est "si incroyablement bon qu'il m'est difficile de l'imaginer", le pire des cas est "éteignons tous le courant". flammes".
Altman a également tweeté le mois dernier qu'il pensait que les outils d'IA pouvaient aider les gens à devenir plus efficaces, en meilleure santé et plus intelligents, mais il a ajouté que le monde pourrait être plus proche des outils d'IA terrifiants possibles. Ce n'est pas si loin, donc les réglementer est "vital". .
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!