Nouvelles du 17 février, OpenAI, la société de recherche en IA derrière le populaire chatbot ChatGPT, a déclaré qu'elle travaillait dur pour réduire les biais et les mauvais comportements dans le système et qu'elle permettrait aux utilisateurs de personnaliser certains des chatbots. comportements. Auparavant, de nombreux rapports faisaient état d'interactions inappropriées de ChatGPT avec les utilisateurs et de résultats erronés.
OpenAI a reconnu dans un article de blog publié sur le site Web de son entreprise : « Depuis le lancement de ChatGPT, les utilisateurs ont partagé un certain nombre de résultats qu'ils jugent biaisés, offensants ou autrement répréhensibles. Dans de nombreux cas, nous avons approuvé ces préoccupations. révèlent de réelles limites de notre système, nous souhaitons donc y remédier. "
La société a poursuivi: "Nous investissons dans la recherche et l'ingénierie pour réduire les manières évidentes et subtiles dont ChatGPT répond actuellement aux différentes entrées. rejette les résultats qu'il ne devrait pas, alors que dans d'autres cas, il ne les rejette pas quand il le devrait. «
La décision d'OpenAI est une réponse aux préoccupations selon lesquelles ChatGPT lui-même est biaisé, aux rapports faisant état de résultats inexacts et d'inconduites, ainsi qu'aux critiques plus larges de Microsoft. et Google de nouveaux produits de recherche d'IA actuellement testés. Dans un article de blog publié mercredi, Microsoft aurait détaillé les limites de son nouvel outil de chat Bing basé sur la technologie OpenAI, tandis que Google aurait demandé à ses employés de consacrer plus de temps à l'amélioration manuelle des réponses de son système Bard.
OpenAI a également déclaré que la société augmente ses efforts de développement sur ChatGPT, notamment en permettant à chaque utilisateur une personnalisation limitée en fonction de ses goûts, de son style et de sa vue.
OpenAI a écrit dans un article de blog : « Nous pensons que l'IA devrait être un outil utile à tout le monde, et donc chacun devrait pouvoir la personnaliser dans les limites dictées par la société. peut être fortement répréhensible. Trouver le juste équilibre en poussant la personnalisation à l'extrême peut conduire à des utilisations malveillantes de notre technologie, ou à la création d'une « IA flagorneuse » qui amplifie aveuglément les croyances existantes des gens. Par conséquent, le comportement du système nécessite toujours des contraintes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!