Les modèles d'IA générative comme ChatGPT sont si étonnants que certains prétendent désormais que l'IA peut non seulement être à égalité avec les humains, mais souvent plus intelligente. Ils créent de merveilleuses œuvres d’art dans des styles éblouissants. Ils peuvent rédiger des textes pleins de détails, d’idées et de connaissances. Les artefacts qui en résultent sont si divers et apparemment si uniques qu'il est difficile de croire qu'ils proviennent d'une machine. Nous commençons seulement à découvrir tout ce que l’IA générative peut faire.
Certains observateurs estiment que ces nouvelles intelligences artificielles ont enfin franchi le seuil du test de Turing. D’autres soutiennent que le seuil n’est pas facilement dépassé, mais qu’il est simplement exagéré. Cependant, ce chef-d’œuvre est si étonnant qu’un groupe de personnes est déjà au bord du chômage.
Cependant, une fois que les gens s’y habitueront, l’aura de l’intelligence artificielle générative disparaîtra. Un groupe d’observateurs pose des questions de la bonne manière, ce qui amène ces machines intelligentes à dire quelque chose de stupide ou de faux. C'est devenu une mode de nos jours. Certains ont utilisé de vieilles bombes logiques populaires dans les cours d'art des écoles primaires, comme demander une photo du soleil la nuit ou d'un ours polaire dans une tempête de neige. D’autres ont fait des demandes bizarres qui démontraient les limites de la conscience contextuelle de l’IA, également connue sous le nom de bon sens. Les personnes intéressées peuvent calculer les schémas d’échec de l’IA générative.
Cet article propose dix lacunes ou défauts de l'intelligence artificielle générative. Ce Qing Neng peut être interprété comme un raisin un peu aigre, car si les machines étaient autorisées à prendre le relais, il perdrait son emploi. On peut dire que je suis une petite personne qui soutient l’équipe humaine, mais j’espère juste que les humains pourront faire preuve d’héroïsme dans leur lutte contre les machines. Pourtant, ne devrions-nous pas tous être un peu inquiets ?
Lorsque les modèles d'IA génératifs comme DALL-E et ChatGPT ont été créés pour la première fois, ils ont en fait simplement créé de nouveaux modèles à partir des millions d'exemples dans leurs ensembles de formation. Le résultat est une synthèse de copier-coller. provenant de diverses sources. Si un humain fait cela, cela s’appelle du plagiat.
Bien sûr, les humains apprennent aussi par imitation. Dans certains cas, cependant, l’emprunt est si évident qu’il inquiéterait un enseignant du primaire. Ce contenu généré par l’IA se compose de gros morceaux de texte, présentés plus ou moins mot à mot. Parfois, cependant, le mélange ou la synthèse est suffisamment important pour que même lorsqu'il est confié à un groupe de professeurs d'université, il soit difficile d'en découvrir l'origine. En tout cas, il est impossible d’y voir un caractère unique. Aussi brillantes qu’étaient ces machines, elles n’étaient pas capables de produire des œuvres véritablement nouvelles.
Bien que le plagiat soit en grande partie une préoccupation des écoles, la loi sur le droit d'auteur s'applique également au marché. Lorsqu’une personne plagie le travail d’une autre personne, elle risque d’être traduite en justice et d’être condamnée à une amende pouvant atteindre des millions de dollars. Mais qu’en est-il de l’intelligence artificielle ? Les mêmes règles s’appliquent-elles à eux ?
Le droit d'auteur est un sujet complexe et le statut juridique de l'IA générative prendra des années à être résolu. Mais rappelez-vous ceci : lorsque l’IA commencera à produire un travail qui semble suffisamment bon pour mettre les humains au bord du chômage, certains d’entre eux utiliseront sûrement leur nouveau temps libre pour intenter des poursuites.
Le plagiat et le droit d'auteur ne sont pas les seuls problèmes juridiques soulevés par l'IA générative. Les avocats imaginent déjà de nouvelles questions d’éthique contentieuse. Par exemple, une entreprise qui développe un programme de peinture devrait-elle collecter des données sur le comportement de peinture des utilisateurs humains, puis utiliser ces données pour entraîner une intelligence artificielle ? Les humains devraient-ils être rémunérés pour l’utilisation de ce travail créatif ? Le succès de la génération actuelle d’intelligence artificielle repose en grande partie sur l’acquisition de données. Alors, que se passe-t-il lorsque les personnes qui ont généré les données veulent une part du gâteau ? Lesquels sont justes ? Qu'est-ce qui peut être considéré comme légal ?
L'IA est particulièrement douée pour imiter le type d'intelligence que les humains mettent de nombreuses années à développer. Lorsque les anthropologues dressent le portrait d’un artiste obscur du XVIIe siècle ou écrivent de la nouvelle musique en utilisant les structures tonales d’une Renaissance presque oubliée, nous avons de bonnes raisons d’être impressionnés. Nous savons qu’il faut des années de recherche pour développer des connaissances aussi approfondies. Lorsqu’une IA fait les mêmes choses après seulement quelques mois d’entraînement, les résultats peuvent être étonnamment précis et corrects, mais il manque certains ingrédients clés.
Si une machine bien entraînée pouvait trouver le bon vieux reçu dans une boîte à chaussures numérique remplie de milliards de disques, elle pourrait également apprendre tout ce qu'il y a à savoir sur un poète comme Aphra Behn. On pourrait même croire que des machines ont été construites pour décoder la signification des hiéroglyphes mayas. L’IA peut sembler imiter le côté ludique et imprévisible de la créativité humaine, mais elle n’y parvient pas vraiment. Dans le même temps, l’imprévisibilité est le moteur de l’innovation créative. Une industrie comme la mode est non seulement obsédée par le changement, mais définie par celui-ci. En effet, l’intelligence artificielle a sa place, mais la bonne vieille intelligence humaine durement acquise aussi.
En matière d'intelligence, l'intelligence artificielle est de nature mécanique et basée sur des règles. Une fois que l’IA traite un ensemble de données d’entraînement, elle crée un modèle qui ne change pas vraiment. Certains ingénieurs et data scientists envisagent de recycler progressivement les modèles d’IA au fil du temps afin que les machines puissent apprendre à s’adapter. Mais, dans la plupart des cas, l’idée est de créer un ensemble complexe de neurones qui codent certaines connaissances sous une forme fixe. La constance a sa place et peut fonctionner pour certaines industries. Le danger de l’IA est qu’elle restera à jamais coincée dans l’air du temps de ses données d’entraînement. Que se passe-t-il lorsque nous, les humains, devenons tellement dépendants de l’IA générative que nous ne pouvons plus générer de nouveau matériel pour former des modèles ?
Les données de formation pour l'IA doivent provenir de quelque part, et nous ne savons pas toujours à quoi nous attendre dans un réseau neuronal. Que se passe-t-il si une IA divulgue des informations personnelles à partir de ses données d’entraînement ? Pire encore, verrouiller l’IA est beaucoup plus difficile car elle est conçue pour être très flexible. Une base de données relationnelle peut restreindre l'accès à des tables spécifiques contenant des informations personnelles. Cependant, l’IA peut interroger des dizaines de manières différentes. Les attaquants apprendront rapidement à poser les bonnes questions de la bonne manière pour obtenir les données sensibles qu’ils souhaitent. Par exemple, disons que la latitude et la longitude d'un certain actif sont verrouillées. Un attaquant intelligent pourrait demander à l'emplacement l'heure exacte à laquelle le soleil se lèvera dans quelques semaines. Une IA dévouée tentera de répondre. Nous ne savons pas encore comment enseigner à l’IA la protection des données privées.
Si vous savez que les premiers programmeurs mainframe ont inventé l'acronyme GIGO ou "Garbage in, Garbage out", vous pouvez comprendre qu'ils l'ont compris depuis Le cœur des problèmes informatiques. De nombreux problèmes liés à l’IA proviennent de mauvaises données d’entraînement. Si l’ensemble de données est inexact ou biaisé, les résultats le refléteront sûrement.
Le matériel au cœur de l'IA générative est peut-être aussi logique que Spock, mais les humains qui construisent et entraînent les machines ne le sont pas. Il a été démontré que les préjugés et le favoritisme se retrouvent dans les modèles d’IA. Peut-être que quelqu'un a utilisé des données biaisées pour créer le modèle. Peut-être ont-ils ajouté des remplacements pour empêcher le modèle de répondre à des questions brûlantes spécifiques. Peut-être qu’ils mettent des réponses codées en dur et que cela devient alors difficile à détecter. L’humanité a trouvé de nombreuses façons de faire en sorte que l’intelligence artificielle devienne un excellent véhicule pour nos croyances néfastes.
Nous pardonnons facilement aux modèles d'IA de faire des erreurs car ils font bien d'autres choses. Cependant, de nombreuses erreurs sont difficiles à prédire car l’intelligence artificielle pense différemment des humains. Par exemple, de nombreux utilisateurs de la fonction de conversion texte-image ont constaté que l'IA se trompait sur des choses assez simples, comme l'arithmétique. Les humains apprennent l’arithmétique de base à l’école primaire, et nous utilisons ensuite cette compétence de diverses manières. Demandez à un enfant de 10 ans de dessiner une pieuvre et il déterminera presque certainement qu'elle a huit pattes. Les versions actuelles de l’intelligence artificielle ont tendance à s’enliser lorsqu’il s’agit d’utilisations abstraites et contextuelles des mathématiques. Cela pourrait facilement être modifié si le modéliste accordait une certaine attention à ce faux pas, mais il existe d’autres faux pas. L’intelligence artificielle est différente de l’intelligence humaine, ce qui signifie que la stupidité des machines sera également différente.
Parfois sans nous en rendre compte, nous, les humains, avons tendance à combler les lacunes de l'intelligence artificielle. Nous complétons les informations manquantes ou insérons les réponses. Si une IA nous disait qu’Henri VIII est le roi qui a assassiné sa femme, nous ne le remettrions pas en question car nous ne comprenons pas nous-mêmes cette histoire. Nous supposons simplement à l’avance que l’IA a raison, tout comme nous le faisons lorsque nous applaudissons devant une star charismatique. Si une affirmation semble confiante, l’esprit humain est souvent prêt à l’accepter comme vraie et correcte.
Le problème le plus délicat pour les utilisateurs d'IA générative est de savoir quand l'IA se trompe. Les machines ne peuvent pas mentir comme les humains, mais cela les rend plus dangereuses. Ils peuvent produire quelques éléments de données parfaitement précis, puis se lancer dans la spéculation, voire dans la pure calomnie, sans que personne ne s’en rende compte. Les concessionnaires de voitures d'occasion ou les joueurs de poker ont tendance à savoir quand ils trichent, et la plupart disposent de preuves démontrant leur comportement diffamatoire. Mais ce n’est pas le cas de l’intelligence artificielle.
Le contenu numérique est reproductible à l'infini, ce qui a mis à rude épreuve de nombreux modèles économiques construits autour de la rareté. L’IA générative brisera davantage de ces modèles. L’IA générative mettra au chômage certains écrivains et artistes ; elle bouleversera également de nombreuses règles économiques sur lesquelles nous comptons pour survivre. Le contenu financé par la publicité peut-il encore avoir un rôle à jouer alors que les publicités et le contenu peuvent être remixés et renaître à l’infini ? La partie gratuite d’Internet sera-t-elle réduite à un monde où les robots cliquent sur des publicités sur des pages Web, toutes conçues et répliquées à l’infini par l’IA générative ?
Cette abondance facile pourrait perturber tous les recoins de l’économie. Si ces jetons pouvaient être répliqués pour toujours, les gens continueraient-ils à payer pour des jetons non réplicables ? Si faire de l’art était si facile, serait-il toujours respecté ? Est-ce que ce sera encore spécial ? Si ce n’était pas spécial, est-ce que quelqu’un s’en soucierait ? Est-ce que tout perd de la valeur lorsqu’il est tenu pour acquis ? Est-ce ce que Shakespeare voulait dire lorsqu'il disait « Les frondes et les flèches d'une fortune scandaleuse » ? N'essayons pas de répondre nous-mêmes à cette question. Tournons-nous vers l’intelligence artificielle générative pour trouver des réponses. La réponse sera intéressante, étrange et finalement mystérieusement piégée dans un monde souterrain entre le bien et le mal.
Source : www.cio.com
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!