


10 raisons pour lesquelles l'intelligence artificielle générative est inquiétante
Les modèles d'IA générative comme ChatGPT sont si étonnants que certains prétendent désormais que l'IA peut non seulement être à égalité avec les humains, mais souvent plus intelligente. Ils créent de merveilleuses œuvres d’art dans des styles éblouissants. Ils peuvent rédiger des textes pleins de détails, d’idées et de connaissances. Les artefacts qui en résultent sont si divers et apparemment si uniques qu'il est difficile de croire qu'ils proviennent d'une machine. Nous commençons seulement à découvrir tout ce que l’IA générative peut faire.
Certains observateurs estiment que ces nouvelles intelligences artificielles ont enfin franchi le seuil du test de Turing. D’autres soutiennent que le seuil n’est pas facilement dépassé, mais qu’il est simplement exagéré. Cependant, ce chef-d’œuvre est si étonnant qu’un groupe de personnes est déjà au bord du chômage.
Cependant, une fois que les gens s’y habitueront, l’aura de l’intelligence artificielle générative disparaîtra. Un groupe d’observateurs pose des questions de la bonne manière, ce qui amène ces machines intelligentes à dire quelque chose de stupide ou de faux. C'est devenu une mode de nos jours. Certains ont utilisé de vieilles bombes logiques populaires dans les cours d'art des écoles primaires, comme demander une photo du soleil la nuit ou d'un ours polaire dans une tempête de neige. D’autres ont fait des demandes bizarres qui démontraient les limites de la conscience contextuelle de l’IA, également connue sous le nom de bon sens. Les personnes intéressées peuvent calculer les schémas d’échec de l’IA générative.
Cet article propose dix lacunes ou défauts de l'intelligence artificielle générative. Ce Qing Neng peut être interprété comme un raisin un peu aigre, car si les machines étaient autorisées à prendre le relais, il perdrait son emploi. On peut dire que je suis une petite personne qui soutient l’équipe humaine, mais j’espère juste que les humains pourront faire preuve d’héroïsme dans leur lutte contre les machines. Pourtant, ne devrions-nous pas tous être un peu inquiets ?
1, Plagiat
Lorsque les modèles d'IA génératifs comme DALL-E et ChatGPT ont été créés pour la première fois, ils ont en fait simplement créé de nouveaux modèles à partir des millions d'exemples dans leurs ensembles de formation. Le résultat est une synthèse de copier-coller. provenant de diverses sources. Si un humain fait cela, cela s’appelle du plagiat.
Bien sûr, les humains apprennent aussi par imitation. Dans certains cas, cependant, l’emprunt est si évident qu’il inquiéterait un enseignant du primaire. Ce contenu généré par l’IA se compose de gros morceaux de texte, présentés plus ou moins mot à mot. Parfois, cependant, le mélange ou la synthèse est suffisamment important pour que même lorsqu'il est confié à un groupe de professeurs d'université, il soit difficile d'en découvrir l'origine. En tout cas, il est impossible d’y voir un caractère unique. Aussi brillantes qu’étaient ces machines, elles n’étaient pas capables de produire des œuvres véritablement nouvelles.
2. Copyright
Bien que le plagiat soit en grande partie une préoccupation des écoles, la loi sur le droit d'auteur s'applique également au marché. Lorsqu’une personne plagie le travail d’une autre personne, elle risque d’être traduite en justice et d’être condamnée à une amende pouvant atteindre des millions de dollars. Mais qu’en est-il de l’intelligence artificielle ? Les mêmes règles s’appliquent-elles à eux ?
Le droit d'auteur est un sujet complexe et le statut juridique de l'IA générative prendra des années à être résolu. Mais rappelez-vous ceci : lorsque l’IA commencera à produire un travail qui semble suffisamment bon pour mettre les humains au bord du chômage, certains d’entre eux utiliseront sûrement leur nouveau temps libre pour intenter des poursuites.
3. Travail non rémunéré
Le plagiat et le droit d'auteur ne sont pas les seuls problèmes juridiques soulevés par l'IA générative. Les avocats imaginent déjà de nouvelles questions d’éthique contentieuse. Par exemple, une entreprise qui développe un programme de peinture devrait-elle collecter des données sur le comportement de peinture des utilisateurs humains, puis utiliser ces données pour entraîner une intelligence artificielle ? Les humains devraient-ils être rémunérés pour l’utilisation de ce travail créatif ? Le succès de la génération actuelle d’intelligence artificielle repose en grande partie sur l’acquisition de données. Alors, que se passe-t-il lorsque les personnes qui ont généré les données veulent une part du gâteau ? Lesquels sont justes ? Qu'est-ce qui peut être considéré comme légal ?
4. L'information n'est pas la connaissance
L'IA est particulièrement douée pour imiter le type d'intelligence que les humains mettent de nombreuses années à développer. Lorsque les anthropologues dressent le portrait d’un artiste obscur du XVIIe siècle ou écrivent de la nouvelle musique en utilisant les structures tonales d’une Renaissance presque oubliée, nous avons de bonnes raisons d’être impressionnés. Nous savons qu’il faut des années de recherche pour développer des connaissances aussi approfondies. Lorsqu’une IA fait les mêmes choses après seulement quelques mois d’entraînement, les résultats peuvent être étonnamment précis et corrects, mais il manque certains ingrédients clés.
Si une machine bien entraînée pouvait trouver le bon vieux reçu dans une boîte à chaussures numérique remplie de milliards de disques, elle pourrait également apprendre tout ce qu'il y a à savoir sur un poète comme Aphra Behn. On pourrait même croire que des machines ont été construites pour décoder la signification des hiéroglyphes mayas. L’IA peut sembler imiter le côté ludique et imprévisible de la créativité humaine, mais elle n’y parvient pas vraiment. Dans le même temps, l’imprévisibilité est le moteur de l’innovation créative. Une industrie comme la mode est non seulement obsédée par le changement, mais définie par celui-ci. En effet, l’intelligence artificielle a sa place, mais la bonne vieille intelligence humaine durement acquise aussi.
5. L'intelligence stagne
En matière d'intelligence, l'intelligence artificielle est de nature mécanique et basée sur des règles. Une fois que l’IA traite un ensemble de données d’entraînement, elle crée un modèle qui ne change pas vraiment. Certains ingénieurs et data scientists envisagent de recycler progressivement les modèles d’IA au fil du temps afin que les machines puissent apprendre à s’adapter. Mais, dans la plupart des cas, l’idée est de créer un ensemble complexe de neurones qui codent certaines connaissances sous une forme fixe. La constance a sa place et peut fonctionner pour certaines industries. Le danger de l’IA est qu’elle restera à jamais coincée dans l’air du temps de ses données d’entraînement. Que se passe-t-il lorsque nous, les humains, devenons tellement dépendants de l’IA générative que nous ne pouvons plus générer de nouveau matériel pour former des modèles ?
6, Confidentialité et sécurité
Les données de formation pour l'IA doivent provenir de quelque part, et nous ne savons pas toujours à quoi nous attendre dans un réseau neuronal. Que se passe-t-il si une IA divulgue des informations personnelles à partir de ses données d’entraînement ? Pire encore, verrouiller l’IA est beaucoup plus difficile car elle est conçue pour être très flexible. Une base de données relationnelle peut restreindre l'accès à des tables spécifiques contenant des informations personnelles. Cependant, l’IA peut interroger des dizaines de manières différentes. Les attaquants apprendront rapidement à poser les bonnes questions de la bonne manière pour obtenir les données sensibles qu’ils souhaitent. Par exemple, disons que la latitude et la longitude d'un certain actif sont verrouillées. Un attaquant intelligent pourrait demander à l'emplacement l'heure exacte à laquelle le soleil se lèvera dans quelques semaines. Une IA dévouée tentera de répondre. Nous ne savons pas encore comment enseigner à l’IA la protection des données privées.
7. Biais non perçu
Si vous savez que les premiers programmeurs mainframe ont inventé l'acronyme GIGO ou "Garbage in, Garbage out", vous pouvez comprendre qu'ils l'ont compris depuis Le cœur des problèmes informatiques. De nombreux problèmes liés à l’IA proviennent de mauvaises données d’entraînement. Si l’ensemble de données est inexact ou biaisé, les résultats le refléteront sûrement.
Le matériel au cœur de l'IA générative est peut-être aussi logique que Spock, mais les humains qui construisent et entraînent les machines ne le sont pas. Il a été démontré que les préjugés et le favoritisme se retrouvent dans les modèles d’IA. Peut-être que quelqu'un a utilisé des données biaisées pour créer le modèle. Peut-être ont-ils ajouté des remplacements pour empêcher le modèle de répondre à des questions brûlantes spécifiques. Peut-être qu’ils mettent des réponses codées en dur et que cela devient alors difficile à détecter. L’humanité a trouvé de nombreuses façons de faire en sorte que l’intelligence artificielle devienne un excellent véhicule pour nos croyances néfastes.
8. La stupidité des machines
Nous pardonnons facilement aux modèles d'IA de faire des erreurs car ils font bien d'autres choses. Cependant, de nombreuses erreurs sont difficiles à prédire car l’intelligence artificielle pense différemment des humains. Par exemple, de nombreux utilisateurs de la fonction de conversion texte-image ont constaté que l'IA se trompait sur des choses assez simples, comme l'arithmétique. Les humains apprennent l’arithmétique de base à l’école primaire, et nous utilisons ensuite cette compétence de diverses manières. Demandez à un enfant de 10 ans de dessiner une pieuvre et il déterminera presque certainement qu'elle a huit pattes. Les versions actuelles de l’intelligence artificielle ont tendance à s’enliser lorsqu’il s’agit d’utilisations abstraites et contextuelles des mathématiques. Cela pourrait facilement être modifié si le modéliste accordait une certaine attention à ce faux pas, mais il existe d’autres faux pas. L’intelligence artificielle est différente de l’intelligence humaine, ce qui signifie que la stupidité des machines sera également différente.
9. Crédulité humaine
Parfois sans nous en rendre compte, nous, les humains, avons tendance à combler les lacunes de l'intelligence artificielle. Nous complétons les informations manquantes ou insérons les réponses. Si une IA nous disait qu’Henri VIII est le roi qui a assassiné sa femme, nous ne le remettrions pas en question car nous ne comprenons pas nous-mêmes cette histoire. Nous supposons simplement à l’avance que l’IA a raison, tout comme nous le faisons lorsque nous applaudissons devant une star charismatique. Si une affirmation semble confiante, l’esprit humain est souvent prêt à l’accepter comme vraie et correcte.
Le problème le plus délicat pour les utilisateurs d'IA générative est de savoir quand l'IA se trompe. Les machines ne peuvent pas mentir comme les humains, mais cela les rend plus dangereuses. Ils peuvent produire quelques éléments de données parfaitement précis, puis se lancer dans la spéculation, voire dans la pure calomnie, sans que personne ne s’en rende compte. Les concessionnaires de voitures d'occasion ou les joueurs de poker ont tendance à savoir quand ils trichent, et la plupart disposent de preuves démontrant leur comportement diffamatoire. Mais ce n’est pas le cas de l’intelligence artificielle.
10, Abondance infinie
Le contenu numérique est reproductible à l'infini, ce qui a mis à rude épreuve de nombreux modèles économiques construits autour de la rareté. L’IA générative brisera davantage de ces modèles. L’IA générative mettra au chômage certains écrivains et artistes ; elle bouleversera également de nombreuses règles économiques sur lesquelles nous comptons pour survivre. Le contenu financé par la publicité peut-il encore avoir un rôle à jouer alors que les publicités et le contenu peuvent être remixés et renaître à l’infini ? La partie gratuite d’Internet sera-t-elle réduite à un monde où les robots cliquent sur des publicités sur des pages Web, toutes conçues et répliquées à l’infini par l’IA générative ?
Cette abondance facile pourrait perturber tous les recoins de l’économie. Si ces jetons pouvaient être répliqués pour toujours, les gens continueraient-ils à payer pour des jetons non réplicables ? Si faire de l’art était si facile, serait-il toujours respecté ? Est-ce que ce sera encore spécial ? Si ce n’était pas spécial, est-ce que quelqu’un s’en soucierait ? Est-ce que tout perd de la valeur lorsqu’il est tenu pour acquis ? Est-ce ce que Shakespeare voulait dire lorsqu'il disait « Les frondes et les flèches d'une fortune scandaleuse » ? N'essayons pas de répondre nous-mêmes à cette question. Tournons-nous vers l’intelligence artificielle générative pour trouver des réponses. La réponse sera intéressante, étrange et finalement mystérieusement piégée dans un monde souterrain entre le bien et le mal.
Source : www.cio.com
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g

Dans le monde du développement front-end, VSCode est devenu l'outil de choix pour d'innombrables développeurs grâce à ses fonctions puissantes et son riche écosystème de plug-ins. Ces dernières années, avec le développement rapide de la technologie de l'intelligence artificielle, des assistants de code IA sur VSCode ont vu le jour, améliorant considérablement l'efficacité du codage des développeurs. Les assistants de code IA sur VSCode ont poussé comme des champignons après la pluie, améliorant considérablement l'efficacité du codage des développeurs. Il utilise la technologie de l'intelligence artificielle pour analyser intelligemment le code et fournir une complétion précise du code, une correction automatique des erreurs, une vérification grammaticale et d'autres fonctions, ce qui réduit considérablement les erreurs des développeurs et le travail manuel fastidieux pendant le processus de codage. Aujourd'hui, je recommanderai 12 assistants de code d'IA de développement frontal VSCode pour vous aider dans votre parcours de programmation.
