Maison > Périphériques technologiques > IA > le corps du texte

Cinq risques majeurs de l'IA à l'ère du ChatGPT et de l'IA générative

PHPz
Libérer: 2023-04-10 14:41:04
avant
1616 Les gens l'ont consulté

Cinq risques majeurs de l'IA à l'ère du ChatGPT et de l'IA générative

Depuis des années, nous interagissons discrètement avec l’intelligence artificielle via les assistants vocaux, les réseaux sociaux, les algorithmes de recherche, la reconnaissance faciale sur nos téléphones, et bien plus encore. Mais avec l’émergence de l’IA générative telle que ChatGPT, l’intelligence artificielle a pris le devant de la scène.

Soudain, nous commençons à être viscéralement témoins de l’IA et à être émerveillés par ce que nous voyons et entendons. L’intelligence artificielle ne ressemble plus à « quelque chose qui va arriver un jour ». Il est désormais « là et prêt à changer le monde ».

Le changement comporte des risques. ChatGPT devrait être un signal d’alarme choquant pour les entreprises et les équipes de direction qui n’ont pas encore élaboré de plan de gestion des risques liés à l’IA. Cet article explore les risques associés à la mise en œuvre généralisée de l’intelligence artificielle.

Voici les 5 risques majeurs de l'intelligence artificielle auxquels les dirigeants d'entreprise devraient prêter attention :

1. Risque de perturbation

L'intelligence artificielle va perturber les modèles commerciaux et les marchés existants avec une technologie sans précédent. L’exemple le plus évident est ChatGPT lui-même. Qui aurait pensé que le statut de Google en tant que champion incontesté de la recherche serait remis en question de manière aussi soudaine et précaire ? comme le transport routier et le service à la clientèle, ou dans le pire des cas, perturber des emplois hautement structurés tels que le commerce financier et la radiologie. Nous savons désormais que les industries créatives telles que les médias et la publicité, ainsi que les industries de services personnalisés telles que l’enseignement et les conseils financiers, et même des domaines de compétence d’élite tels que la recherche et le développement pharmaceutiques et l’informatique, sont en danger.

Selon un rapport de Goldman Sachs de mars 2023, l'IA générative comme ChatGPT pourrait supprimer jusqu'à 300 millions d'emplois dans le monde, dont 19 % des emplois existants aux États-Unis. Quel que soit votre secteur d’activité ou votre carrière, il est presque certain que les entreprises seront confrontées à des changements importants dans les années à venir. Contrairement aux perturbations technologiques passées, les enjeux cette fois-ci pourraient bien être de vie ou de mort.

2. Risques de cybersécurité

La protection des données, des systèmes et des personnes de l'organisation contre les pirates et autres saboteurs est devenue un problème croissant pour les dirigeants d'entreprise. En 2022, le nombre d'attaques a augmenté de 38 %, l'organisation moyenne étant confrontée à plus de 1 000 attaques par semaine, et le coût moyen par violation de données a grimpé à plus de 4 millions de dollars.

L’intelligence artificielle va exacerber ce défi de façon exponentielle. Imaginez lorsqu'une IA sophistiquée comme ChatGPT envoie des e-mails à des employés qui semblent provenir du patron, en utilisant des informations généralement connues uniquement du patron, et même en utilisant le style d'écriture du patron. Une telle attaque de phishing aurait une telle ampleur.

Depuis au moins 2019, des rapports font état d'utilisation de deepfakes tels que le clonage vocal dans des escroqueries en ligne. À mesure que l’intelligence artificielle s’améliore et se diversifie chaque jour, le problème de la gestion des cyber-risques ne fait qu’empirer.

Si vous pensez que les pare-feu et autres technologies de défense de réseau actuelles peuvent vous sauver, détrompez-vous. L’IA aidera les méchants à trouver le maillon le plus faible d’une défense, puis à travailler 24 heures sur 24 jusqu’à ce qu’une percée soit trouvée.

3. Risque de réputation

Lorsque ChatGPT est apparu pour la première fois aux yeux du public, les dirigeants de Google ont d'abord cité le « risque de réputation » comme raison et ont déclaré qu'ils ne lanceraient pas immédiatement l'intelligence artificielle pour rivaliser avec elle. Mais il est revenu sur sa déclaration quelques jours plus tard et a annoncé le lancement de Bard. Les erreurs et les embarras chez Bing et dans d'autres domaines de l'IA générative ont prouvé que les préoccupations initiales de Google étaient fondées.

Le public regarde. Lorsque l’IA se comporte d’une manière incompatible avec les valeurs, cela peut conduire à un désastre en termes de relations publiques. Les formes émergentes d’intelligence artificielle se comportent déjà comme des monstres racistes et misogynes, conduisant à de fausses arrestations et amplifiant les préjugés dans l’embauche des employés.

Parfois, l'intelligence artificielle peut détruire les relations humaines. Selon Forrester, 75 % des consommateurs sont frustrés par les chatbots du service client et 30 % ont transféré leurs activités ailleurs après de mauvaises interactions avec le service client piloté par l'IA. L’intelligence artificielle est encore jeune et sujette aux erreurs. Cependant, malgré les enjeux élevés, nous espérons que de nombreuses organisations commerciales comprendront pleinement les risques de réputation impliqués lors du déploiement de l’IA.

4. Risques juridiques

Le gouvernement fédéral se prépare à relever les défis sociaux provoqués par l'essor de l'intelligence artificielle. En 2022, l’administration Biden a dévoilé un projet de Déclaration des droits sur l’intelligence artificielle visant à protéger la vie privée et les libertés civiles. En 2023, le National Institute of Standards and Technology a publié un cadre de gestion des risques liés à l’intelligence artificielle pour aider les conseils d’administration et autres dirigeants organisationnels à faire face aux risques liés à l’intelligence artificielle. L'Algorithmic Accountability Act de 2022 n'est encore qu'un projet de loi visant à créer de la transparence dans un large éventail de mécanismes de prise de décision automatisés. Il s’agit simplement d’une loi fédérale. Rien qu’en 2022, pas moins de 17 États ont proposé une législation pour régir l’intelligence artificielle, ciblant la reconnaissance faciale, les biais d’embauche, les algorithmes addictifs et d’autres cas d’utilisation de l’IA. Pour les entreprises multinationales, le projet de loi sur l’intelligence artificielle proposé par l’UE vise à interdire ou à modérer l’utilisation de la biométrie, la manipulation psychologique, l’exploitation des groupes vulnérables et la notation du crédit social.

De nouvelles réglementations arriveront bientôt, peut-être d’ici 2023. Les entreprises sont confrontées à des risques allant au-delà de la conformité. Qui sera tenu responsable en cas de problème avec un produit ou un service utilisant l’IA : le fournisseur de produits ou de services ? Le fournisseur de données ou, à tout le moins, l’entreprise ? AI prend des décisions pour se conformer aux nouvelles dispositions de transparence de la loi en .

5. Risque opérationnel

Le dernier domaine de risque de l'IA est peut-être le plus évident, mais à certains égards le plus dangereux. Que se passe-t-il si un employé utilise accidentellement ChatGPT, entraînant la fuite de secrets commerciaux ? Que se passe-t-il lorsque l’IA ne fonctionne pas comme prévu ? Les impacts négatifs d’une adoption trop rapide de l’IA peuvent être énormes ?

ChatGPT est aujourd’hui l’exemple le plus célèbre d’intelligence artificielle avancée, avec des personnes du monde entier qui le testent et signalent ses lacunes chaque jour. Mais l’IA utilisée par les entreprises ne bénéficie peut-être pas de cet avantage. Lorsque l’IA vous dit de redoubler d’efforts sur un fournisseur, un matériau ou un produit spécifique, mais se trompe, comment savoir à quoi s’attendre

Watson d’IBM a un jour suggéré des traitements incorrects et dangereux pour les patients atteints de cancer ? La société britannique Tyndaris Investments est poursuivie en justice par le magnat de Hong Kong Charles Li après que son fonds spéculatif AI ait perdu jusqu'à 20 millions de dollars par jour. De plus, une Tesla incontrôlée percute et tue un piéton ? C'est le travail du chef d'entreprise d'être conscient de ce risque opérationnel et de le gérer.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal