L'impact de ChatGPT a touché diverses industries, ce qui prouve que l'intelligence artificielle est en train de changer le monde. En tout cas, ces évolutions ne sont pas fondamentalement certaines. Nous ne pouvons ignorer le fait que l’IA ne dispose pas d’une boussole morale inhérente ni d’un système de vérification des faits pour guider ses décisions, malgré les nouvelles opportunités passionnantes qu’elle offre dans de nombreux domaines.
Alors que le monde continue de devenir de plus en plus centré sur l’IA, nous devons insister pour vérifier les faits tout ce que nous entendons. Il n’est pas conseillé de faire confiance à l’IA de manière imprudente, car certains outils peuvent mal comprendre le contexte et commettre des erreurs en toute confiance, voire manipuler des données.
La chose la plus évidente et la plus fondamentale est la sécurité. Violer le principe de base « ne pas nuire » entraînera des conséquences graves et irréparables, telles que la trahison. En 2018, un conducteur est décédé lorsqu’une voiture autonome Tesla est entrée en collision avec un garde-corps en béton. Un document de recherche de 2019 a tenté de prouver que des lignes stratégiquement tracées sur la route pouvaient détourner un algorithme d’intelligence artificielle ou provoquer l’accident d’un véhicule, bien que ce cas soit une exception catastrophique.
Restreindre l'accès, maintenir l'intégrité des informations et maintenir la cohérence de l'accessibilité sont au cœur de la sécurité. Des milliers d’algorithmes exploitent les faiblesses de la robustesse et de la sécurité de l’intelligence artificielle. Ces attaques malveillantes continuent d'être imaginées. En l’absence de mesures de protection complètes, il est encore plus important que les ingénieurs en intelligence analogique personnalisent le rapport de sécurité approprié pour chaque nouvelle mesure de sécurité. L’IA peut être trompée ou affaiblie par des défauts de conception ou des faiblesses dans des attaques adverses spécifiques. Si cela était vrai, il serait également possible de détourner le fauteuil roulant de quelqu'un pour se rendre dans une zone sûre.
La prévention des préjudices est également au cœur des principes de confidentialité. Il existe de nombreuses fuites d’informations, qui offrent toutes la possibilité aux acteurs malveillants d’identifier ou d’analyser des données sur le bonheur, l’argent et la vie personnelle d’un individu sans son consentement. Un nombre inquiétant de 81 % des Américains estiment que les avantages de la collecte de données l’emportent sur les risques. Les chercheurs ont découvert que les personnes de couleur et les groupes ethniques minoritaires sont plus vulnérables que les autres groupes. En raison de sa sous-représentation, une anonymisation plus efficace de ses informations est encore plus nécessaire suite aux fuites évoquées précédemment.
Concernant l'intelligence informatique, la simplicité est une caractéristique générale. Les utilisateurs savent au moins qu’ils interagissent avec l’intelligence artificielle plutôt qu’avec un humain. À l’extrême, tous les cycles et informations professionnels sont rapportés, accessibles et significatifs. Cet exemple illustre pleinement les conséquences d’un manque de transparence, et le scandale de la notation des examens au Royaume-Uni est très représentatif. L'algorithme prend en compte non seulement les performances d'un élève, mais également l'historique des scores de l'école et le nombre d'élèves qui ont reçu le même score lors de l'évaluation des scores.
L'éthique et l'équité doivent être les objectifs de l'intelligence artificielle. Elle doit adhérer à des normes sociales établies et appliquées, également appelées lois. C'est simple, mais techniquement difficile. La véritable histoire commence lorsque les pouvoirs publics exécutent des stratégies obsolètes ou adoptent des stratégies de libre entreprise. Il incombe aux ingénieurs et propriétaires d’IA de trouver le bon équilibre éthique pour répondre aux intérêts, aux moyens et aux fins des parties prenantes, aux droits à la vie privée et à la collecte de données. Et pas seulement sur le lieu de travail, les grandes entreprises technologiques sont souvent accusées de perpétuer le sexisme. Les militants et les chercheurs considèrent que les assistantes vocales féminines normalisent l’image des femmes en tant que travailleuses et parents.
Les responsabilités garantissent que le cadre peut être étudié par rapport aux différents composants référencés précédemment. Pour filtrer les progrès et éviter les pertes de profits, de nombreuses organisations développent désormais en interne une IA responsable. Toutefois, il se peut qu’il ne permette pas un contrôle ou un examen externe. Clearview AI est un exemple à cet égard. La technologie de reconnaissance faciale de l'entreprise surpasse toutes les autres technologies du marché, mais elle est une propriété privée et contrôlée par son propriétaire. Si elle est exploitée par des gangs criminels ou des régimes autoritaires, cela pourrait mettre en danger d’innombrables personnes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!