L'intelligence artificielle (IA) fait référence à la simulation de l'intelligence humaine sur des machines programmées pour penser et agir comme des humains. La technologie de l'IA permet aux ordinateurs d'effectuer des tâches qui nécessitent généralement l'intelligence humaine, telles que la perception visuelle, la reconnaissance vocale, la prise de décision et la traduction linguistique.
Ozlem Garibay, professeur adjoint au Département de génie industriel et des systèmes de gestion de l'Université de Floride centrale, a dirigé une étude qui a identifié six défis majeurs en matière d'IA que les humains doivent surmonter pour améliorer la relation des humains avec l'IA et garantir son éthique. et Utilisation équitable.
Garibay et 26 autres scientifiques ont mené une étude pour identifier les problèmes et les défis que les humains doivent résoudre pour garantir que l'IA est fiable, sûre et digne de confiance, et conforme aux valeurs humaines.
Ce rapport de recherche a été publié dans l'International Journal of Human-Computer Interaction. Voici les six défis majeurs de l'IA auxquels l'humanité est confrontée identifiés par l'équipe de recherche :
L'IA devrait être capable de découvrir des opportunités de mise en œuvre bénéfiques au bien-être humain. Il convient également d’envisager de favoriser le bien-être de l’utilisateur lorsqu’il interagit avec l’IA.
L'IA responsable fait référence au concept de priorisation du bien-être humain et social pendant le cycle de vie de l'IA. Cela garantit que les avantages potentiels de l’IA sont exploités d’une manière cohérente avec les valeurs et les priorités humaines, tout en atténuant également le risque de conséquences involontaires ou de manquements éthiques.
La collecte, l'utilisation et la diffusion de données dans les systèmes d'IA doivent être soigneusement étudiées pour garantir la protection de la vie privée et prévenir toute utilisation nuisible d'individus ou de groupes.
Les principes de conception centrés sur l'humain pour les systèmes d'IA doivent utiliser un cadre capable de fournir des informations claires aux praticiens. Le cadre fera la distinction entre l’IA à très faible risque, l’IA qui ne nécessite pas de mesures spéciales, l’IA à très haut risque et l’IA interdite.
L'ensemble du cadre de gouvernance du cycle de vie de l'IA, du concept au développement en passant par le déploiement, doit être pris en compte.
Afin de promouvoir une relation éthique et équitable entre les humains et les systèmes d'IA, l'interaction entre les humains et l'IA doit être basée sur le principe de base du respect des capacités cognitives humaines. Plus précisément, les humains doivent conserver le contrôle total et la responsabilité des actions et des résultats des systèmes d’IA.
Cette recherche a duré plus de 20 mois et a rassemblé les points de vue de 26 experts internationaux issus d'horizons différents dans le domaine de la technologie de l'IA.
Garibay a déclaré : « Ces défis nécessitent la création de technologies d'IA centrées sur l'humain qui donnent la priorité à l'éthique, à l'équité et à l'amélioration du bien-être humain. Ces défis appellent à une approche centrée sur l'humain, y compris une conception responsable, la protection de la vie privée et le respect des principes humains. principes de conception centrés, gouvernance et surveillance appropriées, et respect mutuel des capacités cognitives humaines »
Dans l’ensemble, ces défis appellent à l’action de la communauté scientifique pour développer et mettre en œuvre des technologies d’IA qui donnent la priorité et profitent à l’humanité.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!