Maison > Périphériques technologiques > IA > Comment faire progresser l'exploration de l'IA générative de manière sûre et fiable ?

Comment faire progresser l'exploration de l'IA générative de manière sûre et fiable ?

王林
Libérer: 2023-10-11 20:45:09
avant
775 Les gens l'ont consulté

De nos jours, l’exploration et la mise en œuvre de l’IA générative sont inévitablement liées aux enjeux de sécurité. Selon un rapport de données récent, 49 % des chefs d'entreprise estiment que les risques de sécurité sont devenus un problème majeur, et 38 % des chefs d'entreprise citent les erreurs humaines/fuites de données humaines causées par la mauvaise compréhension de l'utilisation des outils GPT comme le principal défi.

Bien que ces préoccupations soient valables, les avantages pour les premiers utilisateurs dépasseront de loin les conséquences potentielles d'un obstacle à l'exploration.

Dans cet article, nous aiderons les membres de l'équipe et les clients à comprendre pourquoi la sécurité ne peut pas être traitée comme un facteur après coup, mais devrait le considérer comme une condition préalable à l'intégration de l'IA et des affaires, et explorer une série de bonnes pratiques dans cet aspect

Comment faire progresser lexploration de lIA générative de manière sûre et fiable ?

en prenant les stratégies de sécurité comme point de départ

Les entreprises ont réalisé que les applications d'IA entraînent des risques de sécurité et une urgence émergents . Selon le rapport statistique mentionné précédemment, 81 % des chefs d'entreprise ont déclaré que leur entreprise avait ou était en train de développer des politiques d'utilisation autour de l'IA générative

Cependant, en raison du développement rapide de cette technologie, les applications et les cas d'utilisation émergents évoluent constamment. , le contenu politique doit donc également être constamment mis à jour pour répondre aux risques et aux défis qui surviennent à tout moment.

Afin de minimiser les risques de sécurité tout en accélérant l'exploration, il est naturellement nécessaire de mettre en place des « garde-corps » pour les efforts de test et d'apprentissage. En outre, lors de la formulation de politiques pertinentes, nous ne devrions jamais procéder de manière isolée, mais plutôt solliciter pleinement l'avis des représentants des différents départements de l'entreprise pour réfléchir à la manière dont les différentes unités fonctionnelles utilisent/si elles peuvent utiliser l'intelligence artificielle générative pour gérer la sécurité. risques auxquels ils sont confrontés

En bref, l'exploration de la technologie de l'IA par divers départements ne devrait pas être grossièrement interdite. Si vous imposez une interdiction à l'échelle de l'entreprise par pure peur, vous n'avez pas à vous soucier des concurrents qui grignotent votre part de marché : vous détruisez vous-même la Grande Muraille.

Concentrez-vous sur les travailleurs de première ligne

Pour garantir que l'IA générative puisse être utilisée en toute sécurité, nous devons d'abord accorder des autorisations aux développeurs ordinaires. Par exemple, ils pourraient bénéficier d’un accès complet à une instance privée d’Insight GPT, un vaste modèle d’apprentissage des langues. D'une part, cela peut aider à découvrir des cas d'utilisation potentiels, et en même temps, des tests de résistance peuvent être effectués sur la base des résultats pour améliorer continuellement le service d'IA générative. Nous avons rapidement découvert qu'un membre de l'équipe de l'entrepôt avait trouvé un moyen. pour améliorer l’efficacité de la distribution des commandes. Dans ce cas particulier, le membre a demandé qu'un script soit écrit dans SAP pour automatiser une partie de la charge de travail. Bien qu’efficace, cette tentative peut facilement conduire à des accidents si la protection n’est pas correctement mise en place. Par exemple, si un membre du personnel exécute accidentellement une transaction qui n'existe pas dans une commande, les étapes automatisées ultérieures ne peuvent pas être interrompues.

Dans le processus visant à promouvoir l'exploration civile et à limiter autant que possible les risques, nous devons prendre les mesures suivantes : Le comité d'examen devrait établir des lignes directrices claires, procéder à des évaluations des risques et améliorer la transparence des systèmes d'IA. Dans le même temps, une formation appropriée doit être dispensée pour enseigner aux employés comment appliquer de manière responsable l’IA à des scénarios de travail, en particulier avec des moyens clairs de traiter des questions clés telles que l’éthique, les préjugés, la supervision humaine et la confidentialité des données. De plus, des forums internes devraient être mis en place pour encourager les membres de l'équipe à partager leurs découvertes et leurs leçons au sein du groupe d'innovateurs de l'entreprise.

Réduire le risque d'« hallucinations »

Une raison importante pour laquelle l'IA générative est risquée est qu'elle produit occasionnellement des « hallucinations ». ". Selon le rapport Insight, un thème commun qui préoccupe le plus les chefs d’entreprise est la manière dont les hallucinations peuvent conduire à de mauvaises décisions commerciales. Cependant, les risques provoqués par les hallucinations varient souvent de mineurs à graves, et les effets spécifiques varient souvent d'un scénario à l'autre.

Bien que l'outil GPT produise inévitablement des résultats incompatibles avec la réalité objective, nous avons vite réalisé que de telles mauvaises réponses appartiennent souvent à une confusion au niveau de la formulation. Par exemple, lors des premiers tests, nous avons demandé à Insight GPT avec quelle chanson Eddie Van Halen avait collaboré. La bonne réponse est « Beat It », mais sa réponse est « Thriller ». Mais d'un autre point de vue, "Beat It" est bien un morceau de l'album "Thriller", donc sa réponse n'est pas déraisonnable.

Cela garantit que nous pouvons gérer et superviser efficacement le contenu généré par l'IA afin de réduire le risque de problèmes d'hallucinations. Dans le même temps, nous devons également renforcer la formation et la surveillance des systèmes d’IA pour garantir que le contenu qu’ils génèrent est conforme aux politiques et normes pertinentes. Ce n'est que grâce à des mesures comme celle-ci que nous pourrons mieux faire face aux problèmes qui peuvent survenir face à des charges de travail hautement subjectives

À l'heure actuelle, l'industrie de l'IA générative en est encore à ses balbutiements. Celui qui peut trouver des méthodes d'application responsables et sûres tout en réduisant les menaces potentielles causées par les fuites de données, les erreurs d'information, les biais et autres risques sera en mesure d'établir des avantages technologiques clairs. Les entreprises doivent s'assurer que leurs politiques en matière d'IA continuent de suivre le rythme des évolutions du secteur et de renforcer progressivement la confiance des utilisateurs tout en maintenant la conformité et en atténuant les problèmes d'hallucination.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
ai
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal