


Comment protéger la confidentialité de l'intelligence artificielle ?
Alors que les entreprises et les consommateurs sont enthousiasmés par le potentiel de l’IA à transformer la vie quotidienne, les problèmes de confidentialité découlant de son utilisation généralisée restent une préoccupation majeure. De toute évidence, alors que de plus en plus de données personnelles sont intégrées aux modèles d’IA, de nombreux consommateurs s’inquiètent à juste titre de leur vie privée et de la manière dont leurs données sont utilisées.
Cet article est destiné à aider ces consommateurs à construire une base de connaissances plus approfondie sur les capacités de confidentialité de l'IA. De plus, il fournit des conseils aux propriétaires et aux dirigeants d’entreprise sur la manière de mieux comprendre les préoccupations des clients et d’utiliser l’IA de manière à protéger la confidentialité sans sacrifier les fonctionnalités.
Problèmes d'IA et de confidentialité
Les lois sur le droit d'auteur et la propriété intellectuelle sont rarement respectées
Les modèles d'IA extraient des données de formation de tous les coins du Web. Malheureusement, de nombreux fournisseurs d’IA ignorent ou s’en moquent lorsqu’ils utilisent des œuvres d’art, du contenu ou d’autres propriétés intellectuelles protégées par des droits d’auteur sans leur consentement.
À mesure que les modèles sont entraînés, recyclés et affinés à l’aide de ces données, ce problème devient de plus en plus grave. De nombreux modèles d’IA actuels sont si complexes que même leurs constructeurs ne peuvent pas affirmer avec certitude qu’ils utilisent quelles données et qui y a accès. à cela.
Fusion non autorisée des données utilisateur
Lorsque les utilisateurs de modèles d'intelligence artificielle saisissent leurs propres données sous forme de requêtes, ces données ont le potentiel de faire partie du futur ensemble de données d'entraînement du modèle. Lorsque cela se produit, ces données peuvent être affichées en sortie des requêtes d'autres utilisateurs, ce qui constitue un problème particulièrement important si les utilisateurs ont saisi des données sensibles dans le système.
Agences de réglementation et garanties limitées
Actuellement, certains pays et agences de réglementation élaborent des réglementations sur l'IA et des politiques d'utilisation sûre, mais il n'existe pas de norme unifiée pour tenir les fournisseurs d'IA responsables de la manière dont ils construisent et utilisent les outils d'IA
Dans le passé. , de nombreux fournisseurs d’IA ont été critiqués pour leurs violations de la propriété intellectuelle et leurs processus opaques de formation et de collecte de données. Dans l’état actuel des choses, cependant, la plupart des fournisseurs d’IA ont le droit de déterminer sans interférence leurs propres règles de stockage de données, de cybersécurité et d’utilisation. utilisé pour remplacer les méthodes d’authentification traditionnelles. Dans le même temps, les équipements de surveillance publique utilisent également souvent l'intelligence artificielle pour analyser les données biométriques afin d'identifier les individus plus rapidement. la surveillance est limitée. Dans de nombreux cas, les individus ne savent même pas que leurs données biométriques ont été collectées, et encore moins qu’elles sont stockées et utilisées à d’autres fins.
Pratiques secrètes de collecte de métadonnées
Lorsqu'un utilisateur interagit avec une publicité, une vidéo sur les réseaux sociaux ou pratiquement n'importe quelle propriété Web, les métadonnées de cette interaction peuvent être stockées avec l'historique de recherche et les intérêts de l'utilisateur pour un ciblage de contenu plus précis à l'avenir
Cette méthode de collecte de métadonnées existe depuis des années, mais avec l'aide de l'intelligence artificielle, davantage de données peuvent être collectées et interprétées à grande échelle, permettant aux entreprises technologiques de cibler davantage les utilisateurs sans qu'ils sachent comment fonctionnent les informations. Bien que la plupart des sites d'utilisateurs aient des politiques qui mentionnent ces pratiques de collecte de données, elles ne sont mentionnées que brièvement dans d'autres textes de politique, de sorte que la plupart des utilisateurs ne réalisent pas ce qu'ils ont accepté et placent tout le contenu sur eux-mêmes et sur leurs appareils mobiles en cours d'examen.
Les modèles d'IA ont des fonctionnalités de sécurité intégrées limitées
Bien que certains fournisseurs d'IA puissent choisir d'intégrer des fonctionnalités et des protections de base en matière de cybersécurité, de nombreux modèles d'IA ne disposent pas de protections de cybersécurité natives. Cela permet aux utilisateurs non autorisés et aux acteurs malveillants d'accéder et d'utiliser très facilement les données d'autres utilisateurs, y compris les informations personnelles identifiables (PII).
Période de stockage des données prolongée
Peu de fournisseurs d'IA sont en mesure de divulguer comment ils stockent les données des utilisateurs Quand, où et pourquoi, et les fournisseurs transparents stockent souvent les données pendant de longues périodes.
Par exemple, la politique d’OpenAI stipule qu’elle peut stocker les données d’entrée et de sortie des utilisateurs jusqu’à 30 jours afin d’identifier les abus. Cependant, on ne sait pas quand ni comment l'entreprise examine plus granulairement les données personnelles des utilisateurs à leur insu
Collecte de données sur la confidentialité et l'IA
Web scraping et web crawling
Les outils d'IA s'appuient généralement sur le web scraping et l'exploration du web pour construire ensembles de données de formation car ils ne nécessitent pas d'autorisations spéciales et permettent également aux fournisseurs de collecter de grandes quantités de données différentes
Le contenu est extrait de sources publiques sur Internet, notamment de sites Web tiers, de Wikipédia, de bibliothèques numériques, etc. Ces dernières années, les métadonnées des utilisateurs sont également devenues la majorité du contenu collecté via le web scraping et l’exploration. Ces métadonnées proviennent souvent d'ensembles de données marketing et publicitaires, ainsi que de sites Web contenant votre public cible et le contenu qui l'intéresse le plus.
Requêtes utilisateur dans les modèles d'IA
Lorsque les utilisateurs saisissent des questions ou d'autres données dans un modèle d'IA, la plupart des modèles d'IA stockent ces données pendant au moins quelques jours. Bien que ces données ne puissent jamais être utilisées à d'autres fins, la recherche montre que de nombreux outils d'IA non seulement collecteront ces données, mais les conserveront également pour de futures formations. comme les microphones capables de détecter les voix humaines, peuvent être utilisés pour collecter des données biométriques et identifier des humains à leur insu ou sans leur consentement
Quel degré de contrôle de nombreuses entreprises doivent-elles maintenir lorsqu'elles utilisent ce type de technologie ? Les réglementations en matière de transparence deviennent de plus en plus strictes ? Mais dans la plupart des cas, ils peuvent collecter, stocker et utiliser ces données sans demander l’autorisation des clients.
Capteurs et appareils IoT
Les capteurs et les systèmes informatiques de pointe de l'Internet des objets (IoT) collectent de grandes quantités de données en temps réel et les traitent à proximité pour effectuer des tâches informatiques plus importantes et plus rapides. Les logiciels d'intelligence artificielle utilisent généralement la base de données du système IoT et collectent des données pertinentes via des méthodes telles que l'apprentissage des données, l'ingestion de données, les protocoles et passerelles IoT sécurisés et les API
API
API fournit des interfaces avec différents types de logiciels d'entreprise, permettant aux utilisateurs à Capacité à collecter et intégrer facilement diverses données pour l'analyse et la formation en intelligence artificielle. Avec les API et la configuration appropriées, les utilisateurs peuvent collecter des données à partir de CRM, de bases de données, d'entrepôts de données et de systèmes basés sur le cloud et sur site.
Dossiers publics
Les dossiers publics sont généralement collectés et inclus dans les ensembles de formation en IA, qu'ils soient ou non ont été la numérisation. Des informations sur les entreprises cotées en bourse, les événements actuels et historiques, les casiers judiciaires et d'immigration et d'autres informations publiques peuvent être collectées sans autorisation préalable. méthode permettant aux fournisseurs d'IA de collecter des données auprès des utilisateurs
Les utilisateurs peuvent répondre à des questions sur ce qui les intéresse le plus, sur quoi ils ont besoin d'aide, à quoi ressemblait leur expérience récente avec un produit ou un service, ou toute autre question que les questions peuvent poser. L'IA a une meilleure idée de la façon de personnaliser les interactions avec cette personne à l'avenir. Après la réécriture : les utilisateurs peuvent répondre à des questions sur ce qui les intéresse le plus, sur quoi ils ont besoin d'aide, à quoi ressemble leur expérience récente avec le produit ou le service, ou toute autre question. Ces questions peuvent aider l'IA à mieux comprendre comment personnaliser les interactions avec les utilisateurs à l'avenir
Solutions aux problèmes d'IA et de confidentialité
Grâce à certaines bonnes pratiques, outils et autres ressources, les entreprises peuvent utiliser efficacement l'IA pour résoudre des solutions sans sacrifier la confidentialité des utilisateurs. Pour protéger vos données les plus sensibles à toutes les étapes de l'utilisation de l'IA, suivez ces conseils :
Créez une politique d'utilisation appropriée pour l'IA : les utilisateurs internes doivent savoir quelles données ils peuvent utiliser et quand utiliser les outils d'IA, comment et quand ces données sont utilisées. est particulièrement important pour les entreprises qui gèrent des données clients sensibles. Investissez dans des outils de gouvernance et de sécurité des données : certaines des meilleures solutions pour protéger les outils d'IA et autres surfaces d'attaque incluent la détection et la réponse étendues (XDR), la prévention des pertes de données et les logiciels de veille et de surveillance sur les menaces. Il existe également un certain nombre d'outils spécifiques à la gouvernance des données qui peuvent aider à protéger les données et garantir que toutes les données sont utilisées conformément aux réglementations en vigueur. Lisez les petits caractères : les fournisseurs d'IA fournissent généralement une sorte de documentation couvrant le fonctionnement de leurs produits et les bases de la formation. Lisez attentivement ces documents pour détecter tout signal d’alarme, et s’il y a quelque chose dont vous n’êtes pas sûr ou si quelque chose n’est pas clair dans leurs documents de politique, contactez leur représentant pour obtenir des éclaircissements. Utilisez uniquement des données non sensibles : en règle générale, ne saisissez pas les données les plus sensibles de votre entreprise ou de vos clients dans un outil d'IA, même s'il s'agit d'une solution personnalisée ou affinée qui semble privée. Si vous souhaitez poursuivre un cas d'utilisation spécifique impliquant des données sensibles, recherchez s'il existe un moyen de le faire en toute sécurité en utilisant des jumeaux numériques, l'anonymisation des données ou des données synthétiques.- Résumé
- Les outils d'intelligence artificielle apportent de nombreuses nouvelles commodités aux entreprises et aux consommateurs quotidiens, notamment l'automatisation des tâches, les questions-réponses guidées, ainsi que la conception et la programmation de produits. Cependant, si ces outils peuvent nous simplifier la vie, ils courent également le risque d'envahir la vie privée, ce qui peut nuire à la réputation des fournisseurs et à la confiance des consommateurs, tout en constituant une menace pour la cybersécurité et la conformité réglementaire
Utiliser l’IA de manière responsable pour protéger la vie privée des utilisateurs demande des efforts supplémentaires, mais cela en vaut la peine si l’on considère l’impact des violations de la vie privée sur l’image publique d’une entreprise. À mesure que cette technologie évolue et devient de plus en plus répandue dans notre vie quotidienne, suite à l'adoption de lois sur l'IA et au développement d'une IA plus spécifique et conforme à la culture d'entreprise et aux attentes des clients en matière de confidentialité, l'utilisation des meilleures pratiques deviendra cruciale.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds





Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

L'apprentissage automatique est une branche importante de l'intelligence artificielle qui donne aux ordinateurs la possibilité d'apprendre à partir de données et d'améliorer leurs capacités sans être explicitement programmés. L'apprentissage automatique a un large éventail d'applications dans divers domaines, de la reconnaissance d'images et du traitement du langage naturel aux systèmes de recommandation et à la détection des fraudes, et il change notre façon de vivre. Il existe de nombreuses méthodes et théories différentes dans le domaine de l'apprentissage automatique, parmi lesquelles les cinq méthodes les plus influentes sont appelées les « Cinq écoles d'apprentissage automatique ». Les cinq grandes écoles sont l’école symbolique, l’école connexionniste, l’école évolutionniste, l’école bayésienne et l’école analogique. 1. Le symbolisme, également connu sous le nom de symbolisme, met l'accent sur l'utilisation de symboles pour le raisonnement logique et l'expression des connaissances. Cette école de pensée estime que l'apprentissage est un processus de déduction inversée, à travers les connaissances existantes.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S
