


Pourquoi la conception de l'IA doit donner la priorité à la confidentialité des données
- L'intelligence artificielle fait partie intégrante du développement des soins de santé, de la technologie et d'autres domaines, mais des inquiétudes subsistent quant à la manière dont la confidentialité des données sera réglementée.
- La confidentialité des données est essentielle pour gagner la confiance du public dans les progrès technologiques.
La confidentialité des données est souvent associée aux modèles d'intelligence artificielle (IA) basés sur les données des consommateurs. Les utilisateurs se méfient naturellement des technologies automatisées qui capturent et utilisent leurs données, qui peuvent inclure des informations sensibles. Étant donné que les modèles d’IA
s’appuient sur la qualité des données pour fournir des résultats significatifs, leur existence dépend de la protection de la vie privée qui fait partie intégrante de leur conception.
De bonnes pratiques de confidentialité et de gestion des données ne sont pas seulement un moyen d'apaiser les craintes et les inquiétudes des clients, mais ont beaucoup à voir avec les valeurs organisationnelles fondamentales, les processus commerciaux et la gestion de la sécurité d'une entreprise. Les questions liées à la vie privée ont fait l’objet de nombreuses recherches et ont fait l’objet d’une large publicité, et les données d’enquêtes sur la perception de la vie privée montrent que la protection de la vie privée est une question importante pour les consommateurs.
Il est essentiel d’aborder ces problèmes dans leur contexte, et pour les entreprises utilisant l’IA destinée aux consommateurs, il existe plusieurs méthodes et techniques qui peuvent aider à répondre aux problèmes de confidentialité généralement associés à l’IA.
Certains produits et services nécessitent des données, mais ils n'ont pas besoin d'envahir la vie privée de qui que ce soit.
Les entreprises utilisant l'intelligence artificielle sont déjà confrontées aux doutes du public en matière de confidentialité. Selon une enquête réalisée en 2020 par l'Organisation européenne des consommateurs, 45 à 60 % des Européens conviennent que l'IA
entraînera davantage d'utilisation abusive des données personnelles.
Il existe de nombreux services et produits en ligne populaires qui s'appuient sur de grands ensembles de données pour apprendre et améliorer leurs algorithmes d'IA
. Certaines des données contenues dans ces ensembles de données peuvent être considérées comme privées, même pour l'utilisateur le moins soucieux de sa vie privée. Les flux de données provenant du Web, des pages de réseaux sociaux, des téléphones mobiles et d'autres appareils augmentent la quantité d'informations que les entreprises utilisent pour former les systèmes d'apprentissage automatique. La protection de la vie privée devient un problème de politique publique dans le monde entier en raison de la surutilisation et de la mauvaise gestion des données personnelles par certaines entreprises.
La plupart des données sensibles que nous collectons visent à améliorer les processus basés sur l'IA. Une grande partie des données analysées repose également sur l’adoption de l’apprentissage automatique, car des algorithmes complexes sont nécessaires pour prendre des décisions en temps réel sur la base de ces ensembles de données. Les algorithmes de recherche, les assistants vocaux et les moteurs de recommandation ne sont que quelques-unes des solutions
IA qui exploitent de vastes ensembles de données basés sur des données utilisateur réelles.
Les bases de données massives peuvent contenir un large éventail de données, et l'un des problèmes les plus urgents est que ces données peuvent être personnellement identifiables et sensibles. En fait, apprendre à un algorithme à prendre des décisions ne nécessite pas de savoir à qui se rapportent les données. Les entreprises à l'origine de tels produits devraient donc se concentrer sur la privatisation de leurs ensembles de données avec peu de moyens d'identifier les utilisateurs dans les données sources, et développer des mesures pour supprimer les cas extrêmes de leurs algorithmes afin d'éviter l'ingénierie inverse et l'identification.
La relation entre confidentialité des données et intelligence artificielle est très délicate. Même si certains algorithmes nécessitent inévitablement des données privées, il existe des moyens de les utiliser de manière plus sécurisée et non intrusive. Les méthodes suivantes ne sont que quelques-unes des façons dont les entreprises travaillant avec des données privées peuvent faire partie de la solution.
Conception d'IA en gardant à l'esprit la confidentialité
Nous avons discuté du problème de l'ingénierie inverse, où des acteurs malveillants découvrent des vulnérabilités dans un modèle d'IA
et identifient des informations potentiellement critiques à partir de la sortie du modèle. L’ingénierie inverse est la raison pour laquelle la modification et l’amélioration des bases de données et des données d’apprentissage face à ce défi sont essentielles à l’utilisation de l’IA.
Par exemple, combiner des ensembles de données contradictoires dans un processus d'apprentissage automatique (apprentissage contradictoire) est une bonne option pour distinguer les défauts et les biais dans la sortie d'un algorithme d'IA
. Il existe également des options permettant d’utiliser des ensembles de données synthétiques qui n’utilisent pas de données personnelles réelles, mais des questions subsistent quant à leur efficacité.
Healthcare est un pionnier en matière d'intelligence artificielle et de gouvernance de la confidentialité des données, en particulier lorsqu'il s'agit de données privées sensibles. Elle fait également un gros travail sur le consentement, qu'il s'agisse des actes médicaux ou du traitement de leurs données : les enjeux sont importants et le respect est imposé par la loi.
Pour la conception globale des produits et algorithmes d'IA, le découplage des données des utilisateurs via l'anonymisation et l'agrégation est essentiel pour toute entreprise qui utilise les données des utilisateurs pour entraîner ses modèles d'IA.
Il existe de nombreuses considérations pour renforcer la protection de la vie privée des entreprises d'IA :
- La confidentialité au cœur : placez la protection de la vie privée sur le radar des développeurs et trouvez des moyens de renforcer efficacement la sécurité.
- Anonymisez et agrégez les ensembles de données, en supprimant tous les identifiants personnels et les points de données uniques.
- Contrôlez étroitement qui dans l'entreprise a accès à des ensembles de données spécifiques et auditez continuellement la manière dont ces données sont accessibles, car cela a été la raison de certaines violations de données dans le passé.
- Plus de données n'est pas toujours la meilleure solution. Testez votre algorithme avec un minimum de données pour comprendre la quantité minimale de données que vous devez collecter et traiter pour rendre votre cas d'utilisation réalisable.
- Doit fournir un moyen simplifié d'éliminer les données personnelles à la demande de l'utilisateur. Les entreprises qui pseudo-anonymisent uniquement les données des utilisateurs doivent continuellement recycler leurs modèles en utilisant les données les plus récentes.
- Exploitez de puissantes stratégies de désidentification, telles que des ensembles de données agrégées et synthétiques avec des identifiants entièrement anonymisés et irréversibles pour la formation des algorithmes, l'audit, l'assurance qualité, etc.
- Protégez l’autonomie et la confidentialité des utilisateurs en repensant la manière dont les informations critiques sont obtenues et utilisées auprès de tiers – examinez les sources de données et n’utilisez que celles qui collectent des données avec le consentement explicite et éclairé de l’utilisateur.
- Considérez les risques : est-il possible qu'une attaque puisse compromettre la confidentialité des utilisateurs à partir de la sortie de votre système d'IA ?
Quel est l'avenir de la confidentialité des données et de l'IA ? pour entraîner les algorithmes d'IA Sans données personnelles, certains services et produits en ligne de premier plan ne peuvent pas fonctionner. Il existe cependant de nombreuses façons d’améliorer l’acquisition, la gestion et l’utilisation des données, notamment les algorithmes eux-mêmes et la gestion globale des données. L’IA respectueuse de la vie privée nécessite des entreprises respectueuses de la vie privée.
L'auteur de cet article : Einaras von Gravrock, PDG et fondatrice de CUJO AI
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Pour en savoir plus sur l'AIGC, veuillez visiter : 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou est différent de la banque de questions traditionnelle que l'on peut voir partout sur Internet. nécessite de sortir des sentiers battus. Les grands modèles linguistiques (LLM) sont de plus en plus importants dans les domaines de la science des données, de l'intelligence artificielle générative (GenAI) et de l'intelligence artificielle. Ces algorithmes complexes améliorent les compétences humaines et stimulent l’efficacité et l’innovation dans de nombreux secteurs, devenant ainsi la clé permettant aux entreprises de rester compétitives. LLM a un large éventail d'applications. Il peut être utilisé dans des domaines tels que le traitement du langage naturel, la génération de texte, la reconnaissance vocale et les systèmes de recommandation. En apprenant de grandes quantités de données, LLM est capable de générer du texte

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

01Aperçu des perspectives Actuellement, il est difficile d'atteindre un équilibre approprié entre efficacité de détection et résultats de détection. Nous avons développé un algorithme YOLOv5 amélioré pour la détection de cibles dans des images de télédétection optique haute résolution, en utilisant des pyramides de caractéristiques multicouches, des stratégies de têtes de détection multiples et des modules d'attention hybrides pour améliorer l'effet du réseau de détection de cibles dans les images de télédétection optique. Selon l'ensemble de données SIMD, le mAP du nouvel algorithme est 2,2 % meilleur que YOLOv5 et 8,48 % meilleur que YOLOX, permettant ainsi d'obtenir un meilleur équilibre entre les résultats de détection et la vitesse. 02 Contexte et motivation Avec le développement rapide de la technologie de télédétection, les images de télédétection optique à haute résolution ont été utilisées pour décrire de nombreux objets à la surface de la Terre, notamment des avions, des voitures, des bâtiments, etc. Détection d'objets dans l'interprétation d'images de télédétection

" sept péchés capitaux" » Dissiper les rumeurs : selon des informations divulguées et des documents obtenus par Vox, la haute direction d'OpenAI, y compris Altman, était bien au courant de ces dispositions de récupération de capitaux propres et les a approuvées. De plus, OpenAI est confronté à un problème grave et urgent : la sécurité de l’IA. Les récents départs de cinq employés liés à la sécurité, dont deux de ses employés les plus en vue, et la dissolution de l'équipe « Super Alignment » ont une nouvelle fois mis les enjeux de sécurité d'OpenAI sur le devant de la scène. Le magazine Fortune a rapporté qu'OpenA

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S
