


De retour en ligne en Italie, mais les problèmes réglementaires d'OpenAI ne font que commencer
Nouvelles du 7 mai, la semaine dernière, OpenAI a réussi à apaiser les régulateurs italiens, les incitant à lever l'interdiction temporaire du chatbot ChatGPT, mais la bataille de la société de recherche en intelligence artificielle avec les régulateurs européens n'est pas encore terminée, d'autres défis ont été relevés. vient de commencer.
Le chatbot populaire mais controversé d'OpenAI, ChatGPT, a franchi un obstacle juridique majeur en Italie plus tôt cette année, l'autorité italienne de protection des données (GPDP) accusant OpenAI de violer les règles de l'UE en matière de protection des données. Pour tenter de résoudre le problème, la société a accepté de restreindre l'utilisation du service en Italie.
Le 28 avril, ChatGPT a été relancé en Italie et OpenAI a facilement répondu aux préoccupations de l'autorité italienne de protection des données sans apporter de modifications majeures à son service. Il s’agit d’une nette victoire pour OpenAI.
Alors que l'autorité italienne de protection des données « salue » les modifications apportées à ChatGPT, les défis juridiques auxquels sont confrontés OpenAI et d'autres sociétés développant des chatbots ne font peut-être que commencer. Les régulateurs de plusieurs pays étudient la manière dont ces outils d’intelligence artificielle collectent des données et génèrent des informations, citant des raisons allant de la collecte de données de formation non autorisées à la tendance des chatbots à émettre des messages incorrects.
L’Union européenne a commencé à appliquer le Règlement général sur la protection des données (RGPD), l’un des cadres juridiques de protection de la vie privée les plus puissants au monde, dont les impacts pourraient s’étendre bien au-delà de l’Europe. Dans le même temps, les législateurs européens travaillent sur une loi ciblant spécifiquement l’intelligence artificielle, qui pourrait également ouvrir la voie à une nouvelle ère de réglementation de systèmes tels que ChatGPT.
ChatGPT est devenu la cible de l'attention de nombreuses parties
ChatGPT est l'une des applications les plus regardées en matière d'intelligence artificielle générative (AIGC), couvrant une variété d'outils pour générer du texte, des images, des vidéos et des audios en fonction des invites des utilisateurs. . Selon les rapports, deux mois seulement après son lancement en novembre 2022, ChatGPT a atteint 100 millions d'utilisateurs actifs mensuels, ce qui en fait l'une des applications grand public à la croissance la plus rapide de l'histoire.
Avec ChatGPT, les gens peuvent traduire du texte dans différentes langues, rédiger des articles universitaires et même générer du code. Mais certains critiques, y compris les régulateurs, soulignent le manque de fiabilité des informations fournies par ChatGPT, les problèmes de droits d'auteur et les lacunes dans la protection des données.
L'Italie est le premier pays à prendre des mesures contre ChatGPT. Le 31 mars, l'autorité italienne de protection des données a accusé OpenAI d'avoir violé le règlement général sur la protection des données en autorisant ChatGPT à fournir des informations inexactes ou trompeuses, en omettant d'informer les utilisateurs des pratiques de collecte de données, en ne se conformant pas à la réglementation sur le traitement des données personnelles et en omettant de le faire. Empêcher de manière adéquate les enfants de moins de 13 ans d’utiliser le Service. L’autorité italienne de protection des données a ordonné à OpenAI de cesser immédiatement d’utiliser les informations personnelles collectées auprès des citoyens italiens dans les données de formation de ChatGPT.
À l’heure actuelle, d’autres pays n’ont pas pris de mesures d’envergure similaires. Mais depuis mars, au moins trois pays de l'UE – l'Allemagne, la France et l'Espagne – ont lancé leurs propres enquêtes sur ChatGPT. Pendant ce temps, de l'autre côté de l'Atlantique, le Canada évalue les préoccupations de ChatGPT en matière de confidentialité en vertu de sa Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE). Le Comité européen de la protection des données (EDPB) a même mis en place un groupe de travail dédié pour coordonner les enquêtes. Si ces agences exigent qu'OpenAI apporte des modifications, cela pourrait affecter la façon dont l'entreprise sert les utilisateurs du monde entier.
Les régulateurs ont deux préoccupations majeures
Les plus grandes préoccupations des régulateurs concernant ChatGPT sont principalement divisées en deux catégories : D'où proviennent les données de formation ? Comment OpenAI fournit-il des informations aux utilisateurs ?
Pour prendre en charge ChatGPT, OpenAI nécessite l'utilisation des grands modèles de langage (LLM) GPT-3.5 et GPT-4, qui sont formés sur de grandes quantités de texte généré par l'homme. OpenAI reste prudent quant au type de texte de formation qu'il utilise, mais affirme qu'il s'appuie sur "une variété de sources de données autorisées et accessibles au public, qui peuvent inclure des informations personnelles accessibles au public".
Cela peut causer d'énormes problèmes au titre du règlement général sur la protection des données. Adoptée en 2018, la loi couvre tous les services qui collectent ou traitent des données sur les citoyens de l'UE, quel que soit le lieu où est basée l'organisation fournissant le service. Le règlement général sur la protection des données exige que les entreprises obtiennent le consentement explicite des utilisateurs avant de collecter des données personnelles, qu'elles aient une raison légalement valable de collecter les données et qu'elles soient transparentes sur la manière dont les données sont utilisées et stockées.
Les régulateurs européens affirment que la confidentialité des données de formation d’OpenAI signifie qu’ils ne peuvent pas confirmer si les informations personnelles utilisées à l’origine avaient le consentement des utilisateurs. L'autorité italienne de protection des données a fait valoir qu'OpenAI n'avait aucune « base juridique » pour collecter les informations en premier lieu. Jusqu’à présent, OpenAI et d’autres sociétés ont fait l’objet de peu d’examens.
Un autre problème est le « droit à l’oubli » du Règlement général sur la protection des données, qui permet aux utilisateurs de demander aux entreprises de corriger leurs informations personnelles ou de les supprimer entièrement. OpenAI a mis à jour sa politique de confidentialité à l'avance pour faciliter la réponse à ces demandes. Mais étant donné la complexité de la séparation une fois que des données spécifiques sont introduites dans ces grands modèles de langage, la question de savoir si elle est techniquement réalisable est toujours discutable.
OpenAI collecte également des informations directement auprès des utilisateurs. Tout comme les autres plateformes Internet, elle collecte une gamme standard de données utilisateur telles que le nom, les contacts et les détails de la carte de crédit. Mais plus important encore, OpenAI enregistre les interactions des utilisateurs avec ChatGPT. Comme indiqué sur le site officiel, les employés d'OpenAI peuvent consulter ces données et les utiliser pour entraîner leurs modèles. Compte tenu des questions personnelles que les gens ont posées à ChatGPT, comme considérer le robot comme un thérapeute ou un médecin, cela signifie que l'entreprise collecte toutes sortes de données sensibles.
Ces données peuvent inclure des informations sur des mineurs. Bien que la politique d'OpenAI stipule qu'elle « ne collecte pas sciemment d'informations personnelles sur des enfants de moins de 13 ans », il n'y a pas de seuil strict de vérification de l'âge. Ceci est incompatible avec la réglementation de l'UE, qui interdit la collecte de données auprès de mineurs de moins de 13 ans et, dans certains pays, exige le consentement des parents pour collecter des informations auprès de mineurs de moins de 16 ans. Du côté des résultats, l'autorité italienne de protection des données a affirmé que l'absence de filtre d'âge dans ChatGPT permettait aux mineurs "de recevoir des réponses absolument inappropriées en termes de niveau de développement et de conscience de soi".
OpenAI dispose d'une grande liberté dans l'utilisation de ces données, ce qui inquiète de nombreux régulateurs, et il existe des risques de sécurité liés au stockage de ces données. Des entreprises comme Samsung et JPMorgan Chase ont interdit à leurs employés d'utiliser les outils AIGC, craignant qu'ils téléchargent des données sensibles. En fait, avant que l'Italie n'édicte l'interdiction, ChatGPT a subi une grave fuite de données, qui a entraîné la divulgation de l'historique de discussion et des adresses e-mail d'un grand nombre d'utilisateurs.
De plus, la tendance de ChatGPT à fournir de fausses informations peut également causer des problèmes. Le règlement général sur la protection des données stipule que toutes les données personnelles doivent être exactes, un point souligné par l'autorité italienne de protection des données dans son communiqué. Cela peut poser des problèmes pour la plupart des générateurs de texte d'IA, car ces outils sont sujets aux « hallucinations », c'est-à-dire à donner des réponses factuellement incorrectes ou non pertinentes aux requêtes. Cela a causé des problèmes réels ailleurs, par exemple lorsqu'un maire australien a menacé de poursuivre OpenAI pour diffamation après que ChatGPT ait faussement affirmé qu'il avait été emprisonné pour corruption.
Des règles réglementaires spécialisées sont sur le point d'être introduites
ChatGPT est particulièrement vulnérable aux cibles réglementaires en raison de sa popularité et de sa domination sur le marché de l'intelligence artificielle. Mais comme des concurrents et des partenaires comme Bard de Google et Azure AI alimenté par OpenAI de Microsoft, il n'y a aucune raison pour que cela ne soit pas examiné de près. Avant ChatGPT, l’Italie avait interdit à la plateforme de chatbot Replika de collecter des informations sur les mineurs. Pour l’instant, la plateforme reste interdite.
Bien que le règlement général sur la protection des données soit un ensemble de lois puissant, il n'a pas été créé pour résoudre les problèmes propres à l'IA. Toutefois, des règles réglementaires dédiées pourraient voir le jour. En 2021, l'Union européenne a soumis un projet de la première version de sa loi sur l'intelligence artificielle (AIA), qui sera mise en œuvre conjointement avec le règlement général sur la protection des données. La loi sur l'IA réglementerait les outils d'IA en fonction de leur niveau de risque, de « risque minimal » (comme les filtres anti-spam) à « risque élevé » (outils d'IA utilisés pour l'application de la loi ou l'éducation) à « inutilisable ». (par exemple système de crédit social).
Après l'explosion de grands modèles de langage comme ChatGPT, les législateurs se démènent désormais pour ajouter des règles pour les « modèles de base » et les « systèmes généraux d'intelligence artificielle (GPAI) ». Les deux termes font référence aux systèmes d’IA à grande échelle, y compris les LLM, et peuvent les classer comme services « à haut risque ».
Les dispositions de la loi sur l'intelligence artificielle vont au-delà de la protection des données. Un amendement récemment proposé obligerait les entreprises à divulguer tout matériel protégé par le droit d'auteur utilisé pour développer les outils AIGC. Cela pourrait exposer des ensembles de données autrefois secrets et rendre davantage d’entreprises vulnérables aux poursuites pour contrefaçon, qui ont déjà eu un impact sur certains services.
Des lois spécialisées sur l'IA pourraient être adoptées d'ici fin 2024
À l'heure actuelle, la mise en œuvre de ce projet de loi pourrait prendre un certain temps. Les législateurs européens sont parvenus à un accord sur un projet de loi intérimaire sur l'intelligence artificielle le 27 avril, mais une commission devra encore voter sur le projet le 11 mai, la proposition finale devant être publiée à la mi-juin. Le Conseil européen, le Parlement européen et la Commission européenne devront alors résoudre tous les différends restants avant de mettre en œuvre la loi. Si tout se passe bien, il pourrait être adopté au second semestre 2024.
Pour l'instant, la dispute entre l'Italie et OpenAI nous donne un premier aperçu de la manière dont les régulateurs et les entreprises d'IA pourraient négocier. L'autorité italienne de protection des données a déclaré qu'elle lèverait l'interdiction si OpenAI respectait plusieurs résolutions proposées d'ici le 30 avril.
Ces résolutions incluent l'information des utilisateurs sur la manière dont ChatGPT stocke et utilise leurs données, l'exigence du consentement explicite des utilisateurs pour utiliser ces données, la facilitation de la correction ou la suppression des fausses informations personnelles générées par ChatGPT et l'obligation pour les utilisateurs italiens de s'identifier lors de leur inscription à un compte. compte Avez-vous plus de 18 ans. Même si OpenAI n’a pas respecté ces réglementations, il a satisfait les régulateurs italiens et a rétabli l’accès en Italie.
OpenAI doit encore remplir d'autres conditions, notamment l'établissement d'un seuil d'âge plus strict d'ici le 30 septembre, le filtrage des mineurs de moins de 13 ans et l'obligation pour les mineurs plus âgés d'obtenir le consentement parental. En cas d'échec, OpenAI pourrait être à nouveau banni. Cependant, OpenAI semble avoir donné l’exemple selon lequel l’Europe considère le comportement des entreprises d’IA comme acceptable, au moins jusqu’à l’introduction de nouvelles lois. (Xiao Xiao)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

OpenAI a récemment annoncé le lancement de son modèle d'intégration de dernière génération, embeddingv3, qui, selon eux, est le modèle d'intégration le plus performant avec des performances multilingues plus élevées. Ce lot de modèles est divisé en deux types : les plus petits text-embeddings-3-small et les plus puissants et plus grands text-embeddings-3-large. Peu d'informations sont divulguées sur la façon dont ces modèles sont conçus et formés, et les modèles ne sont accessibles que via des API payantes. Il existe donc de nombreux modèles d'intégration open source. Mais comment ces modèles open source se comparent-ils au modèle open source open source ? Cet article comparera empiriquement les performances de ces nouveaux modèles avec des modèles open source. Nous prévoyons de créer une donnée

Étapes d'installation : 1. Téléchargez le logiciel ChatGTP depuis le site officiel ou la boutique mobile de ChatGTP ; 2. Après l'avoir ouvert, dans l'interface des paramètres, sélectionnez la langue chinoise 3. Dans l'interface de jeu, sélectionnez le jeu homme-machine et définissez la langue. Spectre chinois ; 4. Après avoir démarré, entrez les commandes dans la fenêtre de discussion pour interagir avec le logiciel.

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Il n'y a pas si longtemps, OpenAISora est rapidement devenu populaire grâce à ses étonnants effets de génération vidéo. Il s'est démarqué parmi la foule de modèles vidéo littéraires et est devenu le centre d'attention mondiale. Suite au lancement du processus de reproduction d'inférence de formation Sora avec une réduction des coûts de 46 % il y a 2 semaines, l'équipe Colossal-AI a entièrement open source le premier modèle de génération vidéo d'architecture de type Sora au monde "Open-Sora1.0", couvrant l'ensemble processus de formation, y compris le traitement des données, tous les détails de la formation et les poids des modèles, et joignez-vous aux passionnés mondiaux de l'IA pour promouvoir une nouvelle ère de création vidéo. Pour un aperçu, jetons un œil à une vidéo d'une ville animée générée par le modèle « Open-Sora1.0 » publié par l'équipe Colossal-AI. Ouvrir-Sora1.0

Ollama est un outil super pratique qui vous permet d'exécuter facilement des modèles open source tels que Llama2, Mistral et Gemma localement. Dans cet article, je vais vous présenter comment utiliser Ollama pour vectoriser du texte. Si vous n'avez pas installé Ollama localement, vous pouvez lire cet article. Dans cet article, nous utiliserons le modèle nomic-embed-text[2]. Il s'agit d'un encodeur de texte qui surpasse OpenAI text-embedding-ada-002 et text-embedding-3-small sur les tâches à contexte court et à contexte long. Démarrez le service nomic-embed-text lorsque vous avez installé avec succès o

chatgpt peut être utilisé en Chine, mais ne peut pas être enregistré, ni à Hong Kong et Macao. Si les utilisateurs souhaitent s'inscrire, ils peuvent utiliser un numéro de téléphone mobile étranger pour s'inscrire. Notez que lors du processus d'enregistrement, l'environnement réseau doit être basculé vers. une adresse IP étrangère.

Soudain! OpenAI a licencié des gens, la raison : une fuite d'informations suspectée. L’un d’eux est Léopold Aschenbrenner, un allié du scientifique en chef disparu Ilya et un membre principal de l’équipe Superalignment. L'autre personne n'est pas simple non plus : il s'agit de Pavel Izmailov, chercheur au sein de l'équipe d'inférence du LLM, qui a également travaillé dans l'équipe de super alignement. On ne sait pas exactement quelles informations les deux hommes ont divulguées. Après que la nouvelle ait été révélée, de nombreux internautes se sont dits « assez choqués » : j'ai vu le message d'Aschenbrenner il n'y a pas longtemps et j'ai senti qu'il était en pleine ascension dans sa carrière. Certains internautes sur la photo pensent : OpenAI a perdu Aschenbrenner, je
