


Comment détecter les contenus inappropriés à l'ère des grands mannequins ? Un projet de loi de l'UE oblige les sociétés d'IA à garantir le droit des utilisateurs à l'information
Au cours des 10 dernières années, les grandes entreprises technologiques sont devenues très compétentes dans de nombreuses technologies : langage, prédiction, personnalisation, archivage, analyse de texte et traitement de données. Mais ils n’arrivent toujours pas à détecter, signaler et supprimer les contenus nuisibles. Quant aux théories du complot électorale et vaccinale qui se propagent aux États-Unis, il suffit de revenir sur les événements des deux dernières années pour comprendre les dommages réels qu’elles causent.
Cette différence soulève quelques questions. Pourquoi les entreprises technologiques n’améliorent-elles pas la modération du contenu ? Peuvent-ils être forcés à faire cela ? Les nouvelles avancées en matière d’intelligence artificielle amélioreront-elles notre capacité à détecter les mauvaises informations ?
Le plus souvent, lorsque le Congrès américain demande aux entreprises technologiques de rendre compte de la propagation de la haine et de la désinformation, elles ont tendance à attribuer leurs échecs à la complexité du langage lui-même. Les dirigeants affirment que comprendre et prévenir les discours de haine contextuels dans différentes langues et contextes est une tâche difficile.
L’une des paroles préférées de Mark Zuckerberg est que les entreprises technologiques ne devraient pas être responsables de la résolution de tous les problèmes politiques du monde.
(Source : STEPHANIE ARNETT/MITTR | GETTY IMAGES)
La plupart des entreprises font actuellement appel à la fois à des modérateurs technologiques et à des modérateurs de contenu humains, le travail de ces derniers étant sous-évalué et cela se reflète dans leur maigre salaire.
Par exemple, l'IA est actuellement responsable de 97 % de tous les contenus supprimés sur Facebook.
Cependant, Renee DiResta, responsable de recherche à l'Observatoire Internet de Stanford, a déclaré que l'IA n'est pas douée pour interpréter les nuances et le contexte, il est donc peu probable qu'elle remplace complètement les modérateurs de contenu humains, et même les humains ne sont pas toujours doués pour expliquer ces choses. .
Étant donné que les systèmes automatisés de modération de contenu sont généralement formés sur des données en anglais, le contexte culturel et la langue posent également des défis, ce qui rend difficile la gestion efficace du contenu dans d'autres langues.
Le professeur Hani Farid de la School of Information de l'Université de Californie à Berkeley fournit une explication plus évidente. Selon Farid, la modération des contenus n’étant pas dans l’intérêt financier des entreprises technologiques, elle ne permet pas de faire face aux risques. Tout est question de cupidité. Arrêtez de prétendre que ce n’est pas une question d’argent. »
En raison de l'absence de réglementation fédérale, il est difficile pour les victimes de violence en ligne d'exiger une responsabilité financière des plateformes.
La modération du contenu semble être une guerre sans fin entre les entreprises technologiques et les mauvais acteurs. Lorsque les entreprises technologiques mettent en place des règles de modération de contenu, les mauvais acteurs utilisent souvent des émojis ou des fautes d’orthographe intentionnelles pour éviter d’être détectés. Ensuite, ces entreprises tentent de combler les failles, et les gens trouvent de nouvelles failles, et le cycle continue.
Maintenant, voici le grand modèle de langage...
La situation actuelle est déjà très difficile. Avec l’émergence de l’intelligence artificielle générative et des modèles linguistiques à grande échelle tels que ChatGPT, la situation pourrait devenir encore pire. La technologie générative a ses problèmes – par exemple, sa tendance à inventer des choses avec assurance et à les présenter comme des faits – mais une chose est claire : l’IA s’améliore en langage.
Bien que DiResta et Farid soient prudents, ils estiment qu'il est trop tôt pour porter un jugement sur l'évolution des choses. Bien que de nombreux grands modèles comme GPT-4 et Bard disposent de filtres de modération de contenu intégrés, ils peuvent toujours produire des résultats toxiques, tels que des discours de haine ou des instructions sur la façon de fabriquer une bombe.
L'IA générative permet aux mauvais acteurs de mener des campagnes de désinformation à plus grande échelle et plus rapidement. Il s’agit d’une situation désastreuse étant donné que les méthodes d’identification et d’étiquetage du contenu généré par l’IA sont terriblement inadéquates.
D'un autre côté, les derniers modèles de langage à grande échelle fonctionnent mieux en interprétation de texte que les systèmes d'intelligence artificielle précédents. En théorie, ils pourraient être utilisés pour faciliter le développement d’une modération automatisée des contenus.
Les entreprises technologiques doivent investir dans la refonte de grands modèles de langage pour atteindre cet objectif spécifique. Bien que des sociétés comme Microsoft aient commencé à se pencher sur la question, il n’y a pas encore d’activité significative.
Farid a déclaré : "Bien que nous ayons constaté de nombreuses avancées technologiques, je suis sceptique quant à toute amélioration de la modération du contenu
."Même si les grands modèles linguistiques progressent rapidement, ils sont toujours confrontés à des défis de compréhension contextuelle, ce qui peut les empêcher de comprendre les différences subtiles entre les publications et les images avec autant de précision que les modérateurs humains. L’évolutivité et la spécificité interculturelles posent également des problèmes. "Déployez-vous un modèle pour un type spécifique de niche ? Le faites-vous par pays ? Le faites-vous par communauté ? Ce n'est pas une question unique", a déclaré DiResta.
De nouveaux outils basés sur les nouvelles technologies
La question de savoir si l’IA générative nuit ou aide le paysage de l’information en ligne dépend en grande partie de la capacité des entreprises technologiques à proposer de bons outils largement adoptés qui nous indiquent si le contenu a été généré par l’IA.
DiResta m'a dit que la détection des médias synthétiques peut être un défi technique qui doit être priorisé car c'est un défi. Cela inclut des méthodes telles que le tatouage numérique, qui consiste à intégrer un morceau de code comme une marque permanente indiquant que le contenu joint a été produit par l'intelligence artificielle. Les outils automatisés de détection des publications générées ou manipulées par l’IA sont attrayants car, contrairement aux filigranes, ils ne nécessitent pas de marquage actif de la part du créateur du contenu généré par l’IA. En d’autres termes, les outils actuels qui tentent d’identifier le contenu généré automatiquement ne fonctionnent pas assez bien.
Certaines entreprises ont même proposé d'utiliser les mathématiques pour enregistrer en toute sécurité les signatures cryptographiques d'informations, telles que la manière dont un contenu a été généré, mais cela s'appuierait sur des technologies de divulgation volontaire telles que les filigranes.
La dernière version de la loi sur l'intelligence artificielle (AI Act) proposée par l'Union européenne la semaine dernière oblige les entreprises qui utilisent l'intelligence artificielle générative à informer les utilisateurs lorsque le contenu est effectivement généré par une machine. Nous en saurons probablement davantage sur les outils émergents dans les mois à venir, à mesure que la demande de transparence dans le contenu généré par l'IA augmente.
Soutien : Ren
Texte original :
https://www.technologyreview.com/2023/05/15/1073019/catcher-bad-content-in-the-age-of-ai/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Le 30 mai, Tencent a annoncé une mise à niveau complète de son modèle Hunyuan. L'application « Tencent Yuanbao » basée sur le modèle Hunyuan a été officiellement lancée et peut être téléchargée sur les magasins d'applications Apple et Android. Par rapport à la version de l'applet Hunyuan lors de la phase de test précédente, Tencent Yuanbao fournit des fonctionnalités de base telles que la recherche IA, le résumé IA et l'écriture IA pour les scénarios d'efficacité du travail ; pour les scénarios de la vie quotidienne, le gameplay de Yuanbao est également plus riche et fournit de multiples fonctionnalités d'application IA. , et de nouvelles méthodes de jeu telles que la création d'agents personnels sont ajoutées. « Tencent ne s'efforcera pas d'être le premier à créer un grand modèle. » Liu Yuhong, vice-président de Tencent Cloud et responsable du grand modèle Tencent Hunyuan, a déclaré : « Au cours de l'année écoulée, nous avons continué à promouvoir les capacités de Tencent. Grand modèle Tencent Hunyuan. Dans la technologie polonaise riche et massive dans des scénarios commerciaux tout en obtenant un aperçu des besoins réels des utilisateurs.

Tan Dai, président de Volcano Engine, a déclaré que les entreprises qui souhaitent bien mettre en œuvre de grands modèles sont confrontées à trois défis clés : l'effet de modèle, le coût d'inférence et la difficulté de mise en œuvre : elles doivent disposer d'un bon support de base de grands modèles pour résoudre des problèmes complexes, et elles doivent également avoir une inférence à faible coût. Les services permettent d'utiliser largement de grands modèles, et davantage d'outils, de plates-formes et d'applications sont nécessaires pour aider les entreprises à mettre en œuvre des scénarios. ——Tan Dai, président de Huoshan Engine 01. Le grand modèle de pouf fait ses débuts et est largement utilisé. Le polissage de l'effet de modèle est le défi le plus critique pour la mise en œuvre de l'IA. Tan Dai a souligné que ce n'est que grâce à une utilisation intensive qu'un bon modèle peut être poli. Actuellement, le modèle Doubao traite 120 milliards de jetons de texte et génère 30 millions d'images chaque jour. Afin d'aider les entreprises à mettre en œuvre des scénarios de modèles à grande échelle, le modèle à grande échelle beanbao développé indépendamment par ByteDance sera lancé à travers le volcan.

« Une complexité élevée, une fragmentation élevée et des domaines interdomaines » ont toujours été les principaux problèmes sur la voie de la mise à niveau numérique et intelligente du secteur des transports. Récemment, le « modèle de trafic Qinling·Qinchuan » avec une échelle de paramètres de 100 milliards, construit conjointement par China Science Vision, le gouvernement du district de Xi'an Yanta et le centre informatique d'intelligence artificielle du futur de Xi'an, est orienté vers le domaine des transports intelligents. et fournit des services à Xi'an et ses environs. La région créera un pivot pour l'innovation en matière de transport intelligent. Le « modèle de trafic Qinling·Qinchuan » combine les données écologiques massives du trafic local de Xi'an dans des scénarios ouverts, l'algorithme avancé original développé indépendamment par China Science Vision et la puissante puissance de calcul de l'IA Shengteng du futur centre informatique d'intelligence artificielle de Xi'an pour fournir la surveillance du réseau routier, les scénarios de transport intelligents tels que la commande d'urgence, la gestion de la maintenance et les déplacements publics entraînent des changements numériques et intelligents. La gestion du trafic présente des caractéristiques différentes selon les villes, et le trafic sur différentes routes

1. Positionnement du produit TensorRT-LLM TensorRT-LLM est une solution d'inférence évolutive développée par NVIDIA pour les grands modèles de langage (LLM). Il crée, compile et exécute des graphiques de calcul basés sur le cadre de compilation d'apprentissage en profondeur TensorRT et s'appuie sur l'implémentation efficace des noyaux dans FastTransformer. De plus, il utilise NCCL pour la communication entre les appareils. Les développeurs peuvent personnaliser les opérateurs pour répondre à des besoins spécifiques en fonction du développement technologique et des différences de demande, comme le développement de GEMM personnalisés basés sur le coutelas. TensorRT-LLM est la solution d'inférence officielle de NVIDIA, engagée à fournir des performances élevées et à améliorer continuellement sa praticité. TensorRT-LL

Selon des informations du 4 avril, l'Administration du cyberespace de Chine a récemment publié une liste de grands modèles enregistrés, et le « Grand modèle d'interaction du langage naturel Jiutian » de China Mobile y a été inclus, indiquant que le grand modèle Jiutian AI de China Mobile peut officiellement fournir des informations artificielles génératives. services de renseignement vers le monde extérieur. China Mobile a déclaré qu'il s'agit du premier modèle à grande échelle développé par une entreprise centrale à avoir réussi à la fois le double enregistrement national « Enregistrement du service d'intelligence artificielle générative » et le double enregistrement « Enregistrement de l'algorithme de service de synthèse profonde domestique ». Selon les rapports, le grand modèle d'interaction en langage naturel de Jiutian présente les caractéristiques de capacités, de sécurité et de crédibilité améliorées de l'industrie, et prend en charge la localisation complète. Il a formé plusieurs versions de paramètres telles que 9 milliards, 13,9 milliards, 57 milliards et 100 milliards. et peut être déployé de manière flexible dans le Cloud, la périphérie et la fin sont des situations différentes

1. Introduction au contexte Tout d’abord, présentons l’historique du développement de la technologie Yunwen. Yunwen Technology Company... 2023 est la période où les grands modèles prédominent. De nombreuses entreprises pensent que l'importance des graphiques a été considérablement réduite après les grands modèles et que les systèmes d'information prédéfinis étudiés précédemment ne sont plus importants. Cependant, avec la promotion du RAG et la prévalence de la gouvernance des données, nous avons constaté qu'une gouvernance des données plus efficace et des données de haute qualité sont des conditions préalables importantes pour améliorer l'efficacité des grands modèles privatisés. Par conséquent, de plus en plus d'entreprises commencent à y prêter attention. au contenu lié à la construction des connaissances. Cela favorise également la construction et le traitement des connaissances à un niveau supérieur, où de nombreuses techniques et méthodes peuvent être explorées. On voit que l'émergence d'une nouvelle technologie ne détruit pas toutes les anciennes technologies, mais peut également intégrer des technologies nouvelles et anciennes.

Si les questions du test sont trop simples, les meilleurs étudiants et les mauvais étudiants peuvent obtenir 90 points, et l'écart ne peut pas être creusé... Avec la sortie plus tard de modèles plus puissants tels que Claude3, Llama3 et même GPT-5, l'industrie est en besoin urgent d'un modèle de référence plus difficile et différencié. LMSYS, l'organisation à l'origine du grand modèle Arena, a lancé la référence de nouvelle génération, Arena-Hard, qui a attiré une large attention. Il existe également la dernière référence pour la force des deux versions affinées des instructions Llama3. Par rapport à MTBench, qui avait des scores similaires auparavant, la discrimination Arena-Hard est passée de 22,6 % à 87,4 %, ce qui est plus fort et plus faible en un coup d'œil. Arena-Hard est construit à partir de données humaines en temps réel provenant de l'arène et a un taux de cohérence de 89,1 % avec les préférences humaines.

Attention, cet homme a connecté plus de 1 000 grands modèles, vous permettant de vous brancher et de switcher en toute transparence. Récemment, un flux de travail d'IA visuelle a été lancé : vous offrant une interface intuitive de type glisser-déposer, vous pouvez glisser, tirer et faire glisser pour organiser votre propre flux de travail sur un canevas infini. Comme le dit le proverbe, la guerre coûte cher, et Qubit a appris que dans les 48 heures suivant la mise en ligne de cet AIWorkflow, les utilisateurs avaient déjà configuré des flux de travail personnels avec plus de 100 nœuds. Sans plus tarder, je veux parler aujourd'hui de Dify, une société LLMOps, et de son PDG Zhang Luyu. Zhang Luyu est également le fondateur de Dify. Avant de rejoindre l'entreprise, il avait 11 ans d'expérience dans l'industrie Internet. Je suis engagé dans la conception de produits, je comprends la gestion de projet et j'ai des connaissances uniques sur le SaaS. Plus tard, il
