Maison Périphériques technologiques IA Le sujet de la sécurité de l'IA lors de l'Intelligent Source Conference 2023 a attiré beaucoup d'attention et le nouveau livre « Human-Machine Alignment » a été publié.

Le sujet de la sécurité de l'IA lors de l'Intelligent Source Conference 2023 a attiré beaucoup d'attention et le nouveau livre « Human-Machine Alignment » a été publié.

Jun 14, 2023 pm 10:34 PM
ai安全 智源大会 人机对齐

De nombreux explorateurs et praticiens dans le domaine de l'IA se sont réunis pour partager les résultats de la recherche, échanger des expériences pratiques et parler de la beauté de la science et de la technologie. La Conférence sur les sources intelligentes de Pékin 2023 s'est tenue récemment avec succès en tant qu'événement complet pour les experts. dans le domaine de l'intelligence artificielle, cet événement étincelant L'échange d'idées à la lumière de la sagesse, avec des centaines de merveilleux rapports et discussions, témoigne conjointement d'une évolution étonnante de l'intelligence.

Le sujet de la sécurité de lIA lors de lIntelligent Source Conference 2023 a attiré beaucoup dattention et le nouveau livre « Human-Machine Alignment » a été publié.

Lors du Forum sur la sécurité et l'alignement de l'IA, de nombreux experts et universitaires ont communiqué sur la manière de garantir que les systèmes d'intelligence artificielle de plus en plus puissants et polyvalents sont sûrs, contrôlables et cohérents avec les intentions et les valeurs humaines. est une question extrêmement importante. Ce problème de sécurité est également connu sous le nom de problème d’alignement homme-machine (alignement IA) et représente l’un des défis scientifiques les plus urgents et les plus significatifs auxquels la société humaine est confrontée ce siècle.

Le sujet de la sécurité de lIA lors de lIntelligent Source Conference 2023 a attiré beaucoup dattention et le nouveau livre « Human-Machine Alignment » a été publié.

Lors du forum, 14 invités nationaux et étrangers, dont le « père du Deep Learning » Geoffrey Hinton, le fondateur d'OpenAI Sam Altman et l'académicien Zhang Bo, se sont concentrés sur l'alignement homme-machine et la simultanéité des modèles à grande échelle. Le dernier ouvrage de l'écrivain Brian Christian, The Alignment Problem, dont la version chinoise est intitulée "Human-Machine Alignment", est également officiellement publié lors de la conférence. Le livre a été présenté et publié par Hunan Science and Technology Press et révisé par Anyuan AI. Xie Minxi, fondateur d'Anyuan AI, a présidé la cérémonie de sortie du nouveau livre.

Le sujet de la sécurité de lIA lors de lIntelligent Source Conference 2023 a attiré beaucoup dattention et le nouveau livre « Human-Machine Alignment » a été publié.

Brian Christian, auteur de "Human-Machine Alignment", a été invité à prendre la parole en ligne. Dans son discours, il a d'abord adressé ses salutations aux lecteurs et aux invités présents à la réunion. Il est honoré par la sortie du nouveau livre « Human-Machine Alignment » et espère que ce livre pourra contribuer à la poursuite de la recherche dans le domaine de l'intelligence artificielle en Chine. Parallèlement, une brève introduction au contenu principal de « Human-Machine Alignment » est donnée : Le livre est divisé en trois parties. La première partie traite des problèmes actuels d'éthique et de sécurité affectant les systèmes d'apprentissage automatique. l'autonomie, en se concentrant sur la supervision et l'apprentissage auto-supervisé vers l'apprentissage par renforcement. Le troisième article explore la manière dont nous alignons les systèmes d'IA complexes dans le monde réel sur la base de l'apprentissage supervisé, de l'apprentissage auto-supervisé et de l'apprentissage par renforcement. Nous espérons que la sortie de « Human-Computer Alignment » en Chine aidera non seulement les chercheurs, mais nous aidera également à transmettre notre enthousiasme pour ce domaine à tous les non-professionnels. Il a enfin exprimé son espoir que le développement mondial du domaine de l’intelligence artificielle soit favorisé par les discussions lors de cette conférence et par la recherche chinoise dans le domaine de l’IA.

Le sujet de la sécurité de lIA lors de lIntelligent Source Conference 2023 a attiré beaucoup dattention et le nouveau livre « Human-Machine Alignment » a été publié.

《alignement homme-machine》

【US】Écrit par Brian Christian ; Traduit par Tang Lu

Éditeur : Hunan Science and Technology Press

Les systèmes d'apprentissage automatique modernes sont devenus très puissants et peuvent observer et écouter des informations en notre nom dans diverses situations, et prendre des décisions à notre place. Mais la sonnette d’alarme a été tirée. À mesure que l’apprentissage automatique progresse rapidement, les préoccupations évoluent également. Des risques potentiels et des problèmes éthiques peuvent survenir lorsque l’intelligence artificielle (IA) se comporte de manière incompatible avec nos véritables objectifs. Les chercheurs l’appellent le problème d’alignement.

Dans un style vif, Brian Christian explique clairement les problèmes selon lesquels l'IA est indissociable de nous, et les lecteurs de ses ouvrages à succès en ont beaucoup bénéficié. Dans ce livre, nous ferons connaissance avec le premier groupe de chercheurs qui ont activement traité du problème de l'alignement, ainsi que leurs efforts extraordinaires et leurs plans ambitieux pour empêcher le développement de l'IA de devenir incontrôlable. Kristen a non seulement décrit succinctement l'histoire du développement de l'apprentissage automatique, mais elle s'est également plongée personnellement dans les premières lignes de la recherche scientifique pour parler aux scientifiques, présentant avec précision les progrès de pointe de l'apprentissage automatique. Le succès ou l’échec de la recherche sur les questions d’alignement aura un impact vital sur l’avenir de l’humanité, et les lecteurs peuvent en être profondément conscients.

Le problème d’alignement est également un miroir qui expose les propres préjugés et angles morts des êtres humains, nous permettant de voir clairement nos propres hypothèses jamais clarifiées et nos objectifs souvent contradictoires. Il s’agit d’une épopée brillante et interdisciplinaire qui examine non seulement la technologie humaine mais aussi la culture humaine, parfois frustrante et parfois révélatrice.

Le sujet de la sécurité de lIA lors de lIntelligent Source Conference 2023 a attiré beaucoup dattention et le nouveau livre « Human-Machine Alignment » a été publié.

Ce livre a reçu un accueil enthousiaste lors de sa publication à l'étranger. Il a été désigné par le PDG de Microsoft, Satya Nadella, comme l'un des cinq livres qui l'ont le plus inspiré en 2021, et a été classé par le New York Times comme l'une des technologies et de l'éthique clés de l'IA. Le meilleur livre sur le problème, comme l'a dit l'auteur Brian Christian : « J'espère que le domaine chinois de l'IA et les lecteurs chinois au sens large pourront également lire ce livre. J'espère que pour vous, ce livre est riche en contenu et suscite la réflexion. , et inspirant, non seulement utile en tant que chercheurs, mais également utile pour transmettre votre enthousiasme pour ce domaine aux non-informaticiens de votre vie.

Zhou Shihao, journaliste du Xiaoxiang Morning News

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Vous avez un jeu croisé?
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

À l'ère de l'IA, comment utiliser ChatGPT en toute sécurité a déclenché des discussions animées À l'ère de l'IA, comment utiliser ChatGPT en toute sécurité a déclenché des discussions animées Jun 03, 2023 pm 05:35 PM

Depuis son lancement public en novembre 2022, ChatGPT a connu une croissance importante. Il est devenu un outil indispensable pour de nombreuses entreprises et particuliers, mais comme ChatGPT est intégré dans notre vie quotidienne et fonctionne à grande échelle, les gens se demanderont naturellement : ChatGPT est-il sûr à utiliser ? ChatGPT est généralement considéré comme sûr en raison des mesures de sécurité étendues, des méthodes de traitement des données et des politiques de confidentialité mises en œuvre par ses développeurs. Cependant, comme toute technologie, ChatGPT n’est pas à l’abri des problèmes de sécurité et des vulnérabilités. Cet article vous aidera à mieux comprendre la sécurité des modèles de langage ChatGPT et AI. Nous explorerons des aspects tels que la confidentialité des données, la vie privée des utilisateurs, les risques potentiels, la réglementation de l'IA et les mesures de sécurité. Enfin, vous serez intéressé par le Chat

Quand l'IA rencontre la fraude Quand l'IA rencontre la fraude May 31, 2023 pm 02:06 PM

« Même si je sais que les escroqueries sont courantes de nos jours, je n’arrive toujours pas à croire que j’en ai réellement rencontré une. » Le 23 mai, la lectrice Wu Jia (pseudonyme) était encore effrayée en évoquant la fraude télécom dont elle a été victime il y a quelques jours. Dans l'arnaque rencontrée par Wu Jia, l'escroc a utilisé l'IA pour changer son visage en quelqu'un qu'elle connaissait. Non seulement Wu Jia a été confrontée à une fraude à l'IA contre laquelle il était difficile de se prémunir dans sa vie quotidienne, mais un journaliste du Beijing Business Daily a remarqué que les nouveaux modèles de fraude dans les télécommunications utilisant la technologie de l'IA ont montré une incidence élevée ces derniers jours. est proche de 100 %. technologies. Fraude « qui change le visage de l'IA » L'intelligence artificielle est redevenue populaire, cette fois autour de la fraude dans les télécommunications. Wu Jia

Un long article de 10 000 mots丨Déconstruire la chaîne industrielle de la sécurité de l'IA, les solutions et les opportunités entrepreneuriales Un long article de 10 000 mots丨Déconstruire la chaîne industrielle de la sécurité de l'IA, les solutions et les opportunités entrepreneuriales Jun 06, 2023 pm 12:53 PM

Points clés : 1. La question de la sécurité des grands modèles d'IA n'est jamais un problème unique. Tout comme la gestion de la santé humaine, il s'agit d'une ingénierie système complexe et systématique impliquant plusieurs sujets et l'ensemble de la chaîne industrielle. 2. La sécurité de l'IA est divisée en : la sécurité des grands modèles de langage (AISafety), la sécurité des modèles et des modèles d'utilisation (Security for AI) et l'impact du développement de grands modèles de langage sur la sécurité des réseaux existants, qui correspond aux besoins individuels. sécurité, sécurité environnementale et sécurité sociale. 3. L'IA, en tant que « nouvelle espèce », nécessite une surveillance de la sécurité pendant le processus de formation des grands modèles. Lorsque les grands modèles sont finalement introduits sur le marché, ils nécessitent également une « inspection de qualité ». et doivent être utilisés de manière contrôlée, ce sont toutes des macros pour résoudre les problèmes de sécurité.

Le sujet de la sécurité de l'IA lors de l'Intelligent Source Conference 2023 a attiré beaucoup d'attention et le nouveau livre « Human-Machine Alignment » a été publié. Le sujet de la sécurité de l'IA lors de l'Intelligent Source Conference 2023 a attiré beaucoup d'attention et le nouveau livre « Human-Machine Alignment » a été publié. Jun 14, 2023 pm 10:34 PM

De nombreux explorateurs et praticiens du domaine de l'IA se sont réunis pour partager les résultats de leurs recherches, échanger leurs expériences pratiques et parler de la beauté de la science et de la technologie. La Conférence sur les sources intelligentes de Pékin 2023 s'est tenue récemment avec succès en tant qu'événement complet d'experts dans le domaine. de l'intelligence artificielle, cette pensée rayonnante de sagesse Échangez et soyez témoin d'une évolution étonnante de l'intelligence avec des centaines de rapports et de discussions merveilleux. Lors du Forum sur la sécurité et l'alignement de l'IA, de nombreux experts et universitaires ont communiqué. À l'ère des grands modèles, comment garantir que les systèmes d'intelligence artificielle de plus en plus puissants et polyvalents soient sûrs, contrôlables et cohérents avec les intentions et les valeurs humaines est une question. question extrêmement importante. Ce problème de sécurité est également connu sous le nom de problème d’alignement homme-machine (IAalignment) et représente l’un des défis scientifiques les plus urgents et les plus significatifs auxquels la société humaine est confrontée ce siècle. Argument

'Le Royaume-Uni, les États-Unis et 28 autres pays ont convenu de renforcer la coopération en matière de sécurité de l'IA pour prévenir les blessures catastrophiques' 'Le Royaume-Uni, les États-Unis et 28 autres pays ont convenu de renforcer la coopération en matière de sécurité de l'IA pour prévenir les blessures catastrophiques' Nov 02, 2023 pm 05:41 PM

Des pays comme le Royaume-Uni, les États-Unis et la Chine ont convenu d’un consensus sur les risques posés par l’intelligence artificielle avancée, s’engageant à garantir que la technologie soit développée et déployée en toute sécurité. Lors du « Sommet mondial sur la sécurité de l'intelligence artificielle » organisé cette semaine par le gouvernement britannique, 28 pays, dont le Brésil, l'Inde, le Nigeria et l'Arabie saoudite, ainsi que l'Union européenne, ont signé un accord sur l'IA appelé « Déclaration de Bletchley ». Le gouvernement britannique a déclaré que la déclaration atteint l’objectif principal du sommet, à savoir établir un accord commun et des responsabilités sur les risques, les opportunités et la coopération internationale pour progresser dans la sécurité et la recherche avancées en matière d’IA, en particulier grâce à une collaboration scientifique plus large. Les pays participants ont partagé le point de vue selon lequel une éventuelle utilisation abusive intentionnelle pourrait présenter de graves risques et ont souligné leurs préoccupations concernant la cybersécurité, la biotechnologie, la désinformation, les préjugés et les risques liés à la vie privée.

Ne soyez pas exposé, abandonnez l'IA et éloignez-vous de la terre le plus tôt possible ! Quelle est la signification des conseils de Hawking ? Ne soyez pas exposé, abandonnez l'IA et éloignez-vous de la terre le plus tôt possible ! Quelle est la signification des conseils de Hawking ? Oct 21, 2023 pm 05:17 PM

Ne recherchez pas activement les extraterrestres ! Essayez de vous éloigner de la terre le plus rapidement possible ! Abandonnez le développement de l’intelligence artificielle, sinon cela entraînerait la destruction du monde. Voici les trois conseils laissés au monde par le regretté physicien Stephen Hawking. Peut-être penserez-vous que sa déclaration est forcément un peu exagérée, voire alarmiste. Mais avez-vous déjà pensé à ce que serait le monde si ses inquiétudes se réalisaient enfin ? Si vous êtes intéressé par la civilisation extraterrestre, vous devez avoir entendu parler du nom SETI. Il s'agit d'un projet expérimental qui utilise des ordinateurs en réseau partout dans le monde pour rechercher des civilisations extraterrestres. Depuis sa création en 1999, il recherche sans relâche des signaux suspects dans l'univers. Et j’ai hâte de rencontrer un jour une civilisation extraterrestre lointaine et inattendue. Mais Hawking pense que cela

Le premier institut de recherche sur la sécurité de l'IA au monde sera créé au Royaume-Uni Le premier institut de recherche sur la sécurité de l'IA au monde sera créé au Royaume-Uni Oct 27, 2023 am 11:21 AM

Selon les nouvelles de l'IT House du 27 octobre, sur la base de rapports de CNBC, Reuters et d'autres rapports, jeudi, heure locale, le Premier ministre britannique Sunak a annoncé son intention de créer le premier institut de recherche sur la sécurité de l'IA au monde et d'organiser une conférence sur la sécurité de l'IA les 1er et 2 novembre. Sommet sur la sécurité. Le sommet réunira des entreprises d'IA, des gouvernements, la société civile et des experts dans des domaines connexes du monde entier pour discuter de la manière de réduire les risques posés par l'IA grâce à une action internationale coordonnée. La source Pexels Sunak a déclaré dans son discours que cet institut qui sera bientôt créé favorisera la compréhension mondiale de la sécurité de l'IA et recherchera, évaluera et testera soigneusement les nouvelles technologies d'IA pour comprendre les capacités de chaque nouveau modèle et explorer les risques allant de des préjudices sociaux tels que « les préjugés et la désinformation » aux « risques les plus extrêmes ». Sunak a déclaré : « IA

Huayunan et d'autres unités ont lancé conjointement la création du « Groupe de travail sur la sécurité de l'IA » pour renforcer la coopération et la recherche dans le domaine de la sécurité de l'IA. Huayunan et d'autres unités ont lancé conjointement la création du « Groupe de travail sur la sécurité de l'IA » pour renforcer la coopération et la recherche dans le domaine de la sécurité de l'IA. Sep 18, 2023 am 11:53 AM

Dans l'après-midi du 7 septembre, lors du forum « Explorer la nouvelle génération de renseignements de sécurité » organisé lors de la conférence 2023Inclusion Bund, la Cloud Security Alliance (CSA) Grande Chine, l'organisation industrielle internationale faisant autorité au monde, a annoncé la création d'un « IA Groupe de travail sur la sécurité". Huayunan et Chine Plus de 30 institutions, dont l'Institut de recherche sur les télécommunications, Ant Group, Huawei, l'Université des sciences et technologies électroniques de Xi'an et le Centre national d'évaluation des technologies financières de Shenzhen, sont devenus le premier groupe de sponsors. Le « AI Security Working Group » s'engage à résoudre conjointement les problèmes de sécurité causés par le développement rapide de la technologie de l'IA. Le groupe de travail sur la sécurité de l'IA dans la Grande Chine de la Cloud Security Alliance sera co-dirigé par le China Telecom Research Institute et Ant Group. Le groupe de travail réunira des entreprises, des écoles, des instituts de recherche et des unités d'utilisateurs impliqués en amont et en aval de la chaîne industrielle de l'intelligence artificielle. au sein de l'alliance.

See all articles