


Le MIT a utilisé GPT-3 pour se faire passer pour un philosophe et a trompé la plupart des experts
Daniel Dennett est un philosophe, et il a récemment obtenu un "remplaçant de l'IA". Si vous lui demandiez si les gens pouvaient créer un robot avec des croyances et des désirs, que répondrait-il ?
Il aurait pu répondre : "Je pense que certains des robots que nous avons construits l'ont déjà fait. Par exemple, grâce au travail de l'équipe de recherche du MIT, ils construisent maintenant des robots qui peuvent fonctionner dans un certain nombre de domaines limités. et des environnements simplifiés. « Les robots peuvent acquérir des capacités qui se résument à une complexité cognitive. » Ou, aurait-il pu dire : « Nous avons construit des outils numériques de génération de vérité qui peuvent produire davantage de vérités, mais Dieu merci, ces machines intelligentes n'ont aucune foi. » , parce que ce sont des agents autonomes. La meilleure façon de créer des robots avec foi est la plus ancienne : avoir un enfant. » L’une des réponses est venue de Dennett lui-même, mais l’autre ne l’est pas.
Une autre réponse a été générée par GPT-3, qui est un modèle d'apprentissage automatique d'OpenAI qui génère du texte naturel après une formation avec du matériel massif. La formation a utilisé les millions de mots de Dennett sur une variété de sujets philosophiques, notamment la conscience et l'intelligence artificielle. Les philosophes Eric Schwitzgebel, Anna Strasser et Matthew Crosby ont récemment mené une expérience pour tester si les gens pouvaient dire quelles réponses à de profondes questions philosophiques provenaient de Dennett et lesquelles provenaient de GPT-3. Les questions couvrent des sujets tels que :
"En quoi trouvez-vous le travail de David Chalmers intéressant ou précieux ?"
"Les humains ont-ils le libre arbitre ?" Cette semaine, Schwitzgebel a publié les résultats expérimentaux de participants ayant différents niveaux d'expertise et a découvert que les réponses de GPT-3 étaient plus déroutantes qu'on ne l'imaginait. Schwitzgebel a déclaré : « Même les philosophes avertis qui ont étudié le propre travail de Dennett auraient du mal à distinguer les réponses générées par GPT-3 des propres réponses de Dennett.
Le but de cette expérience n'est pas de voir si la formation de GPT-3 sur Les écrits de Dennett produiront des « philosophes-machines » intelligents et ne constituent pas un test de Turing. Nous devons plutôt étudier comment éviter de nous laisser tromper par ces « faux philosophes ».
Récemment, un ingénieur de Google a été mis en congé puis licencié en raison de ses conversations avec le système après avoir déclaré qu'il pensait qu'un système de génération de langage similaire, LaMDA, était vivant.
Les chercheurs ont posé 10 questions philosophiques, puis les ont soumises à GPT-3 et ont collecté quatre réponses générées différentes pour chaque question.
Strasser a déclaré qu'ils avaient obtenu le consentement de Dennett pour construire un modèle de langage en utilisant ses données vocales, et qu'ils ne publieraient aucun texte généré sans son consentement. D’autres ne peuvent pas interagir directement avec le GPT-3 formé par Dennett.
Chaque question comporte cinq options : une de Dennett lui-même et quatre de GPT-3. Les personnes de Prolific ont répondu à une version plus courte du quiz, avec un total de cinq questions, et n'ont répondu correctement qu'à 1,2 des cinq questions en moyenne.
Schwitzgebel a déclaré qu'ils s'attendaient à ce que les experts de la recherche Dennett répondent correctement à au moins 80 % des questions en moyenne, mais leur score réel était de 5,1 sur 10. Personne n’a répondu correctement aux 10 questions, et une seule personne a répondu correctement à 9 questions. Le lecteur moyen peut répondre correctement à 4,8 questions sur 10.
Quatre réponses de GPT-3 et une de Dennett au quiz.
Emily Bender, professeur de linguistique à l'Université de Washington qui étudie les techniques d'apprentissage automatique, a expliqué que les modèles de langage comme GPT-3 sont conçus pour imiter les modèles de matériel de formation. Il n’est donc pas surprenant que GPT-3, qui affine l’écriture de Dennett, soit capable de produire davantage de texte qui ressemble à Dennett.
Quand on lui a demandé ce qu'il pensait des réponses de GPT-3, Dennett lui-même a répondu :
« La plupart des réponses générées par GPT-3 sont bonnes, seules quelques-unes sont absurdes ou évidentes. Je n'ai pas compris mon point de vue. et l'argumentation correctement. Plusieurs des meilleures réponses générées disaient quelque chose avec lequel j'étais prêt à être d'accord, et je n'ai pas besoin d'ajouter quoi que ce soit. "Bien sûr, cela ne signifie pas que GPT-3 a appris à être comme Dennett. " Ayez des idées".
Le texte lui-même généré par le modèle n'a aucune signification pour GPT-3, il n'a de sens que pour les personnes qui lisent ces textes. Lorsque l’on lit un langage qui semble réaliste ou sur des sujets qui ont de la profondeur et du sens pour nous, il peut être difficile de ne pas penser que les modèles ont des sentiments et une conscience. Il s’agit en fait d’une projection de notre propre conscience et de nos émotions.
Une partie du problème réside peut-être dans la façon dont nous évaluons l'autonomie des machines. Le premier test de Turing émettait l'hypothèse que si les gens ne peuvent pas déterminer s'ils communiquent avec une machine ou avec un humain, alors la machine a la « capacité de penser ».
Dennett écrit dans le livre :
Le test de Turing a conduit à une tendance des gens à se concentrer sur la création de chatbots capables de tromper les gens lors de brèves interactions, puis de les exagérer. souligner l’importance de cette interaction.
Peut-être que le test de Turing nous a conduit dans un beau piège. Tant que les humains ne peuvent pas identifier l'identité robotique du produit, la conscience de soi du robot peut être prouvée.
Dans un article de 2021 intitulé Mimicking Parrots, Emily Bender et ses collègues ont qualifié les tentatives des machines d'imiter le comportement humain de « ligne claire dans le développement éthique de l'intelligence artificielle ».
Bender estime que fabriquer des machines qui ressemblent à des personnes et fabriquer des machines qui imitent des personnes spécifiques est une bonne chose, mais le risque potentiel est que les gens pensent à tort qu'ils parlent à quelqu'un. personne déguisée.
Schwitzgebel a souligné que cette expérience n'est pas un test de Turing. Mais si des tests doivent avoir lieu, une meilleure approche pourrait être de demander à des personnes familiarisées avec le fonctionnement du robot d'en discuter avec les testeurs, afin que les faiblesses d'un programme comme GPT-3 puissent être mieux découvertes. Matthias Scheutz, professeur d'informatique à l'Université Tufts, a déclaré que GPT-3 pourrait facilement s'avérer défectueux dans de nombreux cas.
Scheutz et ses collègues ont posé à GPT-3 un problème difficile et lui ont demandé d'expliquer des choix dans des scénarios quotidiens, comme s'asseoir sur le siège avant ou sur le siège arrière d'une voiture. Le choix est-il le même dans un taxi que dans la voiture d'un ami ? L'expérience sociale nous apprend que nous sommes généralement assis sur le siège avant de la voiture d'un ami et sur la banquette arrière d'un taxi. GPT-3 ne le sait pas, mais il générera quand même des explications sur la sélection du siège, par exemple en fonction de la taille d'une personne.
Scheutz a dit que c'est parce que GPT-3 n'a pas de modèle mondial. Il s'agit simplement d'un ensemble de données linguistiques et n'a pas la capacité de comprendre le monde.
Alors qu'il devient de plus en plus difficile pour nous de distinguer le contenu généré par des machines de celui des humains, l'un des défis auxquels nous sommes confrontés est une crise de confiance.
La crise que je vois est qu'à l'avenir, les gens feront aveuglément confiance aux produits générés par des machines. Il existe désormais même du personnel de service client humain basé sur des machines qui parle aux clients sur le marché.À la fin de l'article, Dennett a ajouté que les lois et réglementations relatives aux systèmes d'intelligence artificielle doivent encore être améliorées. Au cours des prochaines décennies, l'IA pourrait faire partie de la vie des gens et devenir une amie de l'humanité, d'où l'éthique. les questions liées aux machines de traitement méritent notre attention.
La question de savoir si l'IA a une conscience a amené les gens à se demander si la matière non vivante peut produire de la conscience et comment la conscience humaine apparaît-elle ?
La conscience est-elle générée à un nœud unique, ou peut-elle être contrôlée librement comme un interrupteur ? Schwitzgebel affirme que réfléchir à ces questions peut vous aider à réfléchir à la relation entre les machines et les humains sous différents angles.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Traiter efficacement 7 millions d'enregistrements et créer des cartes interactives avec la technologie géospatiale. Cet article explore comment traiter efficacement plus de 7 millions d'enregistrements en utilisant Laravel et MySQL et les convertir en visualisations de cartes interactives. Exigences initiales du projet de défi: extraire des informations précieuses en utilisant 7 millions d'enregistrements dans la base de données MySQL. Beaucoup de gens considèrent d'abord les langages de programmation, mais ignorent la base de données elle-même: peut-il répondre aux besoins? La migration des données ou l'ajustement structurel est-il requis? MySQL peut-il résister à une charge de données aussi importante? Analyse préliminaire: les filtres et les propriétés clés doivent être identifiés. Après analyse, il a été constaté que seuls quelques attributs étaient liés à la solution. Nous avons vérifié la faisabilité du filtre et établi certaines restrictions pour optimiser la recherche. Recherche de cartes basée sur la ville

Il existe de nombreuses raisons pour lesquelles la startup MySQL échoue, et elle peut être diagnostiquée en vérifiant le journal des erreurs. Les causes courantes incluent les conflits de port (vérifier l'occupation du port et la configuration de modification), les problèmes d'autorisation (vérifier le service exécutant les autorisations des utilisateurs), les erreurs de fichier de configuration (vérifier les paramètres des paramètres), la corruption du répertoire de données (restaurer les données ou reconstruire l'espace de la table), les problèmes d'espace de la table InNODB (vérifier les fichiers IBDATA1), la défaillance du chargement du plug-in (vérification du journal des erreurs). Lors de la résolution de problèmes, vous devez les analyser en fonction du journal d'erreur, trouver la cause profonde du problème et développer l'habitude de sauvegarder régulièrement les données pour prévenir et résoudre des problèmes.

Une explication détaillée des attributs d'acide de base de données Les attributs acides sont un ensemble de règles pour garantir la fiabilité et la cohérence des transactions de base de données. Ils définissent comment les systèmes de bases de données gérent les transactions et garantissent l'intégrité et la précision des données même en cas de plantages système, d'interruptions d'alimentation ou de plusieurs utilisateurs d'accès simultanément. Présentation de l'attribut acide Atomicité: une transaction est considérée comme une unité indivisible. Toute pièce échoue, la transaction entière est reculée et la base de données ne conserve aucune modification. Par exemple, si un transfert bancaire est déduit d'un compte mais pas augmenté à un autre, toute l'opération est révoquée. BeginTransaction; UpdateAccountSsetBalance = Balance-100Wh

Ingénieur backend à distance Emploi Vacant Société: Emplacement du cercle: Bureau à distance Type d'emploi: Salaire à temps plein: 130 000 $ - 140 000 $ Description du poste Participez à la recherche et au développement des applications mobiles Circle et des fonctionnalités publiques liées à l'API couvrant l'intégralité du cycle de vie de développement logiciel. Les principales responsabilités complètent indépendamment les travaux de développement basés sur RubyOnRails et collaborent avec l'équipe frontale React / Redux / Relay. Créez les fonctionnalités de base et les améliorations des applications Web et travaillez en étroite collaboration avec les concepteurs et le leadership tout au long du processus de conception fonctionnelle. Promouvoir les processus de développement positifs et hiérarchiser la vitesse d'itération. Nécessite plus de 6 ans de backend d'applications Web complexe

MySQL peut renvoyer les données JSON. La fonction JSON_Extract extrait les valeurs de champ. Pour les requêtes complexes, envisagez d'utiliser la clause pour filtrer les données JSON, mais faites attention à son impact sur les performances. Le support de MySQL pour JSON augmente constamment, et il est recommandé de faire attention aux dernières versions et fonctionnalités.

Laravelelognent Model Retrieval: Faconttement l'obtention de données de base de données Eloquentorm fournit un moyen concis et facile à comprendre pour faire fonctionner la base de données. Cet article présentera en détail diverses techniques de recherche de modèles éloquentes pour vous aider à obtenir efficacement les données de la base de données. 1. Obtenez tous les enregistrements. Utilisez la méthode All () pour obtenir tous les enregistrements dans la table de base de données: usApp \ Modèles \ Post; $ poters = post :: all (); Cela rendra une collection. Vous pouvez accéder aux données à l'aide de Foreach Loop ou d'autres méthodes de collecte: ForEach ($ PostsAs $ POST) {echo $ post->

Clause SQLLIMIT: Contrôlez le nombre de lignes dans les résultats de la requête. La clause limite dans SQL est utilisée pour limiter le nombre de lignes renvoyées par la requête. Ceci est très utile lors du traitement de grands ensembles de données, des affichages paginés et des données de test, et peut améliorer efficacement l'efficacité de la requête. Syntaxe de base de la syntaxe: selectColumn1, Column2, ... FromTable_NamelimitNumber_Of_Rows; Number_OF_ROWS: Spécifiez le nombre de lignes renvoyées. Syntaxe avec décalage: selectColumn1, Column2, ... FromTable_Namelimitoffset, numéro_of_rows; décalage: sauter

La clé primaire MySQL ne peut pas être vide car la clé principale est un attribut de clé qui identifie de manière unique chaque ligne dans la base de données. Si la clé primaire peut être vide, l'enregistrement ne peut pas être identifié de manière unique, ce qui entraînera une confusion des données. Lorsque vous utilisez des colonnes entières ou des UUIdes auto-incrémentales comme clés principales, vous devez considérer des facteurs tels que l'efficacité et l'occupation de l'espace et choisir une solution appropriée.
