Le renseignement militaire c'est comme la guerre, c'est un brouillard, il y a beaucoup d'incertitude, c'est imprévisible et imprévisible. À en juger par la tendance actuelle au développement de l'intelligence artificielle, dans les guerres futures prévisibles, il existe de nombreux dangers cachés de l'intégration homme-machine qui n'ont pas encore été résolus, notamment : # (1 ) Dans un environnement informationnel complexe, les humains et les machines absorbent, digèrent et utilisent des informations limitées dans un laps de temps précis. Pour les humains, plus la pression est forte, plus ils comprennent mal les informations et plus il est facile de semer la confusion. et la confusion et les accidents. Il est encore très difficile pour les machines d’apprendre, de comprendre et de prédire les données non structurées inter-domaines.
(2) Les informations nécessaires à la prise de décision en temps de guerre sont largement réparties dans le temps et dans l'espace, ce qui fait que certaines informations clés sont encore difficiles à obtenir. De plus, il est difficile de coordonner et d’intégrer les données physiques objectives importantes collectées par les machines avec les informations et connaissances subjectivement traitées obtenues par les humains.
(3) Dans les guerres futures, il y aura un grand nombre de caractéristiques non linéaires et une variabilité inattendue, qui conduisent souvent à l'imprévisibilité du processus et des résultats du combat, formel. le raisonnement logique basé sur des axiomes est loin de répondre aux besoins de prise de décision dans des situations de combat complexes et en constante évolution. Compte tenu de la prolifération continue des armes nucléaires, le coût des guerres futures entre pays, quelle que soit leur ampleur, deviendra de plus en plus élevé. Quelle que soit la manière dont l'intelligence artificielle se développe, l'avenir appartient à l'humanité. Les êtres humains devraient définir conjointement les règles du jeu pour les guerres futures et déterminer le sort de l'intelligence artificielle, plutôt que l'intelligence artificielle ne décide du sort de l'humanité. est logique, et les guerres futures sont non seulement logiques, mais contiennent également un grand nombre de facteurs illogiques.
(4) Au vu des différentes classifications des équipements autonomes selon les pays, il existe une énorme lacune dans la définition et la compréhension du concept d'intelligence artificielle forte ou armes générales d'intelligence artificielle, donc actuellement Le travail le plus important n'est pas de savoir comment résoudre des problèmes techniques spécifiques (la technologie est mise à jour très rapidement), mais comment parvenir à un consensus sur les concepts et définitions de base des applications d'intelligence artificielle, tels que : ① Qu'est-ce que L'IA ? ②Qu'est-ce que l'autonomie ? ③Quelle est la différence entre l'automatisation et l'intelligence ? ④Quelle est la différence entre le calcul machine et le calcul humain ? ⑤Quelle est la limite de la répartition des fonctions/capacités homme-machine ? ⑥Quelle est la relation entre les données, l'IA et la responsabilité en matière de risque ? ⑦La différence entre calculabilité et décidabilité, etc.
Certaines définitions sont encore très approximatives et doivent être affinées davantage. Par exemple, du point de vue de la sécurité humaine, interdire les armes autonomes avec des « personnes extérieures à la boucle » est une mesure. conformément aux valeurs universelles. Il est nécessaire de réduire le risque de perte de contrôle, mais quels types de personnes sont souvent ignorées dans la boucle du système, et certaines personnes irresponsables peuvent être pires dans le système de prévention des épidémies ; 🎜#
# 🎜🎜# (5) Concernant le développement de technologies indépendantes dans le monde, il est recommandé de mettre en place une équipe d'évaluation conjointe pour mener régulièrement une évaluation détaillée et une alerte précoce sur le développement de technologies indépendantes. , vérifier les étapes du développement technologique, effectuer une analyse prédictive du développement technologique et mener des activités Les institutions clés et le personnel de R&D dans le développement de technologies sensibles doivent effectuer une supervision ciblée et établir un certain degré d'exigences d'ouverture académique. (6) Les risques et défis de sécurité rencontrés par le développement de la militarisation de l'IA comprennent principalement : ① L'intelligence artificielle et les systèmes autonomes peuvent conduire à des escalades inattendues et à une instabilité de crise ; les relations stratégiques entre la Chine, les États-Unis et la Russie deviendront plus tendues (prise de décision, jugement automatique + prise de décision humaine, jugement automatique) ; + prise de décision automatique) affectera l'escalade de la situation des deux parties ; )Mauvais ; ⑤ Les accidents dans lesquels des systèmes autonomes attaquent involontairement des forces amies ou des civils augmenteront plus de questions ;#🎜 🎜#⑥ L'intelligence artificielle et les systèmes autonomes peuvent conduire à la déstabilisation d'une course aux armements ; #⑦ La prolifération des systèmes autonomes peut déclencher une recherche sérieuse de contre-mesures qui intensifieront l'incertitude, et les pays seront préoccupés par les problèmes de sécurité.
Le calcul traite de la « complexité », et le calcul traite de la « complexité ». L'écriture d'une composition est un processus de calcul, mais elle n'utilise pas de chiffres ni de graphiques, mais des symboles textuels. .
Les êtres humains ne peuvent pas maîtriser complètement le monde, mais ils peuvent essayer de comprendre le monde. Ce type d'intelligence donnera naissance à de nouvelles catégories et pensées philosophiques.
Le dernier livre sur la relation entre le cerveau et les ordinateurs publié par von Neumann de son vivant était "L'ordinateur et le cerveau"), von Neumann a résumé son point de vue et Il a reconnu que non seulement le cerveau était bien plus complexe qu'une machine, mais que le cerveau semblait remplir ses fonctions selon des modalités différentes de celles qu'il avait initialement imaginées. De manière presque concluante, il a conclu que les ordinateurs binaires étaient totalement inadaptés à la simulation du cerveau. C'est parce qu'il a presque conclu que la structure logique du cerveau est complètement différente de la structure logique de la logique et des mathématiques. Ensuite, « du point de vue de l'évaluation des mathématiques ou du discours logique réellement utilisé par le système nerveux central, les mathématiques que nous utilisons. utiliser La forme externe est totalement inadaptée à un tel travail.”
Des recherches scientifiques récentes le confirment également. Les découvertes du neuroscientifique français Romain Brette remettent fondamentalement en question la cohérence de l’architecture sous-jacente du cerveau et des ordinateurs, connue sous le nom de codage neuronal. Influencés par la métaphore entre le cerveau et l'ordinateur, les scientifiques ont déplacé la connexion entre les stimuli et les neurones d'un sens technique vers un sens représentationnel dans lequel le codage neuronal représente minutieusement le stimulus. En fait, la manière dont le réseau neuronal transmet le signal à la « structure en aval » de l’observateur idéalisé dans le cerveau de manière optimale est encore inconnue et n’est pas claire, même dans des hypothèses de modèles simples. Cette métaphore conduit donc les scientifiques à se concentrer uniquement sur les connexions entre les sensations et les neurones, tout en ignorant le véritable impact du comportement des animaux sur les neurones.
Les résultats de l'étude du neuroscientifique hongrois Gyorgi Bussaki sont encore plus radicaux. Dans son livre The Brain Inside Out, Bussaki souligne que le cerveau ne représente pas réellement l’information en la codant, mais qu’il la construit. Selon lui, le cerveau n'accepte pas simplement passivement les stimuli et les représente ensuite par le biais d'un codage neuronal, mais recherche activement diverses possibilités pour tester diverses options possibles. Il s’agit sans aucun doute d’un renversement complet de la métaphore de l’utilisation des ordinateurs comme métaphore du cerveau.
Que ce soit du point de vue de la science du cerveau ou de l'informatique, la durée de vie métaphorique consistant à comparer le cerveau à un ordinateur risque de ne plus durer. Cobb a vivement souligné que ce type de métaphore a été appliqué à la recherche sur ordinateur, aveuglant les gens et réduisant la portée de la recherche réelle.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!