最近、チューリングビッグ 3 の 1 人、ヨシュア ベンジオが BBC のインタビューに応じました。
ベンジオはインタビュー中、強い「憂鬱」を感じていることを明かし、生涯追求してきたキャリアに多少の喪失感を感じていると語った。
具体的には、AI の開発スピードをもっと早く実感できれば、AI の実用性よりも安全性を優先する傾向があるのではないかと感じています。
ご存知のとおり、ベンジオは数日前に公開された「AI が人類を滅ぼす可能性がある」に関する公開書簡に署名したところです。
公開書簡への署名は、ベンジオの態度を明確に示しています。
この 22 単語の公開書簡は、AI が人類を滅ぼす可能性があるリスクを、核戦争や感染症などの社会危機と比較しています。
BBCのインタビューで、ベンジオ氏は自身の見解を詳しく語った。
彼は、AI をより厳格に規制するよう私たちに求め、たとえば、軍隊に AI を使用する権限を決して与えるべきではありません。
もちろん、政治機関は AI の発展に目をつぶっているわけではありません。
欧州連合は、AI に関して法制化した最初の組織になる可能性があります。また最近、欧州連合はAI関連の行動規範が今後数週間以内に作成される可能性があると述べた。
この種の心配は無理からぬものではありません。結局のところ、AIの高性能は、新たな化学兵器の開発など、人類に有害な目的に利用される可能性がある。
Bengio 氏は、特に AI が急速に発展している現在、「悪意のある」意図を持った人々が AI を使いこなすことを非常に心配していると述べました。
「それは軍隊かもしれないし、テロリストかもしれない。あるいは精神的に不安定な人々かもしれない。つまり、これらの人々がAIを使いこなしたら、AIに極めて危険な任務を実行させてしまうのだ」
さらに、AI が発展し続けた場合、その過程で AI を中断することはできないかもしれないと彼は言いました。
次に、ベンジオは再び自分自身について話しました。
これらの心配は間違いなく彼の内部の摩擦を増大させ、彼の私生活と仕事に影響を与えました。
ベンジオは、かつては AI マスターとして大きな栄誉を獲得していました (もちろん今もそうです)。当時、彼は自分のキャリアのために生涯をかけて戦う覚悟がありました。好きで、得意でした。
AI のキャリアは、かつて彼にアイデンティティ、認識、人生の方向性の感覚をもたらしました。しかし今では、こうした心配のせいで、これらのことは彼にとってもはや明確ではありません。
「AI 業界に携わる人々にとって、これは精神的に困難なことです。」
しかし、憂鬱な面もあり、ポジティブな面もまだあります。その裏にある態度。
「途方に暮れていると言えるかもしれません。しかし、忍耐強く、話し合いに参加し、他の人たちに一緒に考えるよう奨励しなければなりません。」
マスク氏も同様の懸念を表明した。
彼は、AI が人間を確実に絶滅させるとは信じていませんが、AI が人間を制限し、制御する可能性があると信じています。
Bengio は、AI 製品に関連するすべてのテクノロジー大手企業は管理され、登録される必要があると考えています。
「政府は自分たちが何をしているのかを追跡する必要があり、監査できるようにする必要があります。そしてそれは、飛行機や自動車の製造、製薬などの他の業界に対して私たちが行っている最も基本的なことです。」
「コンピュータ サイエンスでは通常受けられない、ある種の倫理トレーニングも導入する必要があります。」
ハギングフェイスの科学者、サーシャ ルッチョーニ博士社会はAIの偏見や誤った情報の拡散などの問題を懸念すべきであり、それが具体的な問題であると彼女は述べた。
彼女の哲学は、特定の問題がもっと注目されるべきだということです。人類の絶滅というのはちょっと想像上の話で、それについて話すことさえできません。
実際、AI が社会にもたらす多くの利点を示す例は数多くあります。
つい先週、AIを使って開発されたマイクロチップのおかげで、麻痺した人が思考だけで再び歩くことができるようになりました。
科学技術の影響に加えて、AI が国民経済に与える重大な影響も無視できません。
多くの企業が人間の労働を代替するために AI ツールを使用し始めています。これは、ハリウッドの脚本家がストライキを開始した重要な理由でもあります。
偶然にも少し前、チューリングビッグスリーの一人でもあるヒントン氏も、同じ理由で熱心に捜索活動を行っていた。
当時、大手メディアはこんな見出しで賑わっていました。ディープラーニングの巨匠でありニューラルネットワークの父であるジェフリー・ヒントンが、突然Googleからの辞任を発表しました。
Google への影響を考慮せずに、AI のリスクについて自由に話せるようになります。
ニューヨーク・タイムズの報道で、ヒントンは世界に直接警告しました。「気をつけてください、前方には危険があります、前方には危険があります、前方には危険があります!」
これが、彼が人工知能のリスクについて深く懸念している理由です。ヒントン氏は率直に「自分の生涯の仕事を深く後悔しています。」と述べた。終末予言者であるヒントン氏は、テクノロジー業界がここ数十年で最も重要な転換点にあることも指摘している。
これは、業界の多くの人々にも不安を感じさせており、自分たちが行っている研究が何らかの危険を外の世界に放出しているのではないかと懸念しています。
なぜなら、生成AIは誤った情報を生成するツールになっている可能性があるからです。そして将来のある時点で、人類に脅威をもたらす可能性があります。
ヒントン氏の見解では、悪意のある人々がこれを悪用するのを防ぐ方法はまだ見つかっていません。
ヒントン氏の辞任後、騒々しい反対の波のさなか、人工知能のゴッドファーザーであるヒントン氏は、AIの開発を制限する2通の公開書簡に署名しなかった。
同氏は、辞任する前にGoogleや他の企業を公に批判したくないと述べた。
ヒントン氏がついに決意を固め、辞任することをGoogleに通知するまでに先月かかった。
Google を離れることを選択した後、ヒントンはついに AI のリスクについて自由に話すことができるようになりました。
#自分の人生をかけた仕事を深く後悔しています。
私はこのように自分を慰めることしかできません。たとえ私がいなくても、他の人はいるでしょう。
以上がAI のゴッドファーザー、ベンジオ: 私は道に迷っており、AI について心配することが「精神的な内部摩擦」になっています。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。