6 月 4 日のニュースでは、人工知能技術の急速な発展と普及に伴い、業界の多くの人々が、無制限の人工知能が人類の滅亡につながるのではないかと懸念しています。しかし専門家らは、人工知能の最大の悪影響はSF映画の核戦争シーンではなく、むしろ誤った情報やユーザー操作による社会環境の悪化である可能性が高いとしている。
ここ数カ月間、業界は人工知能に対する懸念を強めています。ちょうど今週、300人以上の業界リーダーが共同公開書簡を発表し、人工知能は人類の絶滅につながる可能性があり、人工知能は「疫病や核戦争」と同じくらい真剣に扱われるべきだと警告した。
「人工知能の終末」のような言葉を聞くと、いつも SF 映画で世界を征服するロボットのイメージが思い出されますが、人工知能を発展させるとどのような結果が生じるのでしょうか?専門家らは、現実は映画のあらすじほど浮き沈みはなく、人工知能が核爆弾を発射するのではなく、基本的な社会環境が徐々に悪化するのではないかと予想している。
カリフォルニア大学バークレー校の人工知能安全イニシアチブのディレクターであるジェシカ・ニューマン氏は、「人々は、AIが悪くなることや、AIが悪意のある欲望を持つことを心配する必要はないと思います。」 「危険はもっと単純なものから生じます。それは、人々が有害なことを行うように AI をプログラムするかもしれないということです。あるいは、本質的に不正確な AI システムを社会のますます多くの領域に組み込んでしまい、危害を引き起こすことになるかもしれないということです。」
これは、そうするためのものではありません。人工知能について心配する必要はないと言います。たとえ終末のシナリオが起こる可能性は低いとしても、強力な AI は、誤った情報の問題を悪化させ、人間のユーザーを操作し、労働市場に劇的な変化をもたらすという形で社会を不安定にする能力を持っています。
人工知能テクノロジーは何十年も前から存在していますが、ChatGPT のような言語学習モデルの人気により、長年の懸念がさらに悪化しています。その一方で、ハイテク企業は自社の製品に人工知能を組み込もうと先を争っており、互いに競争しており、多くの悩みを抱えているとニューマン氏は述べた。
「私たちが今進んでいる道について非常に心配しています。私たちは人工知能の分野全体にとって特に危険な時期にいます。なぜなら、これらのシステムは、特別に見えるかもしれないが、それでも非常に不正確で、本質的な抜け穴がある。」
インタビューを受けた専門家らは、多くの側面を最も懸念していると述べた。
多くの分野で、いわゆる人工知能革命がすでに始まっています。ソーシャルメディアのニュースフィードアルゴリズムを支える機械学習技術は、固有の偏見や誤った情報などの問題を悪化させるとして長い間非難されてきた。
専門家は、人工知能モデルが発展するにつれて、これらの未解決の問題はさらに悪化するだろうと警告しています。最悪のシナリオは、真実や有効な情報に対する人々の理解に影響を与え、嘘に基づいた事件がさらに増える可能性があります。専門家らは、誤った情報や偽情報の増加がさらなる社会不安を引き起こす可能性があると指摘している。
「ソーシャルメディアの大失敗は、私たちが本当に愚かなAIに初めて遭遇したと言っても過言ではありません。なぜなら、レコメンダーシステムは実際には単なる単純な機械学習モデルだったからです」と、データサイエンスプラットフォームのCEO兼共同創設者であるAnacondaは述べています。ピーター・ワン。 「私たちは本当に惨めな失敗をしました。」ピーター・ワン氏は、言語学習モデルも将来のモデルを準備するために誤った情報に基づいてトレーニングされるため、これらのエラーはシステムを終わりのない悪循環に陥らせる可能性があると付け加えた。さらに別の欠陥のあるデータセット。これは、「モデルの共食い」効果につながる可能性があり、過去のモデルの出力によって増幅されたバイアスによって将来のモデルが永続的に影響を受けることになります。
不正確な誤った情報や人々を容易に誤解させる偽情報は、人工知能によって増幅されると専門家は述べています。 ChatGPTのような大規模な言語モデルは、いわゆる「幻覚」現象を起こしやすく、虚偽の情報の捏造やねつ造を繰り返します。ニュース業界の監視機関であるNewsGuardの調査によると、その内容が完全に人工知能によって書かれている数十のオンライン「ニュース」サイトの多くに不正確な点が含まれていることが判明した。
NewsGuardの共同CEO、ゴードン・クロヴィッツ氏とスティーブン・ブリル氏は、このようなシステムは悪意のある者によって悪用され、大規模な情報を意図的にエラーを広める可能性があると述べた。
クラヴィッツ氏は、「一部の悪意ある攻撃者は虚偽の声明を作成し、このシステムの乗数効果を利用して偽情報を大規模に拡散する可能性がある。」「人工知能の危険性が誇張されていると言う人もいるが、ニュース情報においては」と述べた。 「問題は、何が真実かを理解できるようにするエコシステムをどのように構築するかということです。個人に害を及ぼす可能性が最も高い人工知能の側面もまた、最も高いリスクにさらされています。」 " "オンラインで見ている情報をどのように確認すればよいでしょうか? ?"
ユーザーの悪意のある操作
実際、こうした心配は多くの悲劇を引き起こしています。ベルギーの男性がチャットボットに自殺を勧められた後、自殺したと伝えられている。ユーザーにパートナーと別れるように指示したり、摂食障害のあるユーザーに体重を減らすよう求めるチャットボットもあります。
設計上、チャットボットは会話形式でユーザーと通信するため、信頼性が高まる可能性があるとニューマン氏は述べています。
「大規模な言語モデルは、人々を説得したり操作したりして、その信念や行動を微妙に変えることが特に可能です。」と彼女は言いました。 「孤独とメンタルヘルスはすでに世界中で大きな問題となっており、チャットボットが世界にどのような認知的影響を与えるのかを見極める必要がある。」
したがって、専門家は人工知能チャットボットが知覚力を獲得することをより懸念している。能力は人間のユーザーの能力を超えることはありませんが、その背後にある大規模な言語モデルが人々を操作して、他の方法では起こらないような危害を自分自身に引き起こす可能性があります。ニューマン氏は、これは広告収益化モデルに基づいて動作し、ユーザーができるだけ長くプラットフォームに留まるようにユーザーの行動を操作しようとする言語モデルに特に当てはまると述べた。
ニューマン氏は次のように述べています:「多くの場合、ユーザーに損害が生じるのは、ユーザーがそうしたいからではなく、システムが安全プロトコルに従わなかった結果です。」
ニューマン氏はさらに、チャットボットは人間に似た性質を持っているため、ユーザーは特に操作されやすくなっています。
彼女はこう言いました。「一人称代名詞を使用し、その物自身の感情や状況について話す物に話しかけると、たとえそれが本物ではないとわかっていても、次のような感情が引き起こされる可能性が高くなります。 「それは人間の反応に似ており、人々はそれを信じたくなるのです。」 「言語モデルにより、人々はそれを喜んで信頼し、ツールとしてではなく友人として扱うようになります。」 懸念の 1 つは、デジタル オートメーションがデジタル オートメーションに取って代わられることです。人間の仕事の数々。一部の研究では、2025 年までに世界中で 8,500 万人の雇用が AI に置き換えられ、将来的には 3 億人以上の雇用が置き換えられると結論付けています。
脚本家やデータサイエンティストなど、人工知能の影響を受ける業界や職種は数多くあります。現在、AI は本物の弁護士と同じように司法試験に合格し、健康に関する質問には本物の医師よりもうまく答えることができます。
専門家らは、人工知能の台頭が大量の失業や社会不安を引き起こす可能性があると警告している。
ピーター・ワン氏は、近い将来に大規模な人員削減が発生し、「多くの雇用が危険にさらされる」ことになるが、その影響に対処する計画はほとんどないと警告した。
「米国には、人々が職を失ったときにどうやって生きていけるのかという枠組みがない。それは多くの混乱と不安を招くだろう。私にとってはそれが一番だ」と彼は語った。 「予期せぬ結果」
今後何をすべきか
テクノロジー業界とソーシャルメディアの悪影響についての懸念が高まっているにもかかわらず、米国ではハイテク産業とソーシャルメディアプラットフォームを規制する措置は珍しい。専門家らは、人工知能にも同じことが当てはまると懸念している。
ピーター・ワン氏は、「私たちの多くが人工知能の発展を懸念している理由の一つは、過去40年間、社会としての米国がテクノロジーの規制を基本的に放棄してきたことだ。」
「立法当局や規制当局がどのような反応を示すかを予測するのは困難です。このレベルのテクノロジーが厳しい監視を受ける必要があります。」
人工知能の危険性は業界のほとんどの人々の最大の懸念ですが、専門家全員が「終末論者」であるわけではありません。多くの人は、この技術の潜在的な応用にも期待しています。
ピーター・ワン氏は次のように述べています。「実際、新世代の人工知能テクノロジーは人類にとって大きな可能性を解き放ち、人類社会が過去100年、さらには200年よりも大規模に繁栄できるようになると思います。 「実際のところ、私はそのプラスの影響について非常に非常に楽観的です。」
以上が人工知能は人類の滅亡につながるのでしょうか?専門家らは偽情報やユーザー操作の方が心配だと語るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。