4 月 5 日のニュース 過去 6 か月間で、強力な新しい人工知能 (AI) ツールが驚くべき速度で急増しています。現実の人間の会話に似たチャットボット、ソフトウェアを自動的に実行するコーディング ボット、何もないところから物を作り出す画像ジェネレーターまで、いわゆる生成人工知能 (AIGC) が突然どこにでも普及し、ますます強力になりつつあります。
しかし先週、この AI ブームに対する反発が現れ始めました。テスラとツイッターのイーロン・マスク最高経営責任者(CEO)率いる何千人もの技術専門家や学者が、「人類に対する深刻なリスク」を警告し、AI言語モデルの開発を6か月間一時停止するよう求める公開書簡に署名した。
同時に、AI 研究の非営利団体は、ChatGPT を開発した OpenAI を調査し、GPT-4 のさらなる商用リリースを停止するよう米国連邦取引委員会 (FTC) に求める訴状を提出しました。ソフトウェア。
イタリアの規制当局も行動を起こし、データプライバシー侵害を理由にChatGPTを完全にブロックしました。
おそらく、AI 研究の一時停止や減速を求める人々がいることは理解できるでしょう。ほんの数年前には信じられない、あるいは理解不能にさえ思われた AI アプリケーションが、今ではソーシャル メディア、学校、職場、さらには政治にまで急速に浸透しています。この目まぐるしい変化に直面して、一部の人々はAIが最終的に人類文明の終焉をもたらすかもしれないと信じて悲観的な予測を発表しています。
良いニュースは、全能の AI に対する誇大宣伝や恐怖が誇張されている可能性があるということです。 Google の Bard や Microsoft の Bing は印象的ですが、「スカイネット」にはまだ程遠いです。
悪いニュースは、AI の急速な進化に対する人々の懸念が現実になったことです。これは、AI が人間よりも賢くなるからではなく、人間がすでに AI を利用して、既存の組織が備えていない方法でお互いを抑圧し、搾取し、騙し合っているからです。さらに、AI が強力であると人々が認識するほど、彼らや企業は、AI にはできないタスクを AI に委任する可能性が高くなります。
こうした悲観的な終末予測に加えて、先週発表された 2 つのレポートから、予見可能な将来に対する AI の影響について予備的な理解を得ることができます。最初の報告書は米国の投資銀行ゴールドマン・サックスによって発表され、主にAIが経済と労働市場に及ぼす影響を評価したもので、第2の報告書はユーロポールによって発表され、AIの犯罪的悪用の可能性に焦点を当てていた。
経済的な観点から見ると、最新の AI トレンドは、かつては人間しか実行できなかったタスクの自動化に焦点を当てています。力織機、機械化された組立ライン、ATM と同様に、AIGC は特定の種類の作業を人間よりも安価かつ効率的に完了できることを約束します。
しかし、食料品店のセルフレジ、自動電話応答システム、カスタマー サービス チャットボットを扱ったことがある人なら誰でも証言できるように、安くて効率的であることが必ずしも良いとは限りません。これまでの自動化の波とは異なり、AIGC は人間を模倣し、場合によっては人間になりすますことができます。これは、広範な欺瞞につながる可能性があり、実際にはそうではない場合でも、AI が人間の労働者に取って代わることができると雇用主を騙す可能性があります。
ゴールドマン・サックスの調査分析では、AIGCによって世界中で約3億人の雇用が変わり、数千万人が職を失うだけでなく、大幅な経済成長も促進されると推定されています。しかし、ゴールドマン・サックスには予測エラーの歴史があるため、その予測は正確ではない可能性があります。 2016年に同銀行は、仮想現実ヘッドセットがスマートフォンと同じくらい普及する可能性があると予測した。
ゴールドマン・サックスの AI 分析レポートで最も興味深いのは、さまざまな業界の内訳、つまりどの仕事が言語モデルによって強化される可能性があり、どの仕事が完全に置き換えられる可能性があるかということです。ゴールドマン・サックスの研究者らは、ホワイトカラー業務を1から7の難易度でランク付けし、「フォームの記入漏れの確認」がレベル1、自動化できる業務が「法廷での複雑な申し立ての判決」などのレベル4とした。 』はレベル6です。このことから導き出される結論は、管理サポートやパラリーガルの仕事が AI に置き換えられる可能性が最も高く、管理やソフトウェア開発などの職業の生産性が高まるということです。
このレポートは、企業が AI スキルを持つ従業員からより多くの利益を得るにつれて、この世代の AI によって最終的に世界の GDP が 7% 増加する可能性があると楽観的に予測しています。しかし、ゴールドマン・サックスはまた、その過程でアメリカ人の約7%が自分のキャリアが失われることになり、より多くの人が雇用を維持するためにこのテクノロジーを学ばなければならないだろうと予測している。つまり、たとえAIGCがより良い影響をもたらしたとしても、その結果、多数の従業員が職を失い、オフィスや日常生活において人間が徐々にロボットに取って代わられる可能性がある。
同時に、多くの企業はすでに、AI が処理できないタスクの近道や自動化に熱心に取り組んでいます。たとえば、テクノロジー Web サイトの CNET は、エラーだらけの財務記事を自動的に生成します。 AI に関して問題が発生すると、すでに疎外されているグループが不当に影響を受ける可能性があります。 ChatGPT とその類似品に関する興奮にもかかわらず、今日の大規模言語モデルの開発者は、顔認識や犯罪リスク評価アルゴリズムなどの AI アプリケーションに人種的偏見を埋め込んだ偏ったデータセットの問題にまだ取り組んでいません。先週、顔認識の不一致により黒人男性が再び不当に投獄された。
さらに懸念されるのは、場合によっては AIGC が意図的な危害を引き起こすために使用される可能性があることです。ユーロポールの報告書では、AIGC が詐欺やサイバー攻撃などの犯罪を手助けするためにどのように利用されているかについて詳しく説明されています。
たとえば、チャットボットは特定のスタイルの言語を生成し、特定の人の声を模倣することもできるため、フィッシング詐欺の強力なツールになる可能性があります。ソフトウェア スクリプトの作成における言語モデルの利点により、悪意のあるコードの生成が民主化される可能性があります。これらは、パーソナライズされた状況に応じた段階的なアドバイスを提供し、家に侵入したり、誰かを脅迫したり、パイプ爆弾を作成したりしようとしている犯罪者にとって頼りになるガイドとなります。私たちはすでに、合成画像がどのようにソーシャルメディア上で虚偽の物語を広め、ディープフェイクがキャンペーンを歪曲する可能性があるという懸念を再燃させるのかを見てきました。
言語モデルが悪用されやすい原因は、その広範な知性だけではなく、知識の根本的な欠陥にもあることは注目に値します。現在の主要なチャットボットは、悪意のある目的でチャットボットを使用する試みを検出した場合、沈黙を保つように訓練されています。しかし、ユーロポールが指摘しているように、「ChatGPT が潜在的に悪意のあるコードを提供するのを防ぐ安全策は、モデルが何をしているのかを理解している場合にのみ有効です。」文書化されたトリックや脆弱性の豊富な文書が示すように、自己認識は依然としてこのテクノロジーの弱点の 1 つです。
これらすべてのリスクを考慮すると、AIGC の開発ペースが低下し、社会が適応する時間が増えるという終末のシナリオを心配する必要はありません。 OpenAI 自体は、四半期ごとの収益目標の達成というプレッシャーを受けることなく、より責任ある方法で AI を構築できるという前提に基づいて非営利団体として設立されました。
しかし、OpenAIは現在、接戦でリードしており、ハイテク大手はAI倫理学者を解雇しており、いずれにしても馬は厩舎を離れた可能性がある。学術的な AI 専門家であるサヤシュ・カプール氏とアルビンド・ナラヤナン氏が指摘しているように、現在の言語モデルにおけるイノベーションの主な原動力は、ますます大規模なモデルを推進することではなく、私たちが持っているモデルをさまざまなアプリケーションやツールに統合することです。彼らは、規制当局はAIを核兵器のように抑制しようとするのではなく、製品の安全性と消費者保護の観点からAIツールを検討すべきだと主張している。
おそらく、短期的に最も重要なことは、テクノロジーの専門家、ビジネスリーダー、規制当局がパニックや誇大宣伝を脇に置いて、AIGC の長所と短所をより深く理解し、それを採用する場合はより慎重になります。たとえ何が起こっても、AI が役割を果たし続ければ、その影響は破壊的なものになるでしょう。しかし、その能力を過大評価すると、害が軽減されるどころか、さらに有害になります。
以上が米国メディア: AI の知能を恐れる必要はありません。本当に恐ろしいのは、AI が過大評価され、悪用されることです。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。