Future of Life Institute は、一部の形式の人工知能研究について 6 か月の一時停止を求める公開書簡を発表しました。同団体は「社会と人類に対する深刻なリスク」を理由に、より多くの「安全ガードレール」を周囲に設置できるまで、GPT-4よりも強力なAIシステムの研究を中止するようAI研究所に要請した。
Future of Life Institute は 3 月 22 日の公開書簡で次のように書いています。 「高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があり、相応の注意とリソースをもって計画および管理されるべきである。残念ながら、このレベルの計画および管理は達成されていない」
研究所は、人工知能のガバナンス フレームワークが存在しない場合は、有名な拡張版であるアシロマ AI 原則のようなものであると考えています。 - シモフのロボット工学 3 原則。これらの 23 のガイドラインは同研究所によって作成されました。) - 私たち には、人工知能が計画的かつ制御された方法で開発されることを保証するための適切な検査メカニズムが不足しています。 これが私たちが今日直面していることです。
その手紙には次のように書かれています。誰も、その作成者さえも理解、予測、確実に制御できない、ますます強力なデジタル マインドを開発および展開する競争。## AI 研究者による自主的な一時停止措置を受けて、Future of Life Institute は政府に対し、大規模な AI モデルの研究継続による被害を防ぐための措置を講じるよう求めています。
人工知能のトップ研究者の間では、研究を一時停止するかどうかで意見が分かれています。チューリング賞受賞者のヨシュア・ベンジオ氏、OpenAI共同創設者のイーロン・マスク氏、Apple共同創設者のスティーブ・ウォズニアック氏を含む5,000人以上が公開書簡を支持する署名を行っている。
# ただし、GPT-4 よりも強力な AI システムの研究を禁止することが私たちの最大の利益になると誰もが確信しているわけではありません。
「私はこの手紙に署名していません」とメタの主任人工知能科学者でチューリング賞受賞者のヤン・ルカン氏(ベンジオ、ジェフリー・ヒントンとともに2018年チューリング賞受賞者)は上記のツイートをした。 「私はその前提に同意しません。」 現在の人工知能の流行は、2 年前にニューラル ネットワークの研究を通じて始まりました。当時、ディープ ニューラル ネットワークは世界中の人工知能研究者の主要な焦点でした。
2017 年に Google が発表した Transformer の論文により、人工知能の研究が本格化しました。すぐに、研究者たちは、数学を学習する能力、思考連鎖推論、指示に従う能力など、大規模な言語モデルが持つ予期せぬ強力な能力に気づきました。
OpenAI が ChatGPT を世界にリリースした 2022 年 11 月下旬、一般の人々はこれらの LLM ができることを体験しました。それ以来、技術コミュニティはあらゆる活動に LLM を導入することに取り組んでおり、GPT-4 の 3 月 15 日の発表リリースが示すように、より大きく、より強力なモデルを構築するための「軍拡競争」はさらに勢いを増しています。
#一部の AI 専門家は、嘘をつく傾向、個人データ漏洩のリスクなど、LLM の悪影響について懸念を表明しています。雇用への潜在的な影響があるにもかかわらず、新しい AI 機能に対する圧倒的な国民の需要を抑えるにはほとんど役立っていません。 Nvidia CEO のジェンスン・フアン氏は、私たちは人工知能の転換点にあるかもしれないと述べています。しかし、魔神は瓶から出てきたようで、次にどこへ行くかはわかりません。
以上が公開書簡、人工知能研究の一時停止を要請の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。