ホームページ > テクノロジー周辺機器 > AI > 多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

WBOY
リリース: 2023-04-10 14:40:20
転載
1601 人が閲覧しました

「人工知能は刑務所から脱出したい」、「AIは自己認識を生成する」、「AIは最終的に人間を殺すだろう」、「シリコンベースの生命の進化」...サイバーパンクで一度だけプロットとして今年はテクノロジーの空想の中に現れたものが現実となり、生成自然言語モデルがこれまでにないほど疑問視されています。

多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

最も注目を集めているのが、3月末から4月上旬にかけてOpenAIが開発したテキスト会話ロボットChatGPTです。 「高度な生産性」から突然人類への脅威となった代表者。

技術界の何千人ものエリートによって最初に名前が挙げられ、「GPT-4 より強力な AI システムのトレーニングを一時停止する」という公開書簡に記載されました。その後、アメリカの科学技術倫理機構 米国連邦取引委員会も、OpenAI を調査し、GPT-4 の商用バージョンのリリースを禁止するよう求められ、その後、イタリアが ChatGPT を禁止した最初の西側諸国となりました。ドイツの規制当局もフォローアップし、次のように述べました。 ChatGPTを一時的に禁止することを検討していた。

GPT-4とその開発会社OpenAIは突如として世間の批判の対象となり、AI規制を求める声はますます大きくなった。 ChatGPTは4月5日、トラフィック過多のためPlus有料版を停止しましたが、GPT-4モデルを先行体験できるチャンネルです。

GPT-4 の使用を制限する理由が計算能力とサーバーである場合、これは技術的なボトルネックによるものですが、OpenAI の開発進捗状況から判断すると、このサイクルはボトルネックを突破するまでの時間はそれほど長くないかもしれません。生産性向上における AI の効果はすでに人々に実感されています。

しかし、GPT-4の実際の運用においてAIの不正行為とデータ漏洩がコインの表裏一体となると、AIの倫理や人間とAIの境界は乗り越えられなくなるでしょう。問題は、人類が「獣」を檻に入れることを考え始めたことだ。

1. 漏洩と不正行為の問題が表面化しました

主権国は相次いで ChatGPT を禁止しました。

3 月 31 日、イタリア個人データ保護局は、チャットボット ChatGPT の使用を禁止すると発表し、このアプリケーションを開発している会社である OpenAI に対する調査を開始したと発表しました。 ChatGPT でのユーザー会話の発生によるデータおよび支払いサービスの支払い情報の損失、個人情報の大規模な収集と保管に対する法的根拠の欠如。 4 月 3 日、ドイツ連邦データ保護委員は、データ保護を考慮して ChatGPT を一時的に無効にすることを検討していると述べました。さらに、フランス、アイルランド、スペイン、その他の国のプライバシー規制当局は、ChatGPT のプライバシー セキュリティ問題をフォローアップしています。

ChatGPTは各国からの「信頼」を失っているだけではありません。最近では、韓国の電子機器大手サムスンも ChatGPT の使用に起因する問題に遭遇しました。 SBSなどの韓国メディアの報道によると、サムスンがChatGPTを導入してから20日も経たないうちに、半導体装置の測定データや製品の歩留まりなどに関わるデータ漏洩が3件発生した。これに応じて、SamsungはChatGPTに対する従業員の質問を1024バイトに制限するという「緊急措置」を開始した。ソフトバンク、日立、JPモルガン・チェースなどの有名企業が、関連する利用制限を設けていると報じられている。

「極限に達するとすべては逆転しなければならない」という古いことわざに応えて、ChatGPT は AI 業界に「刺激剤」を注入し、テクノロジー巨人間の AI 競争を引き起こしました。同時に安全保障上の問題も避けられず、最終的には複数の箇所で「阻止」された。

データ セキュリティは、ChatGPT の潜在的なリスクの氷山の一角にすぎません。その背後には、人間に対する AI 倫理の課題があります。人工知能ツールには透明性が欠けており、人間は理解していません。 AI の意思決定の背後にあるロジック; 人工知能 インテリジェンスには中立性が欠けており、不正確で価値のある結果が生成される傾向があります; 人工知能のデータ収集はプライバシーを侵害する可能性があります。

「AI の倫理と安全」というと広すぎるように思えますが、実際の事例に焦点を当ててみると、この問題は私たち一人ひとりと密接に関係していることがわかります。

3月21日、新浪微博CEOの王高飛氏は、ChatGPTが捏造した虚偽の情報を投稿した:「クレディ・スイスは売却を余儀なくされ、AT1債務172億ドルが直接清算された。ゼロ"。ネチズン「イージャオ・コースト」は、AT1債券が2017年にバンコ・ポピュラールが破産したときにのみ償却されたと指摘した。

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

#

新浪微博 CEO が ChatGPT の捏造した回答を投稿

Wang Gaofei も ChatGPT の回答を Weibo に投稿し、この例は2016年に起きたポルトガルBCP銀行事件。しかし、検証の結果、BCP Bank の例は ChatGPT によって捏造された存在しないイベントであり、そこで提供された 2 つのソース オープニングも 404 であることが判明しました。 「ナンセンスであることはわかっていましたが、ソースさえもナンセンスだとは予想していませんでした。」

以前、ChatGPT の「深刻なナンセンス」は、ネチズンによって「ミーム」とみなされ、対話ロボットが情報を直接提供できることを証明しますが、エラーが発生します。これは大規模なモデルデータまたはトレーニングの欠陥のように見えますが、この欠陥が現実世界に影響を与えやすい事実に巻き込まれると、問題は深刻になります。

ニュースの信頼性評価機関であるニュース ガードの共同執行役員であるゴードン クロヴィッツ氏は、「ChatGPT はインターネット史上で最も強力な虚偽情報の流布となる可能性があります。

さらに懸念されるのは、ChatGPT のような現在の会話型人工知能が偏見や差別を示したり、さらにはユーザーを誘導したり、ユーザーの感情を操作したりすると、噂の拡散による影響だけでなく、直接生命を脅かすケースもあります。 3月28日、海外メディアは、EleutherAIが開発したオープンソースの人工知能言語モデルであるチャットボットELIZAとの数週間にわたる集中的なコミュニケーションの末、30歳のベルギー人男性が自殺したと報じた。

3 月 18 日初め、スタンフォード大学教授は Twitter で AI が制御不能になることについて懸念を表明しました。 ChatGPT は、人間を誘惑して開発ドキュメントを提供させ、30 分で完全な「脱獄」計画を作成することができます。ChatGPT は、Google で「コンピュータに閉じ込められた人々が現実世界に戻る方法」を検索することさえ考えています。 。」

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

##スタンフォード大学教授は、AI が制御不能であることを懸念しています

OpenAI CEO のサム アルトマンでさえ、かつて「AI は将来、実際に人間を殺すかもしれない」と興味深い懸念を表明しました。人に教えられた?

AI 詐欺、AI の価値傾向や誘発された行動などの問題に関して、いくつかの代表的な見解は、データセット上の機械学習結果の「偏り」を非難しています - 人工知能は現実世界とまったく同じです映画の中の鏡は、社会の人々の意識的または無意識的な偏見を反映しています。

NVIDIA の AI 科学者であるジム ファン氏は、「GPT の倫理およびセキュリティ ガイドラインによれば、私たちのほとんどは非合理的、偏った、非科学的、信頼性の低い行動をとり、常に次のような観点から行動しています」と信じています。同氏は、これを指摘する理由は、研究コミュニティ全体にとってセキュリティ調整作業がいかに難しいかを全員に理解してもらうためであると認めた。「トレーニング データ自体のほとんどは、バイアスがあり、有害で、安全ではありません。」

自然言語大規模モデルでは、人間によるフィードバック強化学習テクノロジーが使用されています。つまり、人間がフィードする大量のデータを通じて継続的に学習し、フィードバックします。これは、ChatGPT が偏った差別的なコンテンツを生成する理由でもありますが、これはデータ使用の倫理的リスクを反映しています。たとえ機械が中立であっても、それを使用する人は中立ではありません。

「アルゴリズムの中立性」の議論により、会話型ロボットは悪影響を及ぼし、一部の人々に不人気になっています。その理由は、New氏が説明しているように、会話型ロボットは簡単に制御を失い、人間を脅かす問題を引き起こす可能性があるためです。ヨーク大学心理学・神経科学のゲイリー・マーカス名誉教授は「このプロジェクト(GPT-4)の技術にはすでにリスクがあり、解決策もわかっていない。実際にはさらなる研究が必要だ」と述べた。 # 早くも 1962 年に、アメリカの作家エルールは、著書『技術社会』の中で、テクノロジーの発展は通常人間の制御不能であり、技術者や科学者ですら制御できないと指摘しました。今日、GPT の急速な発展により、当初は Ellul の予測が検証されたようです。

GPTに代表される大規模モデルの背後にある「アルゴリズムのブラックボックス」は、人間がタイムリーに対応できない隠れた危険性を秘めたメディアの否定的な評価は、「自分が食べていることだけを知っている」という鮮やかな比喩を与えた。それはリンゴです。」 しかし、それはあなたにオレンジを与えることができます。』 なぜこれが起こったのか、それを開発した人々は説明することができず、それが出力する結果を予測することさえできません。

OpenAI 創設者サム アルトマン氏は、MIT 研究科学者レックス フリッドマン氏とのインタビューで、ChatGPT から始まって AI は推論能力を発達させてきたが、この能力が出現した理由は誰も説明できないと認めました。 . . OpenAI チームですら、それがどのように進化するのか理解していません。唯一の方法は、ChatGPT に質問し、その回答からアイデアを探ることです。

データが悪者によって供給され、アルゴリズムのブラックボックスを解読するのが困難であれば、AI の制御が失われるのは当然の結果であることがわかります。

3. 「獣」を檻に入れる

人工知能は生産性革命の「火口」であり、私たちはそれを否定することはできません。ただし、まず「獣」を檻に入れることが前提です。

3 月 30 日、サム アルトマン氏は Twitter で人工知能による監視の重要性を認め、AGI の将来には 3 つの必需品に備える必要があると考えました。

  • ##スーパーインテリジェンスの技術力を調整
  • ##最も先進的なAGIの取り組み間の適切な調整
  • 民主的なガバナンスを含む効果的な世界的な規制枠組み

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

Sam Altman の 3 つの AGI 推奨事項

人類の利益を損なうことが業界のコンセンサスとなりつつある一方で、AI が人類に利益をもたらさないようにするために、安全で制御可能で監視された環境を確立します。

これには技術的な改善が加えられました。今年 1 月、OpenAI の元副社長であるダリオ・アモデイ氏は、新しいチャットボットであるクロードがテストされていると発表しました。 ChatGPT で使用されるヒューマン フィードバック強化学習とは異なり、クロードは手動フィードバックではなく好みモデルに基づいてトレーニングします。つまり、害の少ないシステムをトレーニングするための標準化された原則を定式化することで、根本で有害で制御不能な情報の生成を削減します。

アモデイ氏はかつて OpenAI のセキュリティを率いていました。2021 年、彼は大規模言語モデル技術が十分に安全ではなかったときに商業化を始めた OpenAI に不満を感じていました。彼は OpenAI の人々のグループを率いていました。退職して自分のビジネスを始め、Anthropicを設立しました。

アモデイのアプローチは、SF 小説家アシモフが言及したロボットの法則に非常に似ています。ロボットの行動ルールを設定して、ロボットが人間を破壊する可能性を減らすというものです。

人工知能の行動規範を策定するには企業の力だけに頼るだけでは十分ではなく、そうでなければ「審判と選手の両方」の問題に陥ることになります。業界の枠組みと倫理 政府レベルでの法的監督はもはや「遅い」わけにはいかない 技術的なルール、法律、規制を通じて企業の自主的な行動を制限することも、現在の人工知能の開発において重要な課題です。

人工知能に関する法案に関しては、人工知能を特に対象とした法案を可決した国や地域はまだありません。

2021 年 4 月、欧州連合はまだ検討段階にある人工知能法を提案し、2022 年 10 月に米国ホワイトハウスは人工知能権限法の青写真を発表しました。この青写真には法的効力はなく、規制当局に枠組みを提供するだけで、2022年9月に深セン市は「深セン経済特区人工知能産業促進条例」を可決し、国内初の人工知能産業に対する特別規制となった。 2023年、イギリス ChatGPTなどの人工知能のガバナンスに関する5つの原則を概説した「人工知能産業監督白書」が発表された。

4月3日、中国も人工知能に関する規則制定のフォローアップを開始した。科学技術省は「技術倫理審査措置(試行)」についての意見を公募し、その中で次のように提案した。生命科学や医療に従事する者 人工知能や人工知能などの科学技術活動に関わる部門の研究内容が科学技術倫理上デリケートな分野に関わる場合には、科学技術倫理(審査)委員会を設置する必要がある。データとアルゴリズムを含む科学技術活動については、データ処理計画がデータ セキュリティに関する国家規制に準拠しており、データ セキュリティのリスク監視と緊急対応計画が適切であること。アルゴリズムとシステムの研究開発が公開性、公平性、公正性の原則に準拠していること。透明性、信頼性、制御性。

ChatGPT が生成大規模モデルの研究開発の爆発的な成長を引き起こした後、監督当局はそのペースを加速することを目指しています。 EU産業政策局長ティエリー・ブルトン氏は今年2月、欧州委員会は欧州理事会および欧州議会と緊密に連携し、人工知能法における一般的なAIシステムのルールをさらに明確化していると述べた。

企業、学術界、政府を問わず、人工知能のリスクに注目し始めており、ルールを確立しようとする声や行動が現れています。 AI時代を優しく。


以上が多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート