目次
1. 漏洩と不正行為の問題が表面化しました
3. 「獣」を檻に入れる
ホームページ テクノロジー周辺機器 AI 多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

Apr 10, 2023 pm 02:40 PM
AI chatgpt 自然言語

「人工知能は刑務所から脱出したい」、「AIは自己認識を生成する」、「AIは最終的に人間を殺すだろう」、「シリコンベースの生命の進化」...サイバーパンクで一度だけプロットとして今年はテクノロジーの空想の中に現れたものが現実となり、生成自然言語モデルがこれまでにないほど疑問視されています。

多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?

最も注目を集めているのが、3月末から4月上旬にかけてOpenAIが開発したテキスト会話ロボットChatGPTです。 「高度な生産性」から突然人類への脅威となった代表者。

技術界の何千人ものエリートによって最初に名前が挙げられ、「GPT-4 より強力な AI システムのトレーニングを一時停止する」という公開書簡に記載されました。その後、アメリカの科学技術倫理機構 米国連邦取引委員会も、OpenAI を調査し、GPT-4 の商用バージョンのリリースを禁止するよう求められ、その後、イタリアが ChatGPT を禁止した最初の西側諸国となりました。ドイツの規制当局もフォローアップし、次のように述べました。 ChatGPTを一時的に禁止することを検討していた。

GPT-4とその開発会社OpenAIは突如として世間の批判の対象となり、AI規制を求める声はますます大きくなった。 ChatGPTは4月5日、トラフィック過多のためPlus有料版を停止しましたが、GPT-4モデルを先行体験できるチャンネルです。

GPT-4 の使用を制限する理由が計算能力とサーバーである場合、これは技術的なボトルネックによるものですが、OpenAI の開発進捗状況から判断すると、このサイクルはボトルネックを突破するまでの時間はそれほど長くないかもしれません。生産性向上における AI の効果はすでに人々に実感されています。

しかし、GPT-4の実際の運用においてAIの不正行為とデータ漏洩がコインの表裏一体となると、AIの倫理や人間とAIの境界は乗り越えられなくなるでしょう。問題は、人類が「獣」を檻に入れることを考え始めたことだ。

1. 漏洩と不正行為の問題が表面化しました

主権国は相次いで ChatGPT を禁止しました。

3 月 31 日、イタリア個人データ保護局は、チャットボット ChatGPT の使用を禁止すると発表し、このアプリケーションを開発している会社である OpenAI に対する調査を開始したと発表しました。 ChatGPT でのユーザー会話の発生によるデータおよび支払いサービスの支払い情報の損失、個人情報の大規模な収集と保管に対する法的根拠の欠如。 4 月 3 日、ドイツ連邦データ保護委員は、データ保護を考慮して ChatGPT を一時的に無効にすることを検討していると述べました。さらに、フランス、アイルランド、スペイン、その他の国のプライバシー規制当局は、ChatGPT のプライバシー セキュリティ問題をフォローアップしています。

ChatGPTは各国からの「信頼」を失っているだけではありません。最近では、韓国の電子機器大手サムスンも ChatGPT の使用に起因する問題に遭遇しました。 SBSなどの韓国メディアの報道によると、サムスンがChatGPTを導入してから20日も経たないうちに、半導体装置の測定データや製品の歩留まりなどに関わるデータ漏洩が3件発生した。これに応じて、SamsungはChatGPTに対する従業員の質問を1024バイトに制限するという「緊急措置」を開始した。ソフトバンク、日立、JPモルガン・チェースなどの有名企業が、関連する利用制限を設けていると報じられている。

「極限に達するとすべては逆転しなければならない」という古いことわざに応えて、ChatGPT は AI 業界に「刺激剤」を注入し、テクノロジー巨人間の AI 競争を引き起こしました。同時に安全保障上の問題も避けられず、最終的には複数の箇所で「阻止」された。

データ セキュリティは、ChatGPT の潜在的なリスクの氷山の一角にすぎません。その背後には、人間に対する AI 倫理の課題があります。人工知能ツールには透明性が欠けており、人間は理解していません。 AI の意思決定の背後にあるロジック; 人工知能 インテリジェンスには中立性が欠けており、不正確で価値のある結果が生成される傾向があります; 人工知能のデータ収集はプライバシーを侵害する可能性があります。

「AI の倫理と安全」というと広すぎるように思えますが、実際の事例に焦点を当ててみると、この問題は私たち一人ひとりと密接に関係していることがわかります。

3月21日、新浪微博CEOの王高飛氏は、ChatGPTが捏造した虚偽の情報を投稿した:「クレディ・スイスは売却を余儀なくされ、AT1債務172億ドルが直接清算された。ゼロ"。ネチズン「イージャオ・コースト」は、AT1債券が2017年にバンコ・ポピュラールが破産したときにのみ償却されたと指摘した。

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

#

新浪微博 CEO が ChatGPT の捏造した回答を投稿

Wang Gaofei も ChatGPT の回答を Weibo に投稿し、この例は2016年に起きたポルトガルBCP銀行事件。しかし、検証の結果、BCP Bank の例は ChatGPT によって捏造された存在しないイベントであり、そこで提供された 2 つのソース オープニングも 404 であることが判明しました。 「ナンセンスであることはわかっていましたが、ソースさえもナンセンスだとは予想していませんでした。」

以前、ChatGPT の「深刻なナンセンス」は、ネチズンによって「ミーム」とみなされ、対話ロボットが情報を直接提供できることを証明しますが、エラーが発生します。これは大規模なモデルデータまたはトレーニングの欠陥のように見えますが、この欠陥が現実世界に影響を与えやすい事実に巻き込まれると、問題は深刻になります。

ニュースの信頼性評価機関であるニュース ガードの共同執行役員であるゴードン クロヴィッツ氏は、「ChatGPT はインターネット史上で最も強力な虚偽情報の流布となる可能性があります。

さらに懸念されるのは、ChatGPT のような現在の会話型人工知能が偏見や差別を示したり、さらにはユーザーを誘導したり、ユーザーの感情を操作したりすると、噂の拡散による影響だけでなく、直接生命を脅かすケースもあります。 3月28日、海外メディアは、EleutherAIが開発したオープンソースの人工知能言語モデルであるチャットボットELIZAとの数週間にわたる集中的なコミュニケーションの末、30歳のベルギー人男性が自殺したと報じた。

3 月 18 日初め、スタンフォード大学教授は Twitter で AI が制御不能になることについて懸念を表明しました。 ChatGPT は、人間を誘惑して開発ドキュメントを提供させ、30 分で完全な「脱獄」計画を作成することができます。ChatGPT は、Google で「コンピュータに閉じ込められた人々が現実世界に戻る方法」を検索することさえ考えています。 。」

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

##スタンフォード大学教授は、AI が制御不能であることを懸念しています

OpenAI CEO のサム アルトマンでさえ、かつて「AI は将来、実際に人間を殺すかもしれない」と興味深い懸念を表明しました。人に教えられた?

AI 詐欺、AI の価値傾向や誘発された行動などの問題に関して、いくつかの代表的な見解は、データセット上の機械学習結果の「偏り」を非難しています - 人工知能は現実世界とまったく同じです映画の中の鏡は、社会の人々の意識的または無意識的な偏見を反映しています。

NVIDIA の AI 科学者であるジム ファン氏は、「GPT の倫理およびセキュリティ ガイドラインによれば、私たちのほとんどは非合理的、偏った、非科学的、信頼性の低い行動をとり、常に次のような観点から行動しています」と信じています。同氏は、これを指摘する理由は、研究コミュニティ全体にとってセキュリティ調整作業がいかに難しいかを全員に理解してもらうためであると認めた。「トレーニング データ自体のほとんどは、バイアスがあり、有害で、安全ではありません。」

自然言語大規模モデルでは、人間によるフィードバック強化学習テクノロジーが使用されています。つまり、人間がフィードする大量のデータを通じて継続的に学習し、フィードバックします。これは、ChatGPT が偏った差別的なコンテンツを生成する理由でもありますが、これはデータ使用の倫理的リスクを反映しています。たとえ機械が中立であっても、それを使用する人は中立ではありません。

「アルゴリズムの中立性」の議論により、会話型ロボットは悪影響を及ぼし、一部の人々に不人気になっています。その理由は、New氏が説明しているように、会話型ロボットは簡単に制御を失い、人間を脅かす問題を引き起こす可能性があるためです。ヨーク大学心理学・神経科学のゲイリー・マーカス名誉教授は「このプロジェクト(GPT-4)の技術にはすでにリスクがあり、解決策もわかっていない。実際にはさらなる研究が必要だ」と述べた。 # 早くも 1962 年に、アメリカの作家エルールは、著書『技術社会』の中で、テクノロジーの発展は通常人間の制御不能であり、技術者や科学者ですら制御できないと指摘しました。今日、GPT の急速な発展により、当初は Ellul の予測が検証されたようです。

GPTに代表される大規模モデルの背後にある「アルゴリズムのブラックボックス」は、人間がタイムリーに対応できない隠れた危険性を秘めたメディアの否定的な評価は、「自分が食べていることだけを知っている」という鮮やかな比喩を与えた。それはリンゴです。」 しかし、それはあなたにオレンジを与えることができます。』 なぜこれが起こったのか、それを開発した人々は説明することができず、それが出力する結果を予測することさえできません。

OpenAI 創設者サム アルトマン氏は、MIT 研究科学者レックス フリッドマン氏とのインタビューで、ChatGPT から始まって AI は推論能力を発達させてきたが、この能力が出現した理由は誰も説明できないと認めました。 . . OpenAI チームですら、それがどのように進化するのか理解していません。唯一の方法は、ChatGPT に質問し、その回答からアイデアを探ることです。

データが悪者によって供給され、アルゴリズムのブラックボックスを解読するのが困難であれば、AI の制御が失われるのは当然の結果であることがわかります。

3. 「獣」を檻に入れる

人工知能は生産性革命の「火口」であり、私たちはそれを否定することはできません。ただし、まず「獣」を檻に入れることが前提です。

3 月 30 日、サム アルトマン氏は Twitter で人工知能による監視の重要性を認め、AGI の将来には 3 つの必需品に備える必要があると考えました。

  • ##スーパーインテリジェンスの技術力を調整
  • ##最も先進的なAGIの取り組み間の適切な調整
  • 民主的なガバナンスを含む効果的な世界的な規制枠組み

多くの国がChatGPTの禁止を計画中だが、獣”の檻はやってくるのか?

Sam Altman の 3 つの AGI 推奨事項

人類の利益を損なうことが業界のコンセンサスとなりつつある一方で、AI が人類に利益をもたらさないようにするために、安全で制御可能で監視された環境を確立します。

これには技術的な改善が加えられました。今年 1 月、OpenAI の元副社長であるダリオ・アモデイ氏は、新しいチャットボットであるクロードがテストされていると発表しました。 ChatGPT で使用されるヒューマン フィードバック強化学習とは異なり、クロードは手動フィードバックではなく好みモデルに基づいてトレーニングします。つまり、害の少ないシステムをトレーニングするための標準化された原則を定式化することで、根本で有害で制御不能な情報の生成を削減します。

アモデイ氏はかつて OpenAI のセキュリティを率いていました。2021 年、彼は大規模言語モデル技術が十分に安全ではなかったときに商業化を始めた OpenAI に不満を感じていました。彼は OpenAI の人々のグループを率いていました。退職して自分のビジネスを始め、Anthropicを設立しました。

アモデイのアプローチは、SF 小説家アシモフが言及したロボットの法則に非常に似ています。ロボットの行動ルールを設定して、ロボットが人間を破壊する可能性を減らすというものです。

人工知能の行動規範を策定するには企業の力だけに頼るだけでは十分ではなく、そうでなければ「審判と選手の両方」の問題に陥ることになります。業界の枠組みと倫理 政府レベルでの法的監督はもはや「遅い」わけにはいかない 技術的なルール、法律、規制を通じて企業の自主的な行動を制限することも、現在の人工知能の開発において重要な課題です。

人工知能に関する法案に関しては、人工知能を特に対象とした法案を可決した国や地域はまだありません。

2021 年 4 月、欧州連合はまだ検討段階にある人工知能法を提案し、2022 年 10 月に米国ホワイトハウスは人工知能権限法の青写真を発表しました。この青写真には法的効力はなく、規制当局に枠組みを提供するだけで、2022年9月に深セン市は「深セン経済特区人工知能産業促進条例」を可決し、国内初の人工知能産業に対する特別規制となった。 2023年、イギリス ChatGPTなどの人工知能のガバナンスに関する5つの原則を概説した「人工知能産業監督白書」が発表された。

4月3日、中国も人工知能に関する規則制定のフォローアップを開始した。科学技術省は「技術倫理審査措置(試行)」についての意見を公募し、その中で次のように提案した。生命科学や医療に従事する者 人工知能や人工知能などの科学技術活動に関わる部門の研究内容が科学技術倫理上デリケートな分野に関わる場合には、科学技術倫理(審査)委員会を設置する必要がある。データとアルゴリズムを含む科学技術活動については、データ処理計画がデータ セキュリティに関する国家規制に準拠しており、データ セキュリティのリスク監視と緊急対応計画が適切であること。アルゴリズムとシステムの研究開発が公開性、公平性、公正性の原則に準拠していること。透明性、信頼性、制御性。

ChatGPT が生成大規模モデルの研究開発の爆発的な成長を引き起こした後、監督当局はそのペースを加速することを目指しています。 EU産業政策局長ティエリー・ブルトン氏は今年2月、欧州委員会は欧州理事会および欧州議会と緊密に連携し、人工知能法における一般的なAIシステムのルールをさらに明確化していると述べた。

企業、学術界、政府を問わず、人工知能のリスクに注目し始めており、ルールを確立しようとする声や行動が現れています。 AI時代を優しく。


以上が多くの国がChatGPTの禁止を計画中だが、'獣”の檻はやってくるのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました Aug 09, 2024 pm 09:37 PM

DALL-E 3は、前モデルより大幅に改良されたモデルとして2023年9月に正式導入されました。これは、複雑な詳細を含む画像を作成できる、これまでで最高の AI 画像ジェネレーターの 1 つと考えられています。ただし、発売当初は対象外でした

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

専用アプリのリリースにより、ChatGPT が macOS で利用可能になりました 専用アプリのリリースにより、ChatGPT が macOS で利用可能になりました Jun 27, 2024 am 10:05 AM

Open AI の ChatGPT Mac アプリケーションは、ここ数か月間 ChatGPT Plus サブスクリプションを持つユーザーのみに限定されていましたが、現在は誰でも利用できるようになりました。最新の Apple S を持っている限り、アプリは他のネイティブ Mac アプリと同じようにインストールされます。

SearchGPT: Open AI が独自の AI 検索エンジンで Google に対抗 SearchGPT: Open AI が独自の AI 検索エンジンで Google に対抗 Jul 30, 2024 am 09:58 AM

オープン AI がついに検索に進出します。サンフランシスコの同社は最近、検索機能を備えた新しい AI ツールを発表した。今年 2 月に The Information によって初めて報告されたこの新しいツールは、まさに SearchGPT と呼ばれ、次のような機能を備えています。

See all articles