5 月 7 日のニュース、過去 1 週間で、OpenAI はイタリアの規制当局の懐柔に成功し、チャットボット ChatGPT の一時禁止を解除するよう促しましたが、人工知能企業である調査会社間の争いそして欧州の規制当局による取り組みはまだ終わっておらず、さらなる課題が始まったばかりだ。
OpenAI の人気があるが物議を醸しているチャットボット ChatGPT は、今年初めにイタリアで大きな法的ハードルにぶつかり、イタリアデータ保護局 (GPDP) が OpenAI が EU データ保護規則に違反していると非難しました。この問題を解決するために、同社はイタリアでのサービスの使用を制限することに同意した。
4 月 28 日、ChatGPT がイタリアで再起動され、OpenAI はサービスに大きな変更を加えることなく、イタリアのデータ保護局の懸念に簡単に対処しました。これは OpenAI にとって明らかな勝利です。
イタリアのデータ保護当局はChatGPTによる変更を「歓迎」しているが、OpenAIやチャットボットを開発する他の企業が直面する法的課題はまだ始まったばかりかもしれない。いくつかの国の規制当局は、これらの人工知能ツールがデータを収集して情報を生成する方法を調査しており、その理由としては、未承認のトレーニングデータの収集からチャットボットが誤ったメッセージを送信する傾向までさまざまであることが挙げられています。
欧州連合は、世界最強のプライバシー法的枠組みの 1 つである一般データ保護規則 (GDPR) の施行を開始しましたが、その影響は欧州をはるかに超えて及ぶ可能性があります。同時に、EUの議員らは特に人工知能を対象とした法律の制定に取り組んでおり、ChatGPTなどのシステム規制の新たな時代の到来をもたらす可能性もある。
ChatGPT は大きな注目の対象となっています
ChatGPT は、生成人工知能 (AIGC) で最も注目されているアプリケーションの 1 つであり、テキストおよび画像ベースの生成をカバーします。ユーザープロンプト、ビデオ、オーディオ、その他のツールで。レポートによると、2022 年 11 月のリリースからわずか 2 か月で、ChatGPT は月間アクティブ ユーザー数 1 億人に達し、史上最も急速に成長しているコンシューマー アプリケーションの 1 つになりました。
ChatGPT を使用すると、テキストをさまざまな言語に翻訳したり、大学の論文を書いたり、コードを生成したりすることができます。しかし、規制当局を含む一部の批評家は、ChatGPTが出力する信頼性の低い情報、著作権の問題、データ保護の欠陥を指摘している。
イタリアは、ChatGPT に対して行動を起こした最初の国です。 3月31日、イタリアのデータ保護当局は、ChatGPTによる不正確または誤解を招く情報の提供を許可し、データ収集慣行についてユーザーに通知せず、個人データ処理に関する規制を遵守せず、一般データ保護規則に違反したとしてOpenAIを非難した。 13 歳未満の子供によるサービスの利用を適切に防止します。イタリアのデータ保護当局は、ChatGPTのトレーニングデータでイタリア国民から収集した個人情報の使用を即時停止するようOpenAIに命令した。
現時点では、他の国々は同様の大きな行動をとっていません。しかし3月以降、少なくともEUの3か国(ドイツ、フランス、スペイン)がChatGPTに対する独自の調査を開始した。一方、大西洋を越えたカナダでは、個人情報保護および電子文書法 (PIPEDA) に基づいて ChatGPT のプライバシーに関する懸念を評価しています。欧州データ保護委員会(EDPB)は、調査を調整するための専用の作業グループを設置したこともある。これらの機関が OpenAI に変更を要求した場合、同社が世界中のユーザーにサービスを提供する方法に影響を与える可能性があります。
規制当局には 2 つの大きな懸念がある
ChatGPT に関する規制当局の最大の懸念は、主に 2 つのカテゴリに分けられます。トレーニング データはどこから来たのか? OpenAI はどのようにしてユーザーに情報を提供するのでしょうか?
ChatGPT をサポートするには、OpenAI では、人間が生成した大量のテキストでトレーニングされた GPT-3.5 および GPT-4 大規模言語モデル (LLM) を使用する必要があります。 OpenAIは、どのトレーニングテキストを使用するかについては慎重な姿勢を崩さないが、「公的に入手可能な個人情報が含まれる可能性がある、認可された公的に入手可能なさまざまなデータソース」を利用していると述べている。
これは、一般データ保護規則に基づいて大きな問題を引き起こす可能性があります。 2018 年に制定されたこの法律は、サービスを提供する組織の拠点がどこであるかに関係なく、EU 国民のデータを収集または処理するすべてのサービスを対象としています。一般データ保護規則では、企業に対し、個人データを収集する前にユーザーから明示的な同意を得ること、データを収集する法的正当な理由があること、データの使用方法と保存方法について透明性があることを求めています。
ヨーロッパの規制当局は、OpenAI のトレーニング データの機密性は、OpenAI が使用する個人情報が元々ユーザーの同意を得ていたかどうかを確認できないことを意味すると主張しています。イタリアのデータ保護当局は、OpenAIにはそもそも情報を収集する「法的根拠」がないと主張した。これまでのところ、OpenAI やその他の企業はほとんど監視を受けていません。
もう 1 つの問題は、一般データ保護規則の「忘れられる権利」です。これにより、ユーザーは企業に対して自分の個人情報の修正または完全な削除を要求できます。 OpenAI は、これらのリクエストへの対応を容易にするために、プライバシー ポリシーを事前に更新しました。しかし、特定のデータがこれらの大規模な言語モデルに入力されると分離がどれほど複雑になるかを考えると、それが技術的に実現可能かどうかは常に議論の余地があります。
OpenAI はユーザーから直接情報も収集します。他のインターネット プラットフォームと同様に、名前、連絡先、クレジット カードの詳細など、標準的な範囲のユーザー データを収集します。しかし、より重要なのは、OpenAI が ChatGPT とのユーザーの対話を記録することです。公式 Web サイトに記載されているように、OpenAI の従業員はこのデータを表示し、モデルのトレーニングに使用できます。ボットをセラピストや医師とみなすなど、人々が ChatGPT に寄せた個人的な質問を考慮すると、これは同社があらゆる種類の機密データを収集していることを意味します。
このデータには未成年者に関する情報が含まれる場合があります。 OpenAI のポリシーには「13 歳未満の子供から故意に個人情報を収集しない」と記載されていますが、厳格な年齢確認の基準はありません。これは、13 歳未満の未成年者からのデータ収集を禁止し、一部の国では 16 歳未満の未成年者からの情報収集に親の同意を必要とする EU の規制と矛盾します。出力面では、イタリアのデータ保護当局は、ChatGPTには年齢フィルターがないため、未成年者が「発達や自己認識のレベルの点でまったく不適切な回答を受け取ることになる」と主張した。
OpenAI はこのデータの使用に関して幅広い裁量権を持っていますが、これは多くの規制当局を懸念させており、データを保存するとセキュリティ上のリスクが生じます。サムスンやJPモルガン・チェースなどの企業は、機密データをアップロードする恐れがあるとして従業員にAIGCツールの使用を禁止した。実際、イタリアが禁止令を出す前に、ChatGPT は深刻なデータ漏洩に見舞われ、その結果、多数のユーザーのチャット履歴や電子メール アドレスが流出しました。
さらに、ChatGPT が誤った情報を提供する傾向があることも問題を引き起こす可能性があります。一般データ保護規則では、すべての個人データが正確でなければならないと規定しており、イタリアのデータ保護当局はその発表の中でこの点を強調しています。これは、ほとんどの AI テキスト ジェネレーターで問題を引き起こす可能性があります。これらのツールは「幻覚」、つまりクエリに対して事実に誤りまたは無関係な応答を返す傾向があるためです。これは、ChatGPTが贈収賄で投獄されたと虚偽の主張をした後、オーストラリアの市長がOpenAIを名誉毀損で訴えると脅迫したときなど、他の場所でも現実世界の問題を引き起こしている。
特別な規制ルールが導入されようとしています
ChatGPT は、その人気と人工知能市場における支配力により、規制の対象となりやすいです。しかし、Google の Bard や Microsoft の OpenAI を利用した Azure AI などの競合他社やパートナーと同様に、精査されない理由はありません。 ChatGPT以前、イタリアはチャットボットプラットフォームReplikaによる未成年者に関する情報の収集を禁止していた。現時点では、プラットフォームは引き続き禁止されています。
一般データ保護規則は強力な法律セットですが、人工知能に特有の問題を解決するために作成されたものではありません。ただし、専用の規制規則が今後策定される可能性があります。 2021 年に欧州連合は、一般データ保護規則とともに施行される人工知能法 (AIA) の初版の草案を提出しました。 AI法は、「最小限のリスク」(スパムフィルターなど)から「高リスク」(法執行機関や教育に使用されるAIツール)、そして「使用不可能」までのリスクのレベルに基づいてAIツールを規制することになる。 (社会信用システムなど)。
ChatGPT のような大規模な言語モデルが急増した後、議員らは現在、「基本モデル」と「汎用人工知能システム」(GPAI) のルールを追加するために急いでいます。どちらの用語も、LLM を含む大規模 AI システムを指し、「高リスク」サービスに分類される可能性があります。
人工知能法の規定はデータ保護にとどまりません。最近提案された修正案では、AIGCツールの開発に使用される著作権で保護された素材を企業に開示することが義務付けられる。これにより、かつて機密だったデータセットが暴露され、さらに多くの企業が侵害訴訟の対象となる可能性があり、すでに一部のサービスに影響が出ている。
AIに特化した法律は2024年末までに可決される可能性がある
現時点では、この法案の施行には時間がかかる可能性があります。 EU議員らは4月27日に暫定人工知能法案で合意に達したが、5月11日には委員会での草案採決が必要で、最終案は6月中旬に公表される予定だ。その後、欧州理事会、EU議会、欧州委員会は、法律を施行する前に残りの紛争を解決する必要がある。すべてが順調に行けば、2024年後半に可決される可能性がある。
今のところ、イタリアとOpenAIの間の争いは、規制当局とAI企業がどのように交渉するかについて初めて知ることができる。イタリアのデータ保護当局は、OpenAIが4月30日までに提案されたいくつかの決議案を満たせば、禁止を解除すると発表した。
この決議には、ChatGPT がデータを保存および使用する方法をユーザーに通知すること、そのようなデータを使用する際のユーザーの明示的な同意を求めること、ChatGPT によって生成された虚偽の個人情報の修正または削除を容易にすること、イタリアのユーザーに事前に登録を義務付けることが含まれます。アカウントを登録する際は、18 歳以上であることを確認してください。 OpenAI はこれらの規制には達していませんでしたが、イタリアの規制当局の要求を満たし、イタリアでのアクセスを回復しました。
OpenAI は、9 月 30 日までにより厳格な年齢基準を設定すること、13 歳未満の未成年者を除外すること、それ以上の未成年者には親の同意を得る必要があることなど、他の条件を満たす必要があります。それが失敗した場合、OpenAI は再び禁止される可能性があります。しかし、OpenAIは、少なくとも新しい法律が導入されるまでは、欧州がAI企業の行動を許容できると考えるという前例を示したようだ。 (シャオシャオ)
以上がイタリアではオンラインに戻ったが、OpenAIの規制問題は始まったばかりだの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。