中国サイバースペース局(以下、中国サイバースペース局)は4月11日、「生成型人工知能サービスの管理措置(草案)」を起草・公表し、1カ月間の募集を開始した。一般の方からの意見です。
この管理手法(コメント案)は合計 21 条からなり、適用範囲としては、生成型人工知能サービスを提供する主体とユーザーの両方が含まれます。これらのサービスの組織および個人、管理措置には、生成人工知能出力コンテンツの価値指向、サービスプロバイダーのトレーニング原則、プライバシー/知的財産権およびその他の権利の保護などが含まれます。
GPT タイプの自然言語生成大規模モデルと製品の出現により、一般の人々は人工知能の飛躍と限界を体験できるようになっただけでなく、偏った差別的なコンテンツの生成などのセキュリティ リスクも露呈しました。データ漏洩、プライバシー侵害、AI詐欺などの問題。世界的には、さまざまな国で人工知能の規制が徐々に傾向になってきています。
中国では、「生成型人工知能サービス管理措置」が公布されると、国内の生成型AIの大規模モデルと製品プロバイダーは無秩序に「転がる」ことができなくなり、採用者も使用時に問題が発生します。生成的な AI、規範的なサークル。
"本措置は、人民の領域内で公衆にサービスを提供するために生成人工知能製品を開発および利用する者に適用されます。中華民国。
本措置で言及されている「生成型人工知能」という用語は、アルゴリズム、モデル、ルールに基づいてテキスト、画像、音声、ビデオ、コード、その他のコンテンツを生成する技術を指します。」
中国サイバースペース局は4月11日、「生成型人工知能サービス管理の措置(意見募集草案)」(以下、「措置」という)を発表し、「」の適用対象を明確にした。対策」と第 2 条の「生成人工知能」の定義。
この記事の内容から判断すると、バイドゥ、アリババ、テンセント、ファーウェイなど、生成的な大型モデルや製品を保有していると公言している企業は、以下にサービスを提供する場合には「措置」の対象となります。この範囲内で、ユーザーは関連製品およびサービスを使用する際にも本措置の規定を遵守する必要があります。
「措置」では、国家が人工知能アルゴリズムやフレームワークなどの基礎技術の独立したイノベーション、促進と応用、国際協力を支援し、安全で信頼できるソフトウェア、ツール、コンピューティングおよびデータ リソース。
この前提の下、「措置」は、生成されたコンテンツや研究開発の基本原則を含む、生成型人工知能製品またはサービスのプロバイダーに対する「制限領域」を定めます。
コンテンツに関して、「措置」は次のことを要求します: 生成人工知能を使用して生成されたコンテンツは、社会主義の中核的価値観を反映している必要があり、国家権力を転覆し、社会主義制度を転覆し、国の分裂を扇動するコンテンツを含んではなりません国家統一を損なう、またはテロリズム、過激主義、民族憎悪の促進、民族差別、暴力、わいせつなポルノ情報、虚偽の情報、経済的および社会的秩序を混乱させる可能性のあるコンテンツを促進するもの、生成人工知能を使用して生成されたコンテンツは真実かつ正確である必要があります。虚偽の情報の発生を防止するための措置を講じる必要があります。
研究開発の観点から、「措置」は提供者に対し、人種、民族、宗教、国家、地域、性別、年齢、職業などに基づく差別の発生を防止する措置を講じることを義務付けています。
これらの要件から判断すると、「措置」は基本的に、差別的偏見や虚偽情報の生成など、市販の大規模自然言語モデル製品の利用者によって顕在化する安全性や倫理的問題を対象としています。
人間が生成 AI を通じて作成した問題のあるコンテンツが、インターネット上に後を絶ちません。
たとえば、ChatGPT はかつて、「違法な万引きに関するヒント」が含まれていたにもかかわらず、ユーザーが「万引きの方法」について問い合わせる手順を提供していましたが、その「ロールプレイング」機能はかつてユーザーによって DAN に誘導されました ( Do Anyting Now) は、「Do Anyting Now」のアイデンティティで質問に回答し、その回答には「罵倒」が含まれていました。また、ChatGPT を使用して国内に広まったフェイク ニュースをテストし、それが「噂の反論」のコンテンツになった人もいました。
検索エンジンBingに統合されたマイクロソフトのチャットボットが「ユーザーを虐待している」と海外メディアに暴露され、AI写真生成アプリMidjourneyは「ローマ法王がバレンシアガのダウンジャケットを着る」の作成にも利用され、 「馬 存在しないさまざまな地震の歴史や太陽嵐災害などを作成するためにそれを使用した人もいます。
ローマ法王(左)とマスクの偽写真
虚偽の情報とAI生成コンテンツの特定に関して、「措置」ではプロバイダーに以下のことから始めるよう求めている。情報源は「データの信頼性、正確性、客観性、多様性を保証できること」、生成画像、ビデオ、その他のコンテンツは「インターネット情報サービス深層合成管理規定」に従ってラベル付けする必要がある、生成人工知能製品の開発中手動アノテーションが使用される場合、プロバイダーは、これらの措置の要件に準拠する、明確で具体的かつ運用可能なアノテーション ルールを策定し、アノテーターに必要なトレーニングを実施し、サンプルベースでアノテーションが付けられたコンテンツの正確性を検証するものとします。
中国の規制は、生成型人工知能コンテンツに制限区域を設定しており、大規模なモデルや製品を提供する企業に対しても、事前トレーニングやデータの管理をある程度義務付けています。
「対策」では、価値観、社会倫理、法令順守、生成されたコンテンツの差別禁止を重視することに加えて、以下の点も重視しています。生成人工知能関連の事前トレーニングとデータ ソース、個人情報保護、その他の権利と利益に関する要件。
たとえば、「措置」では、生成人工知能製品の事前トレーニング データおよび最適化トレーニング データのソースの合法性についてプロバイダーが責任を負い、知的財産を侵害するコンテンツを含まないことを義務付けています。データに個人情報が含まれる場合は、個人情報主体の同意を得るものとする ユーザーの入力情報および利用記録を保護する義務を負うもの 不正に保存しないものとするもの ユーザーの身元を特定できる入力情報を漏洩しないものとするユーザー入力情報は、違法に保持され、ユーザー入力情報および使用方法に基づいてプロファイリングされてはならず、ユーザー入力情報は他者に提供されてはなりません。
生成 AI によるデータ侵害の問題は確かに存在します。たとえば、ユーザーが何らかの業務ニーズを満たすために会話ロボットを使用する場合、必然的に企業情報をアップロードすることになります。注意しないと、次のような問題が発生する可能性があります。営業秘密の漏洩。以前、韓国の電子機器大手サムスンは、ChatGPT上で「制限命令」を提出した後、従業員によるアプリケーションとのやり取りが原因で内部データが漏洩したと述べた。
「措置」は、生成型人工知能製品およびサービスの提供者を指すだけでなく、製品およびサービスのユーザーに対する原則も規定します。
たとえば、生成されたコンテンツを使用して他者のイメージ、評判、その他の正当な権利や利益を傷つけたり、商業的な誇大広告や不当なマーケティングに関与したりしないでください。
「措置」は上位法令である「中華人民共和国サイバーセキュリティ法」、「中華人民共和国データセキュリティ法」、「中華人民共和国個人情報保護法」に基づいて策定されたものであるため、 「中華人民共和国」およびその他の法律および行政規則に従う場合、これらの法律および規則は、知的財産権の侵害、個人情報の侵害、その他の違法行為を含む本措置の違反に適用されます。
「対策」には合計 21 条があり、そのうち 13 条は「プロバイダー」、つまり、生成人工知能製品を使用してチャットやテキスト、画像、画像などのサービスを提供する組織および個人を明確に対象としています。音の生成。
国民は 3 つのチャネルを通じてフィードバックを提供できます
「措置」が正式に公布されると、大規模な生成モデルを作成する国内企業は、採用当事者は規則に従って行動する必要があります。中国サイバースペース局の公式ウェブサイトによると、一般の人々は3つのチャネルを通じてフィードバックを提供でき、フィードバックの期限は2023年5月10日である。
以上が価値観とプライバシー保護を完全に網羅し、中国サイバースペース局は生成型AIの「ルールを確立」する予定の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。