ホームページ > コンピューターのチュートリアル > トラブルシューティング > オプトアウト:AIの時代の4つのプライバシーの懸念

オプトアウト:AIの時代の4つのプライバシーの懸念

Susan Sarandon
リリース: 2025-02-24 15:03:07
オリジナル
429 人が閲覧しました

The Opt Out: 4 privacy concerns in the age of AI

あなたは単なるデータポイント以上のものです。出口メカニズムは、プライバシーを取り戻すのに役立ちます。

人工知能開発の最新の波私たちの多くは、人生の重要な側面を再考するように強制します。たとえば、デジタルアーティストは、画像生成ウェブサイトから作品を保護することに集中する必要がありますが、教師は一部の学生がエッセイのライティングをChatGptに外注する状況に対処する必要があります。

しかし、人工知能の出現は、このテクノロジーがあなたが人魚のように見えると思うものを理解しなくても、誰もが知っておくべき重要なプライバシーリスクを提示します。

透明性の労働

ブルッキングス機関(ワシントンD.C.に拠点を置く非営利団体は、幅広い国家的および世界的な問題を解決するために研究を行っています)は、AIおよび新興技術イニシアチブの政策ディレクターであるジェシカブラントは次のように述べています。私たちの個人情報、それがどのように使用されているか、どのような目的のために使用しています。」

広く言えば、機械学習(人工知能システムがより正確になるプロセス)には、多くのデータが必要です。システムのデータが多いほど、精度が高くなります。 ChatGptやGoogle's Bardなどの生成的人工知能プラットフォーム、および画像ジェネレーターDall-Eは、Crawlingと呼ばれるテクノロジーを通じてトレーニングデータの一部を取得します。インターネットをスキャンして有用な公開情報を収集します。

しかし、人為的誤りや過失により、機密の会社ファイル、画像、さらにはログインリストなど、開示されるべきではないプライベートデータがインターネットのアクセス可能な部分を入力する場合があります。 Google検索オペレーターの。この情報がrawいされ、AIのトレーニングデータセットに追加されると、削除できる人はほとんどいません。

「人々は自由に共有できるはずです」と、インドのテクノロジー会社Wiproのグローバルチーフプライバシー責任者であり、バージニア工科大学のビジネス写真でサイバーセキュリティとプライバシー執行にアクセスする研究者は述べています最終的には、生成的なAIツールをトレーニングするために使用されます。その画像は、「インターネット上の個人データをrawう」としています

データクローリングは、人工知能システムのトレーニングデータにおける問題の潜在的な原因の1つにすぎません。国際プライバシー専門家協会の上級プライバシーエンジニアリング研究者であるキャサリーナ・コーナーは、もう1つの情報源は個人データの二次使用です。これは、特定の目的のためにいくつかの情報を自発的にあきらめたときに起こりますが、最終的には同意しない他の目的になります。企業は、メールアドレス、配信の詳細、好きな製品の種類など、長年にわたって顧客情報を蓄積してきましたが、過去には、そのデータをあまりできませんでした。今日、洗練されたアルゴリズムと人工知能プラットフォームは、人々の行動パターンについてさらに学ぶことができるように、この情報を処理する簡単な方法を提供します。これは、あなたが本当に気にする広告と情報のみを提供することであなたに利益をもたらすことができますが、それはまた、あなたの郵便番号に基づいて製品の供給を制限し、価格を上げるかもしれません。一部の企業はすでに顧客から多くのデータを提供していることを考えると、企業がそうすることは非常に魅力的です、とコーナーは言いました。

彼女は次のように説明しました。「AIは、将来の意思決定をサポートできる利用可能なデータから貴重なパターンを簡単に抽出できるため、この目的のためにデータが収集されないときに企業が個人データを取得するのは非常に簡単です。機械学習のため。」

開発者が大規模なトレーニングデータセットから個人情報を選択的に削除するのに役立ちません。もちろん、特定の情報を簡単に削除することができます(生年月日や社会保障番号など(一般的なAIプラットフォームに個人情報を提供しないでください)。しかし、たとえば、欧州の一般的なデータ保護規制に準拠する完全な削除要求を実装することは別の問題であり、おそらく対処すべき最も複雑な課題です、とバルトレッティは言いました。

[関連:学校の機器が家族からデータを共有するのを止める方法] 選択的なコンテンツの削除は、その複雑なマイクロサービス構造のため、従来のITシステムでも困難です(各部品は別のユニットとして機能します)。しかし、コーナーは、人工知能の文脈では、これはさらに困難であり、現時点では不可能でさえあると言いました。

それは、「Ctrl F」をクリックして誰かの名前ですべてのデータを削除するだけでなく、データを削除するだけでなく、モデル全体をゼロから再編成する高価なプログラムが必要だからです。

出口メカニズムはますます困難になります

栄養価の高いAIシステムは、ユーザーの行動を理解するのに役立つパターン認識を含む、信じられないほどの量の分析を提供できます。しかし、それはテクノロジーの利点のためだけではありません。それは、人々が予測可能な方法で行動する傾向があるためです。人間性のこの特定の側面により、AIシステムはあなたに関する多くの具体的な情報を知ることなく適切に動作することができます。あなたのような人を知るのに十分なとき、あなたを知っていることのポイントは何ですか?

ワシントンD.C.の人工知能監査とリスクに焦点を当てた法律事務所であるBNH.AIのパートナーであるBrenda Leongは、次のように述べています。簡単に入手できる人に関するデータは、すぐに予測システムに吸収されます。

これは私たちに自由をほとんど残しません。なぜなら、何年もの間彼らのプライバシーを保護するために働いていた人でさえ、彼らのために決定と勧告をするからです。これにより、彼らはすべての努力が無駄になっていると感じるかもしれません。

liangは続けました:「これが私にとって有益な方法であっても、私の収入レベルに合ったローンや私が本当に興味を持っている機会を与えるなど、どんな方法でも制御できないことにもなりました。状況下で私のために。 "

ビッグデータを使用して、外れ値と例外については、ニュアンスなしで人口全体を分類します。私たちは皆、人生がこれらに満ちていることを知っています。悪魔は詳細にありますが、特別な状況に一般化された結論を適用することも、物事は本当に悪くなる可能性があります。

データの武器

もう1つの重要な課題は、特にAIモデルの結論が間違った、時代遅れ、または不完全なデータに基づいている場合がある場合、アルゴリズムの意思決定に公平性を植え付ける方法です。人工知能システムが、コミュニティ全体にひどい結果をもたらす人間のクリエイターの偏見を永続させる可能性があることはよく知られています。

アルゴリズムに依存して、ポジションを埋めるか、ドライバーのリスクプロファイルを決定するのに役立つ企業が多いため、私たちのデータは私たち自身の利益に対して使用される可能性が高くなります。いつの日か、これらのシステムが行った自動化された決定、提案、または予測により、ほとんどまたはまったく利用できない場合があります。

[関連:自律的な武器は、戦争で深刻な間違いを犯す可能性があります]

これは、これらの予測またはラベルが、真と偽を区別できない人工知能アルゴリズムの目で事実になる場合にも問題です。最新の人工知能の場合、個人データ、パブリックデータ、事実データ、または完全に架空のデータであろうと、すべてがデータです。

統合が多いということは、セキュリティが少ないことを意味します

インターネットの存在が最も弱いパスワードと同じくらい強力であるように、他のプラットフォームとの大規模なAIツールを統合すると、プライベートデータにアクセスしようとする際に攻撃者がより多くのpr索好きなポイントを提供します。それらのいくつかが安全の面で基準を満たしていないことがわかったとしても驚かないでください。

これは、あなたの知識なしにあなたのデータを収集するすべての企業および政府機関を考慮していません。自宅の近くの監視カメラについて考えて、コンサートの会場で顔認識ソフトウェア、地元の公園の周りを走っているgoproを着ている子供たち、さらにはティクトクで人気を博している人々を追跡してください。

データを処理する人やプラットフォームが多いほど、エラーの可能性が高くなります。エラーのためのより大きなスペースは、あなたの情報がインターネットに漏れている可能性が高いことを意味し、そこではAIモデルのトレーニングデータセットに簡単にrawいされます。上記のように、これは元に戻すのが非常に困難です。

何ができる

悪いニュースは、現時点でそれについてできることは何もないということです。また、情報を含むAIトレーニングデータセットから派生した潜在的なセキュリティの脅威を解決することはできません。あなたがあなたの理想的な仕事を得るのを防ぎます。現在、私たちの最善のアプローチは、監督を要求することです。

EUは、人工知能法の最初の草案を可決しました。これにより、企業や政府が許容可能なレベルのリスクに基づいて技術を使用する方法を規制します。一方、米国大統領のジョー・バイデンは、大統領命令を通じて倫理的および公正なAIテクノロジーの開発に資金を提供していますが、議会はAIプラットフォームの観点から米国市民のプライバシーを保護するための法律を可決していません。上院は、この技術について学ぶために聴聞会を開催していますが、連邦法案の作成に近いものではありません。

政府の仕事の過程で、人工知能プラットフォームなどのプライバシー規制を提唱し、ユーザーをデータの誤加工から保護することができます。 AIの開発についてあなたの周りの人々と意味のある会話をしてください。連邦政府のプライバシー規制に関する代表者の立場を理解し、あなたの興味を最も気にする人に投票してください。

続きを読むpopsciストーリーを読んでください。

以上がオプトアウト:AIの時代の4つのプライバシーの懸念の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート