AI 設計がデータ プライバシーを優先する必要がある理由

WBOY
リリース: 2023-04-12 21:13:12
転載
1695 人が閲覧しました
  • 人工知能はヘルスケア、テクノロジー、その他の分野の発展に不可欠ですが、データプライバシーがどのように規制されるかについて懸念があります。
  • データプライバシーは、テクノロジーの進歩に対する社会の信頼を得るために不可欠です。

データ プライバシーは、消費者データに基づく人工知能 (AI) モデルに関連付けられることがよくあります。ユーザーが、機密情報を含む可能性のあるデータを取得して使用する自動化テクノロジーに対して警戒するのは当然です。 AI

モデルは重要な結果を生み出すためにデータの品質に依存しているため、その存続は、設計の不可欠な部分であるプライバシー保護にかかっています。

優れたプライバシーとデータ管理の実践は、顧客の恐怖や懸念を和らげるための単なる手段ではなく、企業の中核となる組織的価値観、ビジネス プロセス、セキュリティ管理と大きく関係しています。プライバシー問題は広く調査され、公表されており、プライバシー認識調査データは、消費者にとってプライバシー保護が重要な問題であることを示しています。

これらの問題に状況に応じて対処することが重要であり、消費者向け AI を使用する企業にとって、AI に一般的に関連付けられるプライバシーの懸念に対処するのに役立つ方法やテクニックがいくつかあります。

一部の製品やサービスにはデータが必要ですが、誰かのプライバシーを侵害する必要はありません

人工知能を使用する企業は、すでにプライバシーに関する世間の疑問に直面しています。欧州消費者機関による 2020 年の調査によると、欧州人の 45 ~ 60% が AI によって個人データの悪用がさらに増えることに同意しています。

AI

アルゴリズムを学習および改善するために大規模なデータ セットに依存する人気のオンライン サービスや製品が多数あります。これらのデータセット内のデータの一部は、プライバシーをあまり意識しないユーザーにとってもプライベートであるとみなされる可能性があります。 Web、ソーシャル メディア ページ、携帯電話、その他のデバイスからのデータ ストリームにより、企業が機械学習システムのトレーニングに使用する情報量が増加します。一部の企業による個人データの過剰使用と誤った管理により、プライバシー保護は世界中で公共政策の問題になりつつあります。

私たちが収集する機密データのほとんどは、AI 対応プロセスを改善するために使用されます。これらのデータセットに基づいてリアルタイムで意思決定を行うには複雑なアルゴリズムが必要となるため、分析されるデータの多くは機械学習の導入によっても推進されます。検索アルゴリズム、音声アシスタント、レコメンデーション エンジンは、現実世界のユーザー データの大規模なデータセットに基づく

AI を活用するソリューションのほんの一部です。

大規模なデータベースには広範囲のデータが含まれる可能性があり、最も差し迫った問題の 1 つは、このデータが個人を特定でき、機密性の高いデータである可能性があることです。実際、アルゴリズムに意思決定を教えることは、データが誰に関連しているかを知ることに依存しません。したがって、このような製品を開発する企業は、ソースデータ内のユーザーを識別する方法がほとんどないデータセットを民営化し、リバースエンジニアリングや識別を回避するためにアルゴリズムからエッジケースを削除する手段の開発に重点を置く必要があります。

データプライバシーと人工知能の関係は非常にデリケートです。一部のアルゴリズムでは必然的にプライベート データが必要になる場合がありますが、より安全で非侵入的な方法でそれを使用する方法があります。以下の方法は、プライベート データを扱う企業がソリューションの一部となる方法のほんの一部です。

プライバシーを考慮した AI 設計

リバース エンジニアリングの問題について説明しました。リバース エンジニアリングでは、悪意のある者が AI

モデルの脆弱性を発見し、モデルの出力から抽出します。潜在的に重要な情報。リバース エンジニアリングは、この課題に直面してデータベースと学習データを変更および改善することが AI の利用にとって重要である理由です。

たとえば、機械学習プロセス (敵対的学習) で矛盾するデータセットを組み合わせるのは、AI

アルゴリズムの出力における欠陥やバイアスを区別するための良いオプションです。実際の個人データを使用しない合成データセットを使用するオプションもありますが、その有効性については依然として疑問があります。

ヘルスケアは、特に機密の個人データを扱う場合における人工知能とデータ プライバシー ガバナンスの先駆者です。また、医療処置やデータの処理など、同意に関して多くの作業を行っています。リスクは高く、法律によって強制されています。

AI 製品とアルゴリズムの全体的な設計では、ユーザー データを使用して AI モデルをトレーニングする企業にとって、匿名化と集約を通じてデータをユーザーから切り離すことが重要です。

AI 企業のプライバシー保護を強化するには、多くの考慮事項があります:

  • プライバシーを中心に据える: プライバシー保護を開発者の注目に集め、セキュリティを効果的に強化する方法を見つけてください。
  • データセットを匿名化して集約し、すべての個人識別子と一意のデータポイントを削除します。
  • 社内の誰が特定のデータセットにアクセスできるかを厳密に管理し、このデータがどのようにアクセスされるかを継続的に監査します。これが過去のデータ侵害の原因となっているためです。
  • データを増やすことが常に最善の解決策であるとは限りません。最小限のデータでアルゴリズムをテストし、ユースケースを実現するために収集および処理する必要がある最小限のデータ量を理解します。
  • ユーザーの要求に応じて個人データを削除するための簡素化された方法を提供する必要があります。ユーザーデータを擬似的に匿名化するだけの企業は、最新のデータを使用してモデルを継続的に再トレーニングする必要があります。
  • アルゴリズムのトレーニング、監査、品質保証などに、完全に匿名化された不可逆的な識別子を備えた集約データセットや合成データセットなどの強力な匿名化戦略を活用します。
  • 重要な情報を第三者から取得および使用する方法を再考することで、ユーザーの自主性とプライバシーを保護します。データ ソースを精査し、ユーザーの明示的かつ十分な情報に基づく同意を得てデータを収集したもののみを使用します。
  • リスクを考慮してください: 攻撃により、AI システムの出力からユーザーのプライバシーが侵害される可能性がありますか?

データ プライバシーと人工知能の将来は何ですか?

人工知能システムには大量のデータが必要であり、一部のトップオンラインサービスや製品は、AI アルゴリズムのトレーニングに使用される個人データなしでは機能しません。ただし、アルゴリズム自体やデータ管理全体を含め、データの取得、管理、使用を改善する方法は数多くあります。プライバシーを尊重する AI には、プライバシーを尊重する企業が必要です。

この記事の著者: Einaras von Gravrock、CUJO AI の CEO 兼創設者

以上がAI 設計がデータ プライバシーを優先する必要がある理由の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート