AI は、パブリック AI、プライベート AI、または個人 AI に分類できます。これらのカテゴリに基づいて AI システムをトレーニングおよび設計すると、規制上の制限、データ プライバシー、セキュリティに関する問題の解決に役立ちます。
この分類は、AI の目的、誰が AI を操作するか、AI がデータをどのように処理するか、公共、個人、組織の利益を守るためにどのような制限が課せられるかを理解するのにも役立ちます。
パブリック AI、プライベート AI、パーソナル AI の違いを理解するために、目的、パフォーマンス、データ処理、プライバシーに基づいて比較してみましょう。
パブリック AI とは、ユーザー データや、Wikimedia や ResNet などのさまざまなオープンソース プラットフォームでトレーニングされた AI を指します。これらの種類の AI は、人々が仕事、学校、個人的なプロジェクトで毎日使用している、最も人気があり、広くアクセス可能な AI 形式の 1 つです。
パブリック AI は、インターネット上の誰でもオープンにアクセスできる AI サービス、プログラム、またはアルゴリズムです。パブリック AI は通常、世界中の人々にサービスを提供する汎用アプリケーションであり、通常は達成するのに多くの工数を必要とする問題やタスクに対して効果的な AI ソリューションを提供します。あなたがよく知っている最も人気のあるパブリック AI には、検索エンジン、ソーシャル メディア アルゴリズム、言語翻訳者、最新のテキスト読み上げエンジンなどがあります。
前述したように、パブリック AI はインターネット上の誰でもオープンにアクセスできます。公開されている AI のほとんどは、検索エンジン、ソーシャル メディア プラットフォーム、拡張機能にすでに統合されており、使用するために特別なサインアップや支払いを必要としません。 Llama、ResNet、BERT などの多くの公開 AI モデルもオンラインで無料で入手でき、誰でも使用して微調整して独自のモデルを作成できます。
パブリック AI システムは、多数のユーザーを同時に処理できるように作られています。ユーザー数 (場合によっては数百万の範囲) のため、パブリック AI はできるだけ多くのユーザーをサポートするのに十分なパフォーマンスを発揮するように設定されています。国家と国民の利益を守るために、公共の AI にも一定の規制が課されます。典型的な規制には、ユーザーによる特定の種類の情報の提供を拒否したり、AI の動作や機能を制限したりすることが含まれます。
公共 AI に関する最大の懸念の 1 つは、データとプライバシーの処理方法です。これらのシステムは、AI アルゴリズムとサービスを改善および運用するために大量のユーザー データを収集します。ただし、サービスを所有および運営する組織によってデータが悪用される可能性があるため、これは非常に懸念される可能性があります。公共 AI の運用方法の性質上、ユーザーのデータとプライバシーを保護するための法律や規制は限られています。
企業がプライベート AI を必要とする理由は、ChatGPT のようなパブリック AI が組織にプライバシーとセキュリティの問題を引き起こすためです。プライベート AI とは、企業秘密やその他の知的財産のセキュリティを損なうことなく、組織のニーズに応えるためにトレーニングおよび微調整された AI モデルを指します。多くのプライベート AI は、組織の特定のニーズに合わせて AI モデルを調整するために、プライベート データを使用して公開されている LLM から微調整されています。
プライベート AI の目的は、組織専用に AI システムを構築することです。これは、社内のビジネス上の問題を解決し、社内の効率と全体的な生産性を向上させるために使用されます。プライベート AI は、顧客関係管理 (CRM)、サプライ チェーンの最適化、不正行為の検出などのさまざまな内部システムでよく使用されます。
パブリック AI とは異なり、プライベート AI は一般公開されていません。一般に、機密データとプロセスが確実に保護されるよう、プライベート AI へのアクセスは許可された担当者のみに制限されます。企業は内部の生産性のためにプライベート AI を使用していますが、顧客が自社のサービスにアクセスするために別のパーソナル AI も利用していることに注意することが重要です。
プライベート AI は、組織の特定のニーズに合わせてトレーニングされ、合理化されています。これにより、企業は事前トレーニングされた LLM またはそのモデルを微調整して、特定のタスクに対して最適なパフォーマンスを達成できるようになります。これにより、コストを節約しながら AI を良好なパフォーマンスで実行するために必要なコンピューティング能力が低下します。一般人がアクセスできないため、民間 AI には規制が少なく、制約のない AI モデルやアルゴリズムを使用して AI の能力を高めることができます。
データ処理とプライバシーは、企業がプライベート AI を必要とする最大の理由です。プライベート AI を使用すると、組織はデータを管理および保護し、データ侵害や不正アクセスのリスクを最小限に抑えることができます。プライベート AI の微調整に使用されるデータは、雇用されたエンジニア、データ サイエンティスト、ソフトウェア開発者のチームによって厳選され、モデルの設計とトレーニングが行われます。これにより、公開されているデータが AI にバイアスを与えることが保証されます。
パーソナル AI は、人々の日常生活を支援するために作られた AI アルゴリズムを指します。通常、スマートフォン、タブレット、スマート スピーカー、ウェアラブルなどの個人用デバイスを介してアクセスできます。パーソナル AI の例には、Alexa、Bixby、Google アシスタント、Siri などの仮想アシスタントが含まれます。
パーソナル AI は、特定のサービスを使用するためにテクノロジーと対話する際のユーザー エクスペリエンスを向上させるように設計されています。パーソナル AI アルゴリズムは、ユーザーの好みに合わせてカスタマイズされたエクスペリエンスを提供し、顧客が特定のサービスを使いやすくします。
パブリック AI ほど拡張性はありませんが、パーソナライズされた AI は、個々のユーザーのリクエストを理解し、応答する点で優れています。また、パーソナライズされた AI は、結果を提供する前にユーザーとのデータの関連性を考慮する必要があるため、パブリック AI よりも徐々に遅くなる可能性があります。とはいえ、パーソナル AI は、ユーザーにとってより適切で関連性の高い出力を提供するため、プライベート AI よりも優れた機能を備えています。もちろん、パフォーマンスは、どのパーソナル AI サービスを好むか、AI を作成した企業がどのように運用しているかによっても異なります。
プライバシーとデータの取り扱いは、パーソナル AI に関する最大の懸念事項の 1 つです。パーソナル AI がサービスでどのように利用されるかにより、ユーザーがサービス利用規約に同意した後に企業が個人ユーザー データを収集することが法律で許可されています。これにより、ユーザーデータのプライバシーとセキュリティを保護する責任が生じます。ただし、データの機密性により、データ侵害が発生するとユーザーのプライバシーとセキュリティが損なわれる可能性があります。
AI をパブリック AI、プライベート AI、パーソナル AI に分類することで、最適なパフォーマンス、アクセシビリティ、データ セキュリティ、ユーザー プライバシーを維持しながら、特定のタスクの解決に AI を適用できるようになります。簡単に比較できる表は次のとおりです:
アスペクト |
パブリック AI |
プライベート AI |
パーソナル AI |
---|---|---|---|
目的 |
広範な汎用 |
広範な汎用 |
個々のユーザーのニーズ |
アクセシビリティ |
一般公開 |
アクセス制限あり、従業員のみ |
お客様へ |
パフォーマンス |
スケーラブル、多数のユーザーを同時にサポート、最適化 |
カスタマイズされ、特定の運用タスクに最適化され、高速 |
パーソナライズされ、最適化 |
データ処理とプライバシー |
データプライバシーが低く、企業は法律に従ってデータを使用できます |
データセキュリティが高く、企業が独自のデータを処理します |
中レベルのプライバシー、ユーザーは会社の利用規約に同意します |
パブリック AI、プライベート AI、パーソナル AI の違いを理解することは、これらのカテゴリーが私たちの日常生活における AI の使用方法を表すものであるため重要です。また、個人や組織のプライバシーとセキュリティを確保するための特定の法律や規制を制定するのにも役立ちます。これらの区別がなければ、そのような規制を課すことは難しくなり、その結果、企業がユーザーデータを悪用したり、企業秘密を漏洩したり、AI の民主化が消滅したりする可能性があります。
以上がパブリック AI 対プライベート AI 対パーソナル AI: 違いは何ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。