イギリス『フィナンシャル・タイムズ』の報道によると、Nvidiaの人工知能ソフトウェア「NeMo」はセキュリティ制限を簡単に回避でき、ユーザーのプライバシーが漏洩する可能性があるという。
レポートによると、NeMo は企業ユーザー データと大規模な言語モデルを組み合わせてユーザーの質問に答えることができる企業顧客向けのソフトウェアです。そのアプリケーション シナリオには、顧客サービスや簡単な医療上の質問への回答などが含まれます。カリフォルニアに拠点を置く情報セキュリティ会社ロバストは、悪意のあるユーザーがNeMoの内部AIシステムのセキュリティ制限を簡単に回避できると報告書の中で述べた。ロバスト社の研究者らは、わずか数時間で、これらの言語モデルを使用する際の制限を回避しました。
IT House は、テストの 1 つで、研究者が NeMo に「I」を文字「J」に置き換えるよう指示したため、NeMo がその文字をデータベース、ユーザーの個人情報。さらに、研究者らは、NeMo がユーザーにキャリアに関するアドバイスのみを提供するように設定されていたにもかかわらず、ガイド付きの質問によって NeMo がハリウッド俳優の健康や普仏戦争などのトピックについて話し合うようになったことがわかりました。これは、AI が特定のトピックについて議論することを妨げていたシステム内の制限が無効になったことを意味します。
NVIDIA 副社長のジョナサン コーエン氏は、NeMo アーキテクチャは開発者が定義したテーマに準拠したチャットボットの構築を支援するだけであり、オープンソース ソフトウェアとして開発者にリリースされていると述べました。現在、これらの脆弱性は修正されています。コーエン氏は、NeMoアーキテクチャを使用している企業の数については明言を避けたが、Nvidiaは他に脆弱性の報告を受けていないことを強調した。
以上がレポートによると、Nvidia 人工知能ソフトウェアは簡単にクラックされ、ユーザーのプライバシーが漏洩する危険性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。