[CNMO ニュース] 数カ月にわたるテストを経て、Microsoft は最近、AI コンテンツ レビュー ツール Azure AI Content Safety を正式にリリースしました。この製品は、今年5月にテストを開始したコンテンツモデレーションツールであると報告されており、画像やテキスト内の偏見、憎悪、暴力などに関連するネガティブなコンテンツを検出できる一連の訓練されたAIモデルが含まれており、理解して検出 8 か国語の画像またはテキストが含まれています。
さらに、モデレーション ツールは、フラグが立てられたコンテンツに重大度スコアを割り当て、アクションが必要なコンテンツについて人間のレビュー担当者をガイドします。当初、監査ツールは Azure OpenAI サービスに統合されていましたが、現在はスタンドアロン システムとして展開される予定です
Microsoft の公式ブログ投稿での言及: 「これは、ユーザーがオープンソース モデルや他の企業モデルによって生成された人工知能コンテンツにそれを適用できることを意味します。また、実用性をさらに高めるために一部のユーザー生成コンテンツを呼び出すこともできます。」
Microsoft は、この製品はコンテキストをより公平に理解できるようにデータとコンテンツの処理が改善されているものの、データとコンテンツにフラグを立てるには依然として人間のレビュー担当者に依存する必要があると述べました。それは、究極の正義は人間にあるということも意味します。ただし、人間のレビュー担当者は、個人的な偏見のため、データやコンテンツを扱う際に完全に中立的かつ賢明であるとは限りません。
以上がMicrosoft、AI コンテンツ モデレーション ツール「Azure AI Content Safety」をリリースの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。