文書によると、先進7カ国(G7)先進国は月曜日、高度な人工知能(AI)システムを開発する企業向けの行動規範を策定することで合意する予定だという。政府は現在、人工知能技術の悪用のリスクを軽減するために取り組んでいます
この文書は、人工知能がもたらす可能性のあるプライバシーとセキュリティのリスクを考慮して、自主的な行動規範が主要国にとって重要なステップになると指摘しています。人工知能を管理するマイルストーン。
今年5月、G7諸国(カナダ、フランス、ドイツ、イタリア、日本、英国、米国を含む)と欧州連合の首脳は「広島人工会議」と呼ばれる閣僚フォーラムで会談した。 Intelligence Process」と共同でこのプロジェクトを立ち上げました
行動規範に記載されているポイントは全部で11項目あります。これらのガイドラインの目標は、安全で信頼性の高い AI を世界的に推進すると同時に、最先端の基礎モデルや生成 AI システムなど、最先端の AI システムを開発する組織に自主的なガイダンスを提供することです。
さらに、この規範は、これらのテクノロジーの利点を活用し、それらがもたらすリスクと課題に対処するのに役立ちます。企業に対し、AI ライフサイクル全体を通じてリスクを特定、評価、軽減するための適切な措置を講じ、AI 製品が市場に投入されたらインシデントや悪用パターンに対処するよう求めています 企業は AI システムの機能に関する情報を公開する必要があります、制限事項、使用および悪用の報告、および強力なセキュリティ管理への投資。 欧州連合は厳格な人工知能法案によって新興テクノロジーの規制を先導しているが、日本、米国、東南アジア諸国は経済成長促進のためにEUよりも介入の少ないアプローチをとっている。 今月初めに日本の京都で開催されたインターネットガバナンスフォーラムで講演した欧州委員会デジタル担当責任者のベラ・ジュロバ氏は、行動規範はセキュリティを確保するための強固な基盤であると述べた。規制が施行されるまでの橋渡し役として機能します以上がG7は、企業が高度なAIシステムを開発するための行動規範を策定するという合意に達した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。