Googleのシステムはロボットによる人への危害を確実に防止するために「ロボットの3原則」を導入

WBOY
リリース: 2024-01-09 15:10:19
転載
593 人が閲覧しました

Googleのシステムはロボットによる人への危害を確実に防止するために「ロボットの3原則」を導入

1月5日のニュースによると、有名なSF作家アイザック・アシモフが「ロボット工学の三原則」を提唱したそうです。現在、Googleはこれらの基本原則を利用して、同社の最新の機械システムが人間に危害を及ぼす可能性を防ぐための「ロボット憲章」を作成している。

Google は、部屋の片付けやおいしい食事の調理など、簡単な指示に基づいて複雑なタスクを完了できるロボットの開発に重点を置いています。この目的を達成するために、Google の DeepMind チームは対応するセキュリティ ルールを策定しました。

ロボットは人間の日常業務を遂行する上で大きな課題に直面しており、さまざまな環境で物体やツールを認識し、その使い方を学習する必要があります。新しくリリースされたブログ投稿で、DeepMind チームは、「基本」計算モデルと呼ばれる方法を使用して、マシン ビジョンが物体を認識し、テーブルの観察やスポンジで拭き掃除などの単純なタスクを実行できるようにする方法を詳しく説明しました。この研究は、日常生活におけるロボット応用のさらなる開発を促進するのに役立ちます。

マシンの安全な動作を保証するために、Google は AutoRT システムを開発しました。このシステムは、20 台以上のロボットを同時に調整して、さまざまなオフィスビル環境で安全指示を発行できます。プロセスは複雑ですが、潜在的なセキュリティリスクが存在します。たとえば、ロボットが肉切り包丁を制御不能に振り回したり、近くの人々に熱湯をかけたりする可能性があります。この問題を解決するために、Google DeepMind チームは SF 作家アシモフの作品からインスピレーションを得ました。 (訳: 機械の安全な動作を確保するために、Google は AutoRT システムを開発しました。このシステムは、20 台以上のロボットを同時に調整して、さまざまなオフィスビル環境で安全指示を発行できます。このプロセスは非常に複雑ですが、また

同社の最新のロボット システムは、「ロボット憲章」として知られる一連の規則に従っています。Google はブログ投稿で、これらの規則は部分的にアイザック アシモフのロボット工学の 3 原則にインスピレーションを受けていると指摘しました。その原則は、ロボットは「人間に危害を加えてはいけない」ということです。洗練された安全規則では、ロボットが人間、動物、鋭利な物体、または電気製品に関わる作業を実行してはならないと定められています。

興味深いことに、ロボット工学の 3 原則は、アシモフはこれらの法則を物語を動かすための設定として使用し、原則の曖昧さがどのように紛争や陰謀につながるかを示しました。たとえば、アシモフの物語の 1 つでは、ロボットが人類の進歩のために誰かを犠牲にします。

Google DeepMind チームは、ロボット憲章はセキュリティの 1 層にすぎないと指摘しました。さらに、DeepMind チームは、最新のロボット システム用に実用的な安全対策を複数層設計しました。 Google は次のように述べています: 「たとえば、協働ロボットは、関節にかかる力が所定のしきい値を超えると自動的に動作を停止し、アクティブなロボットはすべて人間の監督者の目の届く範囲に置かれ、ロボットを即座にシャットダウンする物理スイッチを備えています。」

以上がGoogleのシステムはロボットによる人への危害を確実に防止するために「ロボットの3原則」を導入の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!