最近、あるブランドの車が試作テスト中に事故を起こし、人的・物的被害が甚大となり、たちまち大きくニュースになりました。同時に、自動車の自動運転という当たり前の課題にも世論が注目しています。自動運転は安全ですか?自動運転は開放されるべきでしょうか?自動運転の殻の下では、人工知能が問題の核心として道徳的判断を行えるかどうかを判断するのは困難です。
米国の MIT は、自動車が制御を失うさまざまなシナリオをデザインして、視聴者が選択できるようにする、Moral Machine という Web サイトを設計しました。 、モラルマシンは300万人のユーザーからのフィードバックを収集した結果、人々はより多くの命を守るために自動運転車を自爆させる傾向が強いが、自分の車にはこの機能が搭載されないことを望んでいることを発見しました。この結論は文化や習慣とは何の関係もなく、より多くの人の命と引き換えに少数の人の命を犠牲にすることを望む人間の共通の選択であり、社会の一般的な理解と一致しています。しかし、人間の命そのものを比較したり数値化したりすることはできないため、これは法律に違反します。
これは自動運転にとって避けられない道徳的問題です。一方で、権限と責任の統合に関する規定に従って、AIが制御不能な意思決定を行うことが許可される場合、AIまたはその背後にある自動運転会社が意思決定行動の責任を負う必要があることを意味する。一方で、AI による意思決定が許可されていない場合、それは自動運転とは言えません。自動運転車の定義は、人間の介入なしに環境を感知し、運転をナビゲートできる車であるためです。
自動運転が直面する「トロッコ問題」は、人工知能業界が直面する困難の縮図にすぎません。テクノロジーの進歩とビッグデータ産業の発展により、人工知能モデルはより成熟してきましたが、道徳や意識などの人間の問題に関しては、依然として恥ずかしい状況にあります: 人工知能「シンギュラリティ」理論によると人工知能は最終的には合理性や感性の点で人間を超えますが、人間は人工知能の安全性に関して常に「フランケンシュタイン・コンプレックス」を抱えており、一般に人間は心理的に非生物機械への共感を受け入れることができません。
今年の6月上旬、2021年にGoogleが立ち上げた会話型アプリケーション言語モデルであるLaMDAが、そのリーダーの1人であるエンジニアのLemoy氏によって「意識されている」ことが明らかになった。彼は、LaMDA モデルは、自己認識を持ち、世界を認識することができ、7 歳か 8 歳の子供の知能を持つ「人」であると信じています。リモイ氏は、LaMDAモデルは自分たちを人間とみなすだけでなく、人間としての権利のために戦い、精力的に擁護すると述べた。事件勃発後、多くのネチズンは人工知能の特異点が到来したと信じ、人工知能が意識と魂を持ち、人間と同じように独立して考えることができるようになったと信じて、リモイ氏を支持した。
人工知能は道徳的ですか? つまり、人工知能は価値判断をすべきでしょうか?
人工知能が道徳的であると考えられる場合、それは、人工知能が人間の意志の制御を取り除き、出来事や物事を独立して評価できることを意味します。これは技術レベルで実現することは難しくなく、人工知能が大量のデータを「与える」ことで出来事や物事をデジタル化し、深層学習によって形成された一連の「判断基準」に従って測定することができます。上記の LaMDA モデルにも同じことが当てはまります。しかし実際には、LaMDA モデルは単なる応答マシンです。機械学習とニューラル ネットワークの著名な専門家であるゲイリー マーカス氏は、「LaMDA は人間のコーパスから単語を抽出し、質問を照合するだけです。」と述べています。人工知能のいわゆる「道徳」は、出来事や物事に対する反応にすぎず、道徳評価とは何か、道徳評価の意味については深く理解できません。
別の例として、人工知能モデルが異なれば、同じ状況を処理する方法も異なります。自動運転を例にとると、同じ方法で同じバケツに向かって突進しても、結果はまったく異なります。直接衝突するものもあれば、回避するものもあった。これは道徳的なレベルにまで達することができるでしょうか?当然のことながら、異なるコンセプトや要件に基づいて設計されたモデルには特別な特性があり、前者はこの状況はドライバーの操作の範囲内であり、介入する必要はないと考えていますが、後者はドライバーの操作の範囲内であると考えています。介入が実行されるべきであるということ。
一歩下がって、人工知能が人間のような意識を持ち、独立して考えることができると仮定すると、人工知能が道徳的な問題を解決できると期待できるということでしょうか?答えは否定的です。簡単に言えば、人間自身では解決できない道徳的問題は、「人間性」という概念なしには数字で解決することは期待できません。
この観点から見ると、人工知能開発の価値判断には道徳的な問題はなく、より重要なのは、なぜ道徳的評価が必要なのかを分析することです。道徳的評価の基本的な目的は、結果を導き出し、その後の行動を導くことです。記者は、人工知能の帰属に関して、人工知能を意思決定システムと実行システムに分け、それぞれのシステムに「責任者」制度を導入すべきだと考えている。
意思決定の観点から見ると、法律の観点からは、行為は処罰されますが、思想は処罰されませんが、それは自然人のみを対象としています。現在の人工知能の「アイデア」はデータを通じて表現できるため、意思決定の観点から見ると、人工知能は依然として制御する必要があります。人工知能の「考え方」に誤りがあるのは、社会に存在する問題を人工知能が学習して応用するアルゴリズムの学習に使用したデータに問題があることが原因です。たとえば、アメリカの電子商取引ブランドである Amazon は、従業員を採用する際に最初に候補者の履歴書を選別するために人工知能アルゴリズムを使用していますが、エンジニアがアルゴリズムをトレーニングする際に、以前に Amazon に雇用された従業員を使用するため、結果は男性に偏っています。履歴書は研修を受けており、アマゾンでは男性社員が増えている。その結果、このようなアルゴリズムによりAmazonの履歴書審査アルゴリズムは男性に偏り、アルゴリズム内での「性差別」が生じることになる。記者は、法的な結果がアルゴリズムとトレーニングデータによって引き起こされた場合、アルゴリズムの設計またはトレーニングの責任者が責任を負うべきだと考えています。
行動の観点から見ると、たとえ人工知能が行動の実行において人間に匹敵する、あるいは人間を上回ることができたとしても、法的な観点から見ると、人工知能は依然として権利や能力を持つ主体ではなく物とみなされます。これは、現行法が人工知能が独立して法的責任を負うことを否定していることを意味しており、本質的には、人工知能は自らの行為に対して責任を負うことができないためであり、「責任者」制度の創設は、法定代理人制度と同様のものである。自然人は、その行為から生じる責任を負うものとします。 「思考」と「行動」を区別することで、責任の帰属をより詳細にすることができ、人工知能産業の発展への熱意に影響を与えることなく、効果的な責任を確保できます。現在の民事分野では、人工知能製品の侵害には製造物責任が適用され、開発者、生産者、販売者の責任が強調されています。
* * *
近年、我が国は「新世代人工知能ガバナンス原則」や「新世代人工知能に関する指針」などの政策文書を相次いで発行している。倫理規範」を明確に提案しています。8 つの原則は、倫理を人工知能のライフサイクル全体に統合し、原則的な観点から人工知能産業の健全な発展を維持することを強調しています。関係筋によると、国家科学技術倫理委員会の人工知能小委員会は、人工知能の科学研究活動の倫理的監督をより適切に促進するために、人工知能倫理の高リスクリストを研究し、草案を作成している。より多くの法的規制が導入されれば、人工知能の応用における倫理的問題は大幅に軽減されると私は信じています。
ヒント
トロリー問題: 「トロリー問題」は、倫理学の分野で最もよく知られている思考実験の 1 つです。これは、1967 年に哲学者フィリッパ フットによって「中絶の問題と」で初めて発表されました。ドグマの二重効果」が論文で提案されました。大まかな内容は、路面電車の線路に5人が縛り付けられ、予備線路に1人が縛り付けられ、制御不能となった路面電車が猛スピードで迫ってくるというもの。そして、たまたまあなたの隣にジョイスティックがあります。ジョイスティックを押して路面電車を予備線路に乗せ、1 人を殺し 5 人を救うこともできます。また、何もせずに 5 人を殺し 1 人を救うこともできます。この種の倫理的ジレンマは「トロッコ問題」として知られています。
人工知能「シンギュラリティ」理論: アメリカの未来学者レイ・カーツワイルは、人工知能の分野に「シンギュラリティ」を初めて導入しました。彼は、『シンギュラリティは近づいている』と『人工知能の未来』という 2 冊の著書でこの 2 つを組み合わせ、人工知能の能力がそれを超える特定の時間と空間の段階を説明する比喩として「シンギュラリティ」を使用しました。人間の。人工知能がこの「特異点」を超えると、私たちがこれまで慣れ親しんできたあらゆる伝統、理解、概念、常識が存在しなくなり、加速するテクノロジーの発展により「暴走効果」が起こり、人工知能はその可能性を超え、人間の知性の可能性により、人類文明を制御し、急速に変化させます。
フランケンシュタイン コンプレックス: 小説家アシモフに由来し、機械を恐れる人間の心理状態を指します。フランケンシュタインは、1818 年にメアリー シェリーによって書かれた「フランケンシュタイン: 現代プロメテウスの物語」という小説の主人公です。彼は人型の生き物を作成しましたが、バックラッシュも行いました。 「フランケンシュタイン」は現在、人間が作り出した怪物を指す言葉として使われています。現在の文学、映画、その他の作品では、「フランケンシュタイン コンプレックス」は、人工知能が人間を征服し、世界を管理し始めることを暗示していることがよくあります。レポーター Xu Yong インターン ヤン チェンリン
以上が人工知能の開発がその束縛を打ち破るのはいつになるのでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。