人工知能 (AI) は人間社会を真にインテリジェントな時代へと押し進めることができるでしょうか?
60 年以上の発展を経て、人工知能産業は画期的な進歩を遂げ、経済や社会のあらゆる側面で広く使用され、人間の価値観と一致する人工知能システムを構築しています。はまだ未解決の問題です。
さて、英国の人工知能企業ディープマインドによる最新の研究は、人工知能業界の実務者にこの問題を解決するための新しい考え方を提供するかもしれません。
レポートによると、DeepMind の人工知能システムは、4,000 人以上の人々から学習し、4 人用オンライン経済ゲームのコンピューター シミュレーションで公的資金の再配分方法に関する政策を策定することを学習しただけでなく、非常に高いパフォーマンスを実現しました。他の人間のプレイヤーを上回っています。
このゲームでは、プレイヤーは金銭的な寄付を保持するか、集団利益のために他の人と共有するかを決定します。
「民主的 AI を使用した人間中心のメカニズム設計」 というタイトルの関連研究論文は、権威ある科学雑誌 Nature Human Behavior に 7 月 5 日にオンライン掲載されました。
##出典: Nature Human Behaviour
アネット英国ヨーク大学のジマーマン助教授は、「民主主義を、最も人気のある政策を見つける『選好満足』システムと狭義に同一視しないでください。」と警告しました。お気に入りの政策を可能な限り最善の形で実施することだけが重要ではなく、国民が対等な立場で参加し、議論できるプロセスを作り出すことが重要なのです。
AI によって設計された経済メカニズム
今日、機械学習システムは生物医学における主要な問題を解決し、人類が環境問題に対処するのを助けてきました。しかし、人間が公平で豊かな社会を設計するのを支援する人工知能の応用はまだ開発されていません。
経済学とゲーム理論では、メカニズム設計と呼ばれる分野で、望ましい目標を達成するために、インセンティブを与えられた主体間の富、情報、または権力の流れを最適に制御する方法を研究します。
この研究では、研究チームは、深層強化学習 (RL) エージェントを使用して、動機のある集団の好みを取得できる経済メカニズムを設計できることを証明しようとしました。
このゲームでは、プレイヤーはさまざまな金額から開始し、公的資金プールの発展を促進するためにどれくらいの金額を寄付するかを決定する必要があり、最終的には見返りとして一部を受け取り、継続するかどうかについての決定を繰り返します。 a 潜在的な集団的利益のために金銭を寄付するか、他のプレイヤーと共有します。
研究チームは、富の平等と不平等の条件下でプレイヤーに資金を分配する再分配メカニズムを設計するために深層強化学習エージェントを訓練しました。
共有収益は、人工知能システムによって設計されたものと人間によって設計されたものという 2 つの異なる再分配メカニズムを通じてプレイヤーに還元されます。
写真|ゲーム デザイン (出典:
Nature Human Behaviour) 人工知能によって策定された政策では、システムは各プレイヤーが寄付したスタートアップ資金の額に応じて公的資金を再配分することで、プレイヤー間の富の格差を縮小します。
「平等主義」アプローチ (各プレイヤーの貢献度に関係なく資金が均等に分配される) と「リベラル」アプローチ (各プレイヤーの貢献度が公的シェアを占める) との比較) 資金の比例配分)、このポリシーは人間のプレイヤーからより多くの票を獲得します。
同時に、このポリシーは初期の資産の不均衡を修正し、プレイヤーの「ただ乗り」行為を止めました。プレイヤーが開始資金の約半分を寄付した場合を除きます。資本を投下しても、見返りとして得られるものはほとんどありません。
今回の研究結果は、インセンティブと互換性のある経済ゲームにおいて人間が非常に好むメカニズムを設計することで、人工知能システムが民主的な目標を達成するように訓練できることを示しています。 出典: Pixabay もう 1 つの未解決の質問 はい、人々は人工知能システムによって設計されたメカニズムを信頼するでしょうか。審判の身元が事前にわかっている場合、プレイヤーは AI 代理審判よりも人間の審判を好む可能性があります。ただし、タスクが人間には複雑すぎると考える場合、人は AI システムを信頼する傾向もあります。 それは信頼できますか?
この研究では、研究チームは人工知能技術を使用して再割り当てスキームを一から学習しました。これは、人工知能研究者自身が偏見を持っているか、より広範な集団を代表していない可能性がある人工知能研究者の負担を軽減するアプローチです。最適化のためのドメイン固有のターゲットの選択。
この研究活動ではいくつかの疑問も生じており、その中には理論的に困難なものもあります。たとえば、価値調整の方法として民主主義の目標を強調することが良い考えなのかどうか疑問に思う人もいるかもしれません。 AI システムは、他の民主主義手法から「少数を犠牲にして多数に権限を与える」という傾向を受け継いでいる可能性があります。 AI が社会における既存の偏見、差別、不公平を悪化させる形で導入される可能性があるという差し迫った懸念を考慮すると、これは特に重要です。
また、これらのメカニズムを経験を通じて学ぶのではなく口頭で説明された場合、プレイヤーの反応は異なるでしょうか。膨大な文献によると、メカニズムが「経験に基づいて」ではなく「説明に基づいて」説明されている場合、特に危険な選択に関して、人々は時として異なる行動をすることが示されています。ただし、AI によって設計されたメカニズムは必ずしも言葉で表現できるとは限りません。その場合、観察される動作は研究チームが採用する記述の選択に完全に依存すると思われます。
研究チームは論文の最後でこの発見も強調し、自律エージェントが人間の介入なしに政策決定を行う、ある種の「人工知能ガバナンス」を支持すると述べた。
彼らは、手法のさらなる開発により、現実世界の問題を真に人間的な方法で解決できるツールが提供されることを望んでいます。
以上がDeepMindの最新研究:AIが人間を倒し、より良い経済メカニズムを設計|Natureサブジャーナルの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。