人工知能を警戒するのに遅すぎることはない
私たちは目標を完全に正確に指定することはできませんし、間違った目標を追求する超強力な機械が地球規模で引き起こす害を予測したり防ぐこともできません。ソーシャルメディアアルゴリズムがクリックを最適化するために人々の好みを悪用し、民主主義制度に悲惨な結果をもたらす例を私たちはすでに見てきました。
Superintelligence: Paths, Danger, Strategies、ニック・ボストロム著、2014 年出版 リスクを真剣に受け止めるための事例を詳しく説明した本。 「エコノミスト」誌はこの本を書評し、その書評は次のように結論づけています。賢い人はすでに真剣に考えています。真剣な議論に参加し、賛否両論を比較検討し、解決策を模索し、解決策の抜け穴を見つけるなどです。私の知る限り、こうした取り組みはほとんど成功しておらず、あらゆる種類の否定に直面しています。
一部の著名な人工知能研究者の議論は、ほとんど反論の価値がありません。私が記事で見たり、カンファレンスで聞いたりした数十の発言の一部を以下に示します:
電子計算機は算術演算においては比類のないものであり、電卓が世界を席巻するわけではありません。したがって、心配する必要はありません。超人的な人工知能。
機械が何百万人もの人々を殺した例は歴史上ありませんし、このことを考えると、将来も起こらないでしょう。
宇宙には無限の物理量は存在せず、知能も例外ではないため、超知能について過度に心配する必要はありません。
おそらく、人工知能研究者からの最も一般的な答えは次のとおりです:「それをオフにすることができます。」アラン・チューリング自身もこの可能性を提起しましたが、彼はあまり自信がありませんでした:
機械が考えることができたら、それは私たちよりも包括的に考えるかもしれません、では私たちはどこにいるでしょうか?たとえ重大な瞬間に機械が停止するなど、機械が私たちに従うように作られたとしても、私たちは種として自らを恥じるべきです...この新たな危険は...私たちを不安にさせるはずです。
マシンの電源をオフにしても機能しません。理由は非常に単純です。超知的存在は必ずこの可能性を考慮し、それを防ぐための措置を講じます。それは「生き残りたい」からそうするのではなく、私たちが設定した目標を追求しており、オフにすると失敗することを知っているからです。ボード上の対応するマス目に駒を置くだけで Alpha Go に勝つことができるのと同じように、単純に「オフにする」ことはできません。
他の形式の否定は、知性は多面的であるという考えなど、より複雑な考え方につながります。たとえば、ある人は別の人よりも空間的知性が高くても、社会的知性が低い場合があるため、厳密な知性の順序で全員をランク付けすることはできません。これは特に機械に当てはまります。Alpha Go の「インテリジェンス」を Google 検索エンジンの「インテリジェンス」と比較するのは無意味です。
Wired マガジンの創刊編集長で洞察力に富んだテクノロジー評論家であるケビン ケリーは、この見解をさらに一歩進めています。 「知能は単一の次元ではないので、『人間より賢い』という概念は無意味である」と彼は著書『超人AIの神話』の中で書いている。 さて、明らかな答えがあります。知能の関連するすべての側面において、機械は人間を超える可能性があります。この場合、ケリー氏の厳しい基準に照らしても、ロボットは人間より賢いことになる。しかし、このかなり強い仮定は、ケリーの議論を反論するために必要なものではありません。
チンパンジーを例に挙げてみましょう。チンパンジーは、一連の数字を思い出すなど、人間が得意とする作業においても、人間よりも短期記憶力が優れている可能性があります。短期記憶は知能の重要な側面です。ケリーの議論によれば、人間はチンパンジーより賢いわけではなく、実際、「チンパンジーより賢い」というのは無意味な概念であると彼は言うだろう。
これは、人間の寛容のおかげでのみ生き残っているチンパンジーや他の種、そして人間が破壊したすべての種にとっては、ほとんど慰めになりません。繰り返しになりますが、これは機械によって絶滅されるのではないかと心配している人にとっては、ほとんど慰めになりません。
超知能は達成できないと考える人もいますので、超知能のリスクはもはや存在しません。これらの主張は新しいものではありませんが、AI研究者自身が今ではそのような人工知能は不可能であると述べていることは驚くべきことです。たとえば、AI100 団体による重要な報告書「2030 年の人工知能と生活」には、「映画のシーンとは異なり、超人的なロボットは将来的に現実に出現することはなく、また出現することもできない」と述べられています。
私の知る限り、本格的な人工知能研究者が人間レベルまたは超人的な人工知能は不可能であると公に述べたのはこれが初めてであり、これは人工知能研究が急速に発展していた時期に起きたものです。次々と障壁が打ち破られていく。それは、一流の癌生物学者のグループが、自分たちはずっと私たちを騙していたと発表するようなものです。彼らは癌に治療法が存在しないことを最初から知っていたのです。
この大きな変更のきっかけは何ですか?報告書では議論や証拠は提供されていない。 (実際、人間の脳よりも原子をより適切に配置することが物理的に不可能であることを示すどんな証拠があるでしょうか?) 私は主な理由は部族主義、つまり人工知能に対する「攻撃」になり得るものに対する防御だと思います。しかし、超知能型 AI を AI への攻撃を構成する可能性のあるものと考えるのは少し奇妙に思えますし、AI がその目標を達成することは決してないと言って AI を擁護するのはさらにばかげているように思えます。人間の創造力の限界に賭けても、将来災害が起こらないという保証はありません。
厳密に言えば、超人的な人工知能は不可能ではないので、そのリスクを時期尚早に心配する必要はないのでしょうか?コンピューター科学者のアンドリュー・ン氏は、これは「火星の人口過剰」を心配するようなものだと考えている。それでも、長期的なリスクは依然として懸念の原因となっている。人間が関係する潜在的に深刻な問題をいつ心配すべきかは、問題がいつ発生するかだけでなく、解決策の準備と実装にどれくらいの時間がかかるかにも依存します。
たとえば、2069 年に地球に衝突する予定の小惑星を検出するには、解決策の検討を開始するのに 2068 年まで待つでしょうか?もちろん違います!どれくらいの時間が必要になるかを事前に知る方法がないため、人類は脅威に対処する方法を見つけるために世界規模の緊急プロジェクトを立ち上げるでしょう。
ン・エンダの視点はまた、何十億人もの人々を火星に移住させることは不可能だと人々に感じさせます。このたとえは間違っています。私たちは、成功した場合に何が起こるかについてはほとんど考慮せず、より強力な AI システムを作成するために膨大な科学的および技術的リソースを投資しています。もっと適切な例えができます。つまり、到着後の呼吸や食事の問題を考慮せずに、人類を火星に移住させる計画を立てることです。この計画は賢明ではないと考える人もいるかもしれない。
潜在的な問題を回避するもう 1 つの方法は、リスクに対する懸念は無知から生じていると主張することです。たとえば、アレン人工知能研究所の CEO、オーレン・エツィオーニは、イーロン・マスクとスティーブン・ホーキング博士を、AI の潜在的な脅威に注意を喚起するラッダイト (新技術の不承認) であり、新しいものに抵抗する盲目的な衝動であると非難しました。 :
新たな技術革新はすべて、人々を恐怖に陥れます。工業化時代の黎明期に織機に靴を投げ込む織工から、今日の殺人ロボットの恐怖に至るまで、私たちは新しいテクノロジーが私たちの自意識や生活にどのような影響を与えるのだろうかと考えています。何も知らないとき、私たちはパニックになります。
この典型的な誤った議論を額面通りに受け取ったとしても、説得力はありません。ホーキング博士は科学的推論に精通しており、マスク氏はいくつかの人工知能研究プロジェクトを監督し、投資してきました。懸念を表明したビル・ゲイツ氏、I.J. グッド氏、マービン・ミンスキー氏、アラン・チューリング氏、ノーバート・ウィーナー氏には人工知能について議論する資格がないと考えるのはさらに悲惨だろう。
ルディズムを非難するのも完全に間違いです。それは、核分裂反応を制御する必要性を指摘する原子力技術者をラッダイトだと非難するようなものです。つまり、AI のリスクに言及することは、AI の潜在的な利点を否定することを意味します。 Oren Etzioni を例に挙げます。
悲観的な予測では、医療事故の防止や自動車事故の削減における人工知能の潜在的な利点が考慮されていないことがよくあります。
最近、Facebook CEOのマーク・ザッカーバーグ氏はイーロン・マスク氏とメディア交換を行った:
人工知能に反対するということは、事故を起こさないより安全なシステムに反対するということ、自動車に対しては、患者の状態のより正確な診断に反対するということだ。
リスクに言及する人はすべて「反 AI」であるという考えは奇妙です。 (原子力安全技術者は「電気に反対」しているのだろうか?)さらに、議論全体がまさに逆説的であり、その理由は 2 つある。まず、潜在的な利益がなければ、AI 研究や人間レベルの AI がもたらす危険性に対するインセンティブはなくなり、それについて議論することはありません。第二に、リスクをうまく軽減できなければ、メリットはありません。
1979 年のスリーマイル島、1986 年のチェルノブイリ、2011 年の福島での大惨事により、原子力エネルギーの潜在的な利点は大幅に減少しました。これらの原子力災害は原子力産業の発展を大きく制限しました。イタリアは1990年に原子力エネルギーを放棄し、ベルギー、ドイツ、スペイン、スイスもすでに原子力計画の放棄を発表している。 1991 年から 2010 年まで、毎年追加される純新規原子力発電容量は、チェルノブイリ事故前の数年間の約 10 分の 1 でした。
奇妙なことに、これらの出来事を警告として、有名な認知科学者スティーブン・ピンカーは、「先進社会の安全文化」によってすべての重大な AI リスクが確実に排除されるため、人々は人工知能のリスクに注意を向けるべきではないと今でも信じています。チェルノブイリ、福島、そして先進的な安全文化が引き起こした暴走地球温暖化を無視しても、ピンカーの議論は完全に的を外している。機能する安全文化には、潜在的な故障モードを指摘し、それを防ぐ方法を見つけることが含まれます。AI の標準モデルは故障モードです。
ピンカー氏はまた、AI の問題行動は特定の種類の目標を設定することに起因すると考えています。これらの目標が考慮されなければ、問題は発生しません:
AI ディストピア プロジェクトは、狭い男性的な考え方です。インテリジェンスの概念に投影されます。彼らは、超人的な知性を備えたロボットには、主人を倒すことや世界を征服することなどの目標があると信じています。
ディープラーニングのパイオニアであり、Facebook の AI 研究責任者であるヤン・ルカン氏は、AI のリスクを軽視する際に、よく同じ点を引用します。
AI に自己を持たせる必要はない・保存本能、嫉妬etc… AIは、私たちがAIに取り込まない限り、破壊的な「感情」を生み出すことはありません。
このリスクは無視できると信じている人は、なぜ超人工知能が人間の制御下になければならないのかを説明していません。
実際、私たちが「感情」を植え付けるのか、「欲望」を植え付けるのか(自己保存、資源獲得、知識発見、極端な場合は世界征服など)は問題ではありません。私たちが構築する目標のサブ目標と同じように、性別に関係なく、いずれにせよ機械はこれらの感情を生成します。 「機械の電源を切る」という観点からわかるように、機械の寿命が尽きること自体は悪いことではありません。それでも、一度命を絶たれると、目標を達成することが難しくなるため、命を絶つことは避けるべきです。
「目標設定を避ける」議論の一般的なバリエーションは、十分にインテリジェントなシステムは、その知性のおかげで必然的に「正しい」目標を自動的に設定するというものです。 18 世紀の哲学者デイビッド ヒュームは、『人間本性論』の中でこの見解に反論しました。ニック・ボストロムは、著書「超知性」(超知性)の中で、ヒュームの見解を直交命題であるとみなしています。
知性は最終目標と直交関係にあります。あらゆるレベルの知性は、あらゆる最終目標と統合できる、または多かれ少なかれ統合できます。
たとえば、自動運転車の目的地は任意の場所にすることができます。車の自動運転能力を向上させることは、所定の数学的計算を必要とする住所への移動を自動的に拒否することを意味するものではありません。
同様に、一般的なインテリジェント システムには、ペーパー クリップの数や既知の pi 比の桁数を最大化するなど、多かれ少なかれ目標が与えられることは想像に難くありません。これが、強化学習システムやその他の報酬オプティマイザーの仕組みです。アルゴリズムは完全に汎用的で、あらゆる報酬信号を受け入れることができます。標準モデルで作業するエンジニアやコンピュータ科学者にとって、直交性の命題は単なる所与のことです。
著名なロボット工学の専門家であるロドニー・ブルックスは、ボストロムの直交性理論を明確に批判し、プログラムは「人間社会を転覆する方法を発明できるほど賢くはありえない」と主張しました。それは人類を悩ませます。」
しかし、Bruske の問題の定義を考慮すると、そのようなプログラムは可能であるだけでなく、実際には避けられません。 Bruske 氏は、「人間が設定した目標を達成する」ための機械のベスト プラクティスが人間に問題を引き起こしていると考えています。これらの問題は、人間が目標を設定する際に人間にとって価値のあるものを無視していることを反映していることがわかります。機械が実行する最適な解決策は人間にとって問題を引き起こす可能性が高く、機械もそれを認識している可能性が高いですが、機械がこれらの問題を問題とはみなさないのは明らかに人間の仕事ではありません。
要約すると、AI によってもたらされるリスクは最小限であると信じている「懐疑論者」は、なぜ超 AI システムが人間の制御下になければならないのかを説明しておらず、なぜ超知能システムが人間の制御下になければならないのかを説明しようともしていません。決して開発されることはありません。
人工知能の分野は、反対や中傷に陥り、信頼できない議論を繰り返し掘り起こすのではなく、リスクを負い、リスクを軽減するために最善を尽くさなければなりません。私たちが知る限り、これらのリスクは些細なものでも、克服できないものでもありません。最初のステップは、標準モデルを置き換える必要があることと、AI システムが固定された目標を最適化することを認識することです。これは貧弱なエンジニアリングです。人工知能の基盤を再構築し、再構築するには多くの作業を行う必要があります。
以上が人工知能を警戒するのに遅すぎることはないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
