シリコンバレーでの熱い議論: AI は人類を滅ぼすのか?
5 月 22 日のニュース、生成型人工知能などの新技術がテクノロジーの世界で新たなブームとなる中、人工知能が人類を滅ぼすかどうかをめぐる議論が激化しています。著名なテクノロジーリーダーが、人工知能が世界を征服する可能性があると警告した。他の研究者や幹部らは、この主張はSFだと言っている。
先週の米国議会公聴会で、人工知能スタートアップ OpenAI の CEO、サム アルトマン氏は、同社が公開したテクノロジーにはセキュリティ リスクがあることを全員に明確に思い出させました。
アルトマン氏は、ChatGPTチャットボットなどの人工知能技術が偽情報や悪意のある操作などの問題を引き起こす可能性があると警告し、規制を求めた。
同氏は、人工知能は「世界に深刻な害をもたらす」可能性があると述べた。
アルトマン氏の議会証言は、人工知能が世界を支配するかどうかをめぐる議論が主流になりつつあり、シリコンバレー全土で部門が成長し、技術の推進に努めている中で行われた。
かつては、機械の知能レベルが突然人間を超え、人間を滅ぼす可能性があると信じていた人もいましたが、現在、この非主流的な考えはますます多くの人々から支持されています。一流の科学者の中には、コンピュータが人間を超えて人間を制御できるようになるまでの時間が短縮されるとさえ信じている人もいる。
しかし、多くの研究者や技術者は、映画「ターミネーター」に登場するスカイネットのような殺人人工知能の出現を心配している人は多いが、この心配は論理的に正当な理由に基づいたものではないと述べています。むしろ、アルトマンが証言で述べた問題を含め、このテクノロジーがすでに引き起こしている本当の問題から目を逸らしてしまう。今日の AI テクノロジーは著作権を難読化し、デジタル プライバシーと監視に関する懸念を悪化させており、ハッカーがネットワーク防御を突破する能力を向上させるために使用される可能性があります。
Google、Microsoft、OpenAI はすべて、画期的な人工知能テクノロジーを公開しています。これらのテクノロジーは、ユーザーとの複雑な会話を実行し、単純なテキスト プロンプトに基づいて画像を生成できます。邪悪な人工知能をめぐる議論が激化している。
「これは SF ではありません」と、人工知能のゴッドファーザーで元 Google 従業員のジェフリー・ヒントンは言いました。ヒントン氏は、人間よりも賢い人工知能は、これまでの予測では30~100年かかるのに対し、5~20年以内に出現する可能性があると述べた。
「まるで宇宙人が地球に着陸したか、あるいはこれから着陸しようとしているようだ」と彼は言いました。 「彼らは流暢に話し、役に立ち、詩を書き、退屈な手紙に返事をするので、私たちはそれを本当に受け入れることができません。しかし、彼らは本当に宇宙人です。」
それでも、大手テクノロジー企業の社内では、テクノロジーに密接に関わっている多くのエンジニアは、AI が人間に取って代わることは現時点で心配する必要があるとは考えていません。
人工知能のスタートアップ Cohere が所有する研究所、Cohere for AI の所長で元 Google 研究者であるサラ・フッカー氏は、「研究者の中には、現在の現実世界のリスクに注意を払い、この分野に積極的に取り組んでいる人たちがいる」と述べた。人類の生存にリスクがあるかどうかを懸念している人々の方がはるかに多いのです。」
現在、現実には多くのリスクが存在します。たとえば、有害なコンテンツを公開するように訓練されたロボットが偏見と差別を深めます。人工知能の大部分がトレーニング データはすべて英語で、主に北米やヨーロッパからのものであるため、インターネットは大多数の人々の言語や文化からさらに逸脱する可能性があり、これらのボットは誤った情報を捏造して偽装することもよくあります。実際、場合によっては、ユーザーを攻撃する会話の無限ループに陥ることさえあります。さらに、人々はこのテクノロジーの波及効果についてよくわかっていません。あらゆる業界が、人工知能がもたらす可能性のある破壊や変化に備えています。弁護士や医師などの高収入の仕事さえも置き換えられるでしょう。
また、人工知能が将来人間に危害を加えたり、何らかの形で社会全体を制御したりする可能性があると信じている人もいます。人類の実存的リスクはより深刻であるように見えますが、定量化するのは難しく、具体的ではないと多くの人が信じています。
「これらは単なるアルゴリズムだと考える人々のグループがいます。彼らはオンラインで見たことを繰り返しているだけです。」 Google CEO のサンダー・ピチャイは今年 4 月のインタビューで次のように述べています。これらのアルゴリズムは、新しい特性、創造性、推論、計画能力を備えて登場しつつあります。」「この問題は慎重に扱う必要があります。」
この議論は、過去 10 年間にわたるコンピューター サイエンスの分野における機械学習テクノロジーの継続的な進歩に端を発しています。機械学習は、人間からの明示的な指示なしで、大量のデータから新しい洞察を抽出できるソフトウェアとテクノロジーを作成します。このテクノロジーは、ソーシャル メディア アルゴリズムから検索エンジン、画像認識プログラムに至るまで、さまざまなアプリケーションで広く普及しています。
昨年、OpenAI と他のいくつかの小規模企業は、新しい機械学習テクノロジである生成人工知能を使用するツールのリリースを開始しました。いわゆる大規模言語モデルは、Web から収集した何兆もの写真や文章を学習させた後、単純なプロンプトに基づいて画像やテキストを生成し、ユーザーとの複雑な会話を実行し、コンピューター コードを記述することができます。
フューチャー・オブ・ライフ研究所のエグゼクティブ・ディレクター、アンソニー・アギーレ氏は、大企業はほとんど監視されることなく、ますますスマートなマシンの開発を競っていると語った。 Future of Life Institute は、社会へのリスクを研究するために 2014 年に設立されました。同研究所はテスラのCEOイーロン・マスク氏の資金提供を受けて、2015年に人工知能が人類を滅ぼす可能性の研究を開始した。 人工知能が人間よりも優れた推論能力を獲得すれば、彼らは自制心を達成しようとするだろうとアギーレ氏は語った。これは、現在存在する現実の問題と同じように、人々が心配すべきことです。
彼はこう言った: 「彼らが軌道から逸脱するのをどのように抑制するかは、ますます複雑になるだろう。」 「多くの SF 小説はすでにそれを非常に具体的に示している。」
今年の 3 月に年、Ah Gire 氏は、新しい人工知能モデルのトレーニングを 6 か月間一時停止することを求める公開書簡の執筆に協力しました。この公開書簡には、2018年にコンピューターサイエンス分野で最高賞を受賞した上級人工知能研究者であるヨシュア・ベンジオ氏と、最も影響力のある人工知能スタートアップ企業の一つの最高経営責任者(CEO)であるエマ氏を支援する合計2万7000の署名が寄せられた。エマド・モスタクもその中にいた。
ムスクは間違いなくその中で最も目を引くものです。彼は OpenAI の創設に貢献し、現在は自身の AI 会社の設立に熱心に取り組んでおり、最近では AI モデルのトレーニングに必要な高価なコンピューター機器に投資しています。
マスク氏は長年にわたり、人間は超人工知能の開発がもたらす影響についてもっと注意を払うべきだと信じてきた。先週のテスラの年次株主総会でのインタビューで、マスク氏は当初、グーグル共同創設者ラリー・ペイジ氏が人工知能の脅威に対して「無頓着」だと感じたため、オープンAIに資金を提供したと述べた。
Zhihu Quora のアメリカ版も独自の人工知能モデルを開発しています。同社CEOのアダム・ディアンジェロ氏は公開書簡に署名しなかった。同氏は公開書簡について「この提案をする動機は人それぞれだ」と述べ、
OpenAI CEOのアルトマン氏も公開書簡の内容を認めていない。同氏は、公開書簡の一部には同意したが、全体的に「技術的詳細」が欠如しているのは人工知能を規制する正しい方法ではないと述べた。アルトマン氏は先週火曜日の人工知能に関する公聴会で、同社のアプローチはAIツールを早期に一般に公開し、テクノロジーがより強力になる前に問題を特定して解決することだと述べた。
しかし、テクノロジーの世界ではキラーロボットに関する議論が高まっています。最も厳しい批判の一部は、このテクノロジーの欠陥を長年研究してきた研究者からのものです。
2020 年、Google の研究者ティムニット ゲブルーとマーガレット ミッチェルは、ワシントン大学の学者エミリー M. ベンダーと共同で論文を執筆しました。エミリー M. ベンダーとアンジェリーナ マクミラン メジャーは共同で論文を執筆しました。彼らは、人間を模倣する大規模な言語モデルの能力が増大することで、人々が自分たちに知覚力があると考えるリスクが高まると主張している。
むしろ、これらのモデルは「ランダムなオウム返し」として理解されるべきであり、つまり、何を言っているのかを理解する必要がなく、純粋に確率に基づいて文の次にどの単語が来るかを予測するのに非常に優れているだけであると彼らは主張しています。 。他の批評家は、大規模な言語モデルを「自動補完」または「知識の浣腸」と呼んでいます。
彼らは、大規模な言語モデルがどのように性差別的コンテンツやその他の有害なコンテンツをスクリプトに従って生成することができるかを詳細に文書化しました。ゲブル氏は、この論文はグーグルによって隠蔽されたと述べた。彼女が記事を公開することを主張した後、Google は彼女を解雇した。数カ月後、同社はミッチェル氏を再び解雇した。
この論文の共著者4人も、マスク氏らが署名した公開書簡に応じて書簡を書いた。
「空想的な AI の理想郷や黙示録で私たちの気を紛らわすのは危険です。その代わりに、私たちは社会的不平等の悪化に急速に注力している開発会社の非常に現実的な搾取的慣行に焦点を当てるべきです。」と彼らは言いました。
Googleは当時、Gebru氏の解任についてコメントを控えたが、責任ある倫理的な人工知能の研究に取り組んでいる研究者はまだたくさんいると述べた。
「現代の人工知能が強力であることに疑いの余地はありませんが、それは人類の生存に差し迫った脅威をもたらすという意味ではありません」とコヒアの人工知能研究ディレクターのフッカー氏は述べた。
現在、人工知能が人間の制御から脱却することに関する議論の多くは、「ターミネーター」のスカイネットのように、人工知能が自らの限界をいかに迅速に克服できるかに焦点を当てています。
フック氏は次のように述べています:「ほとんどのテクノロジーとテクノロジーに存在するリスクは時間の経過とともに進化します。」「ほとんどのリスクは、現在存在するテクノロジーの制限によって悪化します。」
昨年、Google は次の人物を解雇しました。人工知能研究者のブレイク・ルモイン氏。彼はかつてインタビューで、Google の LaMDA 人工知能モデルには知覚機能があると強く信じていると述べました。当時、レモンは業界の多くの人から厳しく非難されました。しかし 1 年後、テクノロジー コミュニティの多くの人々が彼の意見を受け入れ始めました。
元 Google 研究者であるヒントン氏は、最新の人工知能モデルを使用した後、このテクノロジーの潜在的な危険性についての考えが変わったのはつい最近のことだと述べました。ヒントン氏は、コンピューター プログラムに複雑な質問をし、AI モデルがトレーニング データに基づいて考えられる答えを予測するだけでなく、彼の要求を大まかに理解する必要があると考えています。
今年 3 月、マイクロソフトの研究者らは、OpenAI の最新モデル GPT4 を研究しているときに、人間のように独立して考えることができる人工知能を指す「汎用人工知能の火花」を観察したと述べました。
Microsoft は、OpenAI と協力して Bing チャットボットを開発するために数十億ドルを費やしてきました。懐疑論者は、マイクロソフトが人工知能技術を中心にパブリックイメージを構築していると信じている。このテクノロジは常に実際よりも先進的であると考えられており、Microsoft はこのテクノロジから得るものがたくさんあります。
マイクロソフトの研究者は、この技術がトレーニングされたテキスト コンテンツのみに基づいて世界の空間的および視覚的な理解を開発したと論文を信じています。 GPT4 は、ユニコーンを自動的に描画し、卵を含むランダムなオブジェクトを卵が割れないように積み重ねる方法を記述することができます。
Microsoft 研究チームは次のように書いています:「言語の習得に加えて、GPT-4 は数学、プログラミング、視覚、医学、法律、心理学、その他の分野を含むさまざまな複雑な新しい問題も解決できます。特別なヒントはありますか。」 彼らは、AI の能力は多くの分野で人間に匹敵すると結論付けました。
しかし、研究者の一人は、人工知能の研究者は機械の知能を評価するための定量的な基準を開発しようとしてきたものの、「知能」をどう定義するかは依然として非常に難しいと認めました。
彼は、「それらはすべて問題があり、物議を醸している。」
以上がシリコンバレーでの熱い議論: AI は人類を滅ぼすのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

7月5日のこのウェブサイトのニュースによると、グローバルファウンドリーズは今年7月1日にプレスリリースを発行し、自動車とインターネットでの市場シェア拡大を目指してタゴール・テクノロジーのパワー窒化ガリウム(GaN)技術と知的財産ポートフォリオを買収したことを発表した。モノと人工知能データセンターのアプリケーション分野で、より高い効率とより優れたパフォーマンスを探求します。生成 AI などのテクノロジーがデジタル世界で発展を続ける中、窒化ガリウム (GaN) は、特にデータセンターにおいて、持続可能で効率的な電力管理のための重要なソリューションとなっています。このウェブサイトは、この買収中にタゴール・テクノロジーのエンジニアリングチームがGLOBALFOUNDRIESに加わり、窒化ガリウム技術をさらに開発するという公式発表を引用した。 G
