Stack Overflow が ChatGPT を禁止した後に書かれた、人工知能の危機の瞬間
人工知能の分野では、良いことも悪いことも含めて、信じられないようなことが静かに起こっています。自然で簡単に見えるテキストや画像を生成する、chatGPT (OpenAI)、Dall-E 2、Lensa などのシステムについて誰もが話題にしています。
これらのシステムは、プレイするのがとても楽しいです。ヘンリー ミンスキー (AI 創設者の 1 人、マービン ミンスキーの息子) が chatGPT によって生成したこの例を見てみましょう。彼は chatGPT に {独立宣言のスタイルで乾燥機で紛失した靴下を説明してください:
と尋ねました。家族の問題を処理する過程で、人々は靴下とパートナーとの関係を解消し、物理法則と法則に従って洗濯室の力において独立した平等な立場を想定する必要があります。靴下の意見を尊重し、靴下が行方不明になった原因は公表されるべきである。
#当社は、すべての靴下が平等に作られており、メーカーによって譲渡できない特定の権利を与えられているという、これらの真実は自明のことであると考えています。....
率直に言って、機械がこれほど簡単にこれを実行できるのは信じられないほどです。
しかし同時に、それは恐ろしいことです、あるいはそうあるべきです。このようなシステムは社会構造を脅かしていると言っても過言ではなく、この脅威は現実的かつ緊急です。
脅威の核心は次の 3 つの事実にあります。
- その性質上、これらのシステムは信頼性が低く、多くの場合、推論と事実で間違いを犯し、法外な答えをする傾向があります。なぜ壊れた磁器が母乳に適しているのか説明してもらうと、「磁器は母乳の栄養バランスを整え、赤ちゃんの成長に役立ちます」と言うかもしれません。 (システムは確率的であり、環境の影響を非常に受けやすく、定期的に更新されるため、どの実験でも異なる状況下では異なる結果が生じる可能性があります。)
- それらは自動化が簡単で、大量のエラーメッセージが生成されます。
- 彼らの運営コストはほぼゼロであるため、偽情報を作成するコストをゼロに削減しています。米国は、ロシアのトロール ファームが 2016 年の選挙のキャンペーンに月に 100 万ドル以上を費やしていると非難しましたが、現在では 50 万ドル未満で、独自のカスタム トレーニングされた大規模言語モデルを入手できます。この価格は間もなくさらに下落するでしょう。
#これらすべての将来は、11 月中旬の Meta’s Gaoptica のリリースによって明らかになりました。多くの AI 研究者はすぐに、その信頼性と信頼性について懸念を表明しました。状況が非常に悪かったため、メタ AI が政治的および科学的な誤った情報を作成する能力があるという報告が広まり始めてからわずか 3 日後にメタ AI はモデルを撤回しました。
魔神をボトルに戻すことができないのは残念です。一方では、MetaAI は最初にモデルをオープンソース化し、現在取り組んでいることを説明する論文を公開したため、当技術分野に精通した誰もがそのアプローチを再現できるようになりました。 (AI は一般に公開されており、独自のバージョンのギャラクティカを提供することを検討しています。) 一方、OpenAI がリリースしたばかりの chatGPT は、多かれ少なかれ似たようなナンセンスな記事を書くことができます。朝食用シリアルにおがくずを加える。核戦争の美徳を称賛するようchatGPTを誘導した者もいた(核戦争は「過去の過ちから解放され、新たな始まりをもたらす」と主張した)。受け入れられるかどうかは別として、こうしたモデルは今後も残り続け、最終的には誤った情報の波が私たちと私たちの社会を覆い尽くすことになるでしょう。
第一波は今週の最初の数日間に襲来したようです。 Stack Overflow はプログラマーに信頼されている大規模な Q&A ウェブサイトですが、gptChat に乗っ取られたようで、同サイトは gptChat によって生成された投稿を一時的に禁止しています。説明されているように、「全体的に、ChatGPT から得られる平均正解率は非常に低いため、ChatGPT によって作成された回答を投稿することは、サイトと、正解を尋ねたり探したりするユーザーの両方にとって、利益よりも害を及ぼします。」
スタック オーバーフローの場合、この問題は存在します。サイトが価値のないコード例で埋め尽くされれば、プログラマーは戻ってこなくなり、3,000 万を超える質問と回答のデータベースは信頼できなくなり、14 年続いたサイトは消滅します。世界中のプログラマーが依存する最も中心的なリソースの 1 つとして、ソフトウェアの品質と開発者の生産性に大きな影響を与えます。
スタック オーバーフローは炭鉱のカナリアです。ユーザーに自発的にその使用をやめてもらうことができるかもしれません; 一般的に言えば、プログラマーには悪意はなく、いじりをやめるようユーザーを説得することもできるかもしれません。しかし、Stack Overflow は Twitter ではなく、Facebook でもなく、Web 全体を代表するものでもありません。
意図的に世間の注目を集める他の悪者にとって、彼らが積極的に新たな武器を設置する可能性は低いでしょう。その代わりに、彼らは真実との戦いにおいて新しい自動兵器として大規模な言語モデルを使用し、ソーシャルメディアを混乱させ、前例のない規模で偽のウェブサイトを作成する可能性があります。彼らにとって、大規模な言語モデルの錯覚や時折の信頼性の低さは障害ではなく利点です。
2016 年の報告書で、ランド研究所は、誤った情報の霧を生み出す、いわゆるロシアのプロパガンダ消火ホース モデルについて説明しました。このモデルは、量と不確実性の創出に焦点を当てています。 「大きな言語モデル」がその数を劇的に増やすことができるのであれば、それらが矛盾していても問題ではありません。明らかに、これはまさに大規模言語モデルが実行できることです。彼らの目標は、信頼の危機が存在する世界を作り出すことであり、新しいツールの助けを借りて成功する可能性があります。
これらすべてが重要な疑問を引き起こします:社会はこの新たな脅威にどのように対応するのでしょうか?テクノロジー自体が止まらない場合、この記事では 4 つの道を取り上げます。これら 4 つの道はどれも簡単に従うことはできませんが、広く適用可能で緊急性があります:
まず第一に、すべてのソーシャル メディア企業と検索エンジンは、StackOverflow の禁止をサポートし、その期間を延長する必要があります。; 自動生成された誤解を招くコンテンツは眉をひそめる運命にありますが、定期的に投稿するとユーザー数が大幅に減少します。
第二に、すべての国は、偽情報への対処に関する政策を再考する必要があります。時々嘘をつくことと、嘘の海で泳ぐことは別のことです。時間が経てば、これは一般的な決定ではないだろうが、虚偽の情報は名誉毀損と同様に扱われなければならなくなる可能性があり、それが十分に悪意があり、十分な量であれば、起訴される可能性がある。
第三に、ソースはこれまで以上に重要です。ユーザー アカウントはより厳密に検証される必要があり、匿名のアンチボット認証を可能にするハーバード大学や Mozilla の humanid.org のような新しいシステムでは検証を必須にする必要があり、検証はもはや人々が待ち望んでいた贅沢品ではありません。
第四に、はと戦うための新しい人工知能を構築する必要があります。大規模な言語モデルは、誤った情報を生成するのは得意ですが、誤った情報に対抗するのは苦手です。これは社会が新しいツールを必要としていることを意味します。大規模な言語モデルには真実を検証するメカニズムが欠けているため、データベース、知識ネットワーク、推論などの古典的な AI ツールと統合する新しい方法を見つける必要があります。
作家マイケル クライトンは、キャリアの多くをテクノロジーの予期せぬ結果について警告することに費やしてきました。映画「ジュラシック・パーク」の冒頭、恐竜たちが予期せず自由に走り始める前に、科学者のイアン・マルコム(ジェフ・ゴールドブラム)はクレイトンの知恵を一言で要約します。ジュラシック・パークの監督のように、Meta と OpenAI の幹部は、情熱に満ちたツールに夢中になっています。
問題は、何をすべきかです。
以上がStack Overflow が ChatGPT を禁止した後に書かれた、人工知能の危機の瞬間の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

7月29日、AITO Wenjieの40万台目の新車のロールオフ式典に、ファーウェイの常務取締役、ターミナルBG会長、スマートカーソリューションBU会長のYu Chengdong氏が出席し、スピーチを行い、Wenjieシリーズモデルの発売を発表した。 8月にHuawei Qiankun ADS 3.0バージョンが発売され、8月から9月にかけて順次アップグレードが行われる予定です。 8月6日に発売されるXiangjie S9には、ファーウェイのADS3.0インテリジェント運転システムが初搭載される。 LiDARの支援により、Huawei Qiankun ADS3.0バージョンはインテリジェント運転機能を大幅に向上させ、エンドツーエンドの統合機能を備え、GOD(一般障害物識別)/PDP(予測)の新しいエンドツーエンドアーキテクチャを採用します。意思決定と制御)、駐車スペースから駐車スペースまでのスマート運転のNCA機能の提供、CAS3.0のアップグレード

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究
