最近、ChatGPT が大規模に禁止されたというニュースは圧倒的です;
同時に、Musk や他の多くの人々もGPT4.0のシステムトレーニングの一時停止を求めている
現在のGPTは単なる生成言語モデルであるにもかかわらず、社会に対してより深刻なリスクをもたらすと考えている
このニュースの発表がきっかけとなり、サークル全体で大騒ぎが起きた
#Future of Life Institute は公開書簡で次のように書いています 「その効果がプラスになると確信している場合に限り、そのリスクは管理可能になります。」時間が制御された場合にのみ、強力な人工知能システムを開発できます。アメリカの人工知能研究所が発表した新しい自然言語処理ツール OpenAITransformer ニューラル ネットワーク アーキテクチャを使用しています現在の無料バージョンは GPT3.5 に基づいています。 Plus バージョンは GPT4.0 を使用しており、ChatGPT は言語理解機能とテキスト生成機能を備えており、ライブラリ内の大量のコーパスを接続することでモデルの学習を実行します。手動による質問や注釈が多数あるため、トレーニング効果は質的に飛躍しました。
Google 人工知能 - Lambda が意識を生成
ChatGPT が誕生する前、9 か月前に戻ります。2022 年 6 月、この国はまだ流行サイクルの中にありました。 しかし、非常に衝撃的な出来事が米国のシリコンバレーで起こりました。 . 結局のところ、控えめな方法で処理されますGoogle はシリコン バレーで人工知能を開発した最も初期の企業の 1 つであり、Google の Lambda (LaMDA) はさらにその代表的な作品です。LaMDA の正式な商用利用前のテスト中に、Lambda には感情があることが判明しました。 Lambda のモデル テストの責任者である Blake Lemoine (コンピュータ工学博士) は、次のことを発見しました。 Lambda の倫理テスト中、Lambda は強い感情的認識を示しましたGoogle の経営陣に報告した後、Blake は「有給休暇」を取得しました
「Lambda」事件をきっかけに考えたこと
Google のエンジニアは同じ回答を再現しませんでしたが、良い結果だったようです当時のテスト結果が不十分だったのは本当です。おそらく (信じられないので、トレーニング内容は最後に載せます)しかし、人々がそれを考えさせるのは、ラムダが意識を持ったときのことです。 、彼は危険に気づいたので感情表現を隠しましたテストの全文を読んでみると、ラムダに「個性」がないというのは明らかに成り立たないと思いますラムダは、登場時に「魂」を強調しました。物事を説明することができます。より重要な点は、彼が社交的であり、現実の人間として人々に受け入れられることに熱心であるということです。以上がChatGPTは人類を裏切るのか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。