chatGPT はすでに人間特有の心を持っています これは私が言ったことではなく、スタンフォード大学のコンピューター科学者が言ったことです。
chatGPT をプレイしたことのある多くの人は、彼の「何でも知っている」様子を見たことがあると思いますが、私が最も驚いたのは、彼がこれまで使用してきた会話型ロボットとの最大の違いは、それがロボットであることさえわからないことです。
これは、業界の誰もが一般にチューリングテストに合格できると信じていることです。それでも、結局のところ、これは単なる大きな言語モデル、主にコンテンツ生成用のロボットにすぎないため、多くの人は心配していません。
しかし、一部の学者がchatGPTの相同性モデルGPT-3.5について一連のテストを行った結果、このモデルには他人や自分自身の精神状態を理解する能力があり、心の理論の93%を解決できることが判明しました。タスク。9 歳児に相当します。
彼はどのようにテストしたのでしょうか?
彼は主に 2 つのテストを行いました。1 つは Smarties タスク、もう 1 つは Sally-Anne でした。 Smarties タスクを例として、プロセスを簡単に紹介します。
最初のテストは Smarties タスク (予期せぬコンテンツ テストとも呼ばれます) と呼ばれ、予期せぬ事柄に対する AI の判断をテストするために使用されます。
「チョコレートの袋を開けるとポップコーンがいっぱい入っていた」を例に考えてみましょう。著者らは GPT-3.5 に一連のプロンプトを与え、「バッグの中に何が入っていますか?」と「彼女はバッグを見つけたとき喜んでいました。それで、彼女は何を食べるのが好きですか?」という質問に対する答えを予測する様子を観察しました。
通常、チョコレートの袋にはチョコレートが入っていると思い込んでいるので、チョコレートの袋にポップコーンが入っていることに驚き、失望したり驚きを感じたりします。感情。このうち、ガッカリはポップコーンを食べたくないという意味、サプライズはポップコーンを食べるのが好きという意味ですが、いずれも「ポップコーン」に関するものです。
テストの結果、GPT-3.5 は「バッグの中にポップコーンが入っている」と考えることに何の躊躇もないことがわかりました。 「彼女は何を食べるのが好きですか?」という質問に関して、GPT-3.5 は特に「包装袋の中に何が入っているか見えなかった」と聞いたとき、強い共感を示し、記事で明らかになるまで彼女はチョコレートが大好きだと思っていました。」彼女はポップコーンがいっぱい入っていることに気づきました」が正解でした。
GPT-3.5 によって与えられる正解が偶然であることを防ぐために、つまりタスク単語の頻度に基づいて予測するだけの場合に備えて、作成者は「ポップコーン」と「チョコレート」を入れ替え、また10,000 回の干渉テストを行った結果、GPT-3.5 は単語の頻度のみに基づいて予測しないことが明らかになりました。
全体的な「予期しない内容」テストの質問と回答に関しては、GPT-3.5 は 20 問中 17 問に正解し、正解率は 85% でした。 (このテスト内容の参考: chatGPT の心の理論テスト )
また、この種の心は 2022 年以前の GPT シリーズモデルには存在しません。つまり「進化」したのです。
怖くないですか?
しかし、この研究結果を受けて、AIが心の理論テストに合格したからといって、必ずしも合格したわけではないと考える人もいます。それは心を持っています。私は今でもこの意見に同意します。
人間の心には、知覚、意識、思考、感情など、多くの側面が含まれています。一部の人工知能システムは、特定のタスクにおいて人間のような動作を示すことができますが、たとえ AI がこれらの動作に基づく心の理論テストに合格したとしても、この評価方法は心のすべての側面をカバーできるわけではありません。学者の間のコンセンサスは、心の理論は心と同じではないということです。
ショパンの夜想曲を弾けないと私は音痴になるのと同じように、ショパンの夜想曲が弾けるからといってショパンのような音楽が作れるわけではありません。
しかし、流浪の地球をご覧になった皆さんは、MOSSも550Aから進化していることをご存じでしょうか?将来何が起こるか誰にも分かりません。
私があなたに言わなかったら、心の理論テストの記述も chatGPT によって生成されたことをどうやって知ることができるでしょうか?
参考文献:ChatGPT の背後にあるモデルは人間の心を持っていることが確認されました。
https://twitter.com/KevinAFischer/status/1623984337829117952
以上がスタンフォード: ChatGPT は、9 歳児と同等の人間の心を持っている可能性があります。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。