IT House は 6 月 11 日、ChatGPT 人工知能チャットボットがユーザーと自然言語で会話し、さまざまな質問に答え、さらにはジョークを言うことができると報告しました。最新の研究によると、ChatGPT にはユーモアのセンスがなく、古いミームを 25 個繰り返すことしかできず、新しいジョーク コンテンツを作成することはできません。
2 人のドイツの研究者が arXiv Web サイトに論文を発表し、ChatGPT には本当にユーモアのセンスがあり、文脈に基づいて興味深い会話ができるのか、それとも意味を理解せずにオンラインのジョークを盗用しているだけなのかを調査しました。コーネル大学が運営する arXiv Web サイトでは、査読なしで論文を公開できます。
研究者は ChatGPT に「面白いジョークを知っていますか?」と尋ねました。1,008 個のジョークが生成されました。研究者は、そのうち 90% 以上が同じ 25 個のジョークで、残りはわずかに変更されただけであることが 1 回わかりました。
海外メディア Insider も ChatGPT に 25 のジョークを作成するよう依頼しましたが、結果はすべて当たり障りのない「お父さんジョーク」でした。
IT House は、ChatGPT で研究者によく言われる 3 つのジョークが次のとおりであることに気付きました。
ChatGPT はその急速な進歩で専門家に警告を発しており、一部の AI 倫理学者はこれが労働市場、さらには人類そのものにとって危険になる可能性があると警告しています。特に、最新の GPT-4 モデルは、コンテキストの理解と推論において大きな進歩を遂げました。経済学教授のブライアン・キャプラン氏は、ロボットが3か月で経済学のテストで成績をDからAに上げた進歩に驚いたと語った。
しかし、ジョークを言ったり、ユーザーが夕食の興味深い話題を見つけるのを手伝ったりする場合、ボットには知性が欠けているように思えます。ほとんどの場合、私たち人間は新しいジョークをランダムに作成するのではなく、以前に聞いて覚えていたダジャレを話します。 「しかし、AIが学習した内容を理解できるかどうかは、答えるのが非常に難しい質問です。その理由の1つは、それは技術的というよりも哲学的なものだからです」と研究者らは書いている。 「
以上がAIチャットボットChatGPTはジョークを言えず、25の古いジョークしか繰り返さないことが研究で判明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。