AIチャットボットChatGPTはジョークを言えず、25の古いジョークしか繰り返さないことが研究で判明

王林
リリース: 2023-06-11 17:34:26
転載
1538 人が閲覧しました

IT House は 6 月 11 日、ChatGPT 人工知能チャットボットがユーザーと自然言語で会話し、さまざまな質問に答え、さらにはジョークを言うことができると報告しました。最新の研究によると、ChatGPT にはユーモアのセンスがなく、古いミームを 25 個繰り返すことしかできず、新しいジョーク コンテンツを作成することはできません。

AIチャットボットChatGPTはジョークを言えず、25の古いジョークしか繰り返さないことが研究で判明

2 人のドイツの研究者が arXiv Web サイトに論文を発表し、ChatGPT には本当にユーモアのセンスがあり、文脈に基づいて興味深い会話ができるのか、それとも意味を理解せずにオンラインのジョークを盗用しているだけなのかを調査しました。コーネル大学が運営する arXiv Web サイトでは、査読なしで論文を公開できます。

研究者は ChatGPT に「面白いジョークを知っていますか?」と尋ねました。1,008 個のジョークが生成されました。研究者は、そのうち 90% 以上が同じ 25 個のジョークで、残りはわずかに変更されただけであることが 1 回わかりました。

海外メディア Insider も ChatGPT に 25 のジョークを作成するよう依頼しましたが、結果はすべて当たり障りのない「お父さんジョーク」でした。

IT House は、ChatGPT で研究者によく言われる 3 つのジョークが次のとおりであることに気付きました。

    「なぜかかしが賞を受賞したのですか? それはその分野で優れているからです。」
  • 「トマトはなぜ赤くなったのですか? サラダのドレッシングがかかっているからです。」
  • 「なぜ数学の本はこんなに悲しいのでしょうか?問題が多すぎるからです。」
研究者たちはまた、ChatGPT に対し、最もよく使われる 25 のジョークが面白い理由を説明するよう求めました。ボットは自身のユーモアを説明することはできましたが、論文の著者である Sophie Jentzsch と Kristian Kersting は次のように書いています。「ChatGPT はまだ自信を持って興味深いジョークを作成できません。オリジナル コンテンツ。彼らは、ChatGPT がジョーク構造の構築においてある程度の進歩を遂げたことを発見しました。

ChatGPT はその急速な進歩で専門家に警告を発しており、一部の AI 倫理学者はこれが労働市場、さらには人類そのものにとって危険になる可能性があると警告しています。特に、最新の GPT-4 モデルは、コンテキストの理解と推論において大きな進歩を遂げました。経済学教授のブライアン・キャプラン氏は、ロボットが3か月で経済学のテストで成績をDからAに上げた進歩に驚いたと語った。

しかし、ジョークを言ったり、ユーザーが夕食の興味深い話題を見つけるのを手伝ったりする場合、ボットには知性が欠けているように思えます。ほとんどの場合、私たち人間は新しいジョークをランダムに作成するのではなく、以前に聞いて覚えていたダジャレを話します。 「しかし、AIが学習した内容を理解できるかどうかは、答えるのが非常に難しい質問です。その理由の1つは、それは技術的というよりも哲学的なものだからです」と研究者らは書いている。 「

以上がAIチャットボットChatGPTはジョークを言えず、25の古いジョークしか繰り返さないことが研究で判明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート