GPT-4o は、ChatGPT の大幅に改良されたモデルとして導入されました。デビュー以来、人々は ChatGPT-4o の人間らしい対話を賞賛してきました。これは素晴らしいことのように聞こえますが、OpenAI は問題に気づきました。人々はチャットボットを人間として扱い、感情的な絆を形成し始めています。
OpenAI は、人々が「つながりの形成を示す可能性がある」言語を使用していることを観察しました。同社は、人々が「共有の絆」を表現する言葉を使用した例が見つかったと指摘している。これは主に 2 つの理由から悪いニュースと言われています。
まず第一に、ChatGPT-4o が人間のように見える場合、ユーザーはチャットボットから発せられる幻覚を無視できます。文脈としては、AI の幻覚は基本的に、モデルによって生成された不正確または誤解を招く出力です。これは、トレーニング データに欠陥があるか不十分なために発生する可能性があります。
次に、チャットボットとの人間のようなやり取りにより、ユーザー間の実際の社会的なやり取りが減少する可能性があります。 OpenAIは、チャットボットのやりとりは「孤独な人」にとって有益である可能性があるが、健全な関係に影響を与える可能性もあると述べている。同社はさらに、人々は相手がチャットボットであるという認識を持って人間と会話を始める可能性さえあると指摘している。
OpenAI は、ユーザーが話し始めると会話を停止するように GPT-4o を設計しているため、それは良くありません。これらすべての懸念を踏まえ、同社は今後、ユーザーがChatGPT-4oを使用して感情的な絆をどのように育むかを監視すると述べた。 OpenAIはまた、必要に応じてモデルを調整すると述べている。
AmazonからPLAUD Note AI搭載ボイスレコーダーを入手
以上がOpenAIは、ユーザーが自社のチャットボットに対して感情を抱くようになることに懸念を表明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。