GPT-4o는 ChatGPT의 대폭 향상된 모델로 도입되었습니다. 데뷔 이후 사람들은 ChatGPT-4o의 인간과 같은 상호 작용을 칭찬해 왔습니다. 이것이 훌륭하게 들리지만 OpenAI는 문제를 발견했습니다. 사람들은 챗봇을 인간으로 대하고 정서적 유대감을 형성하기 시작했습니다.
OpenAI는 사람들이 "연결 형성을 나타낼 수 있는" 언어를 사용하는 것을 관찰했습니다. 회사는 사람들이 "공유 유대"를 표현하는 언어를 사용하는 사례를 발견했다고 지적합니다. 이는 두 가지 주요 이유로 나쁜 소식으로 설명됩니다.
먼저 ChatGPT-4o가 인간처럼 보일 때 사용자는 챗봇에서 나오는 모든 환각을 무시할 수 있습니다. 맥락상 AI 환각은 기본적으로 모델에서 생성된 부정확하거나 오해의 소지가 있는 출력입니다. 이는 훈련 데이터에 결함이 있거나 불충분하기 때문에 발생할 수 있습니다.
둘째, 챗봇과 인간과 유사한 상호 작용은 사용자 간의 실제 사회적 상호 작용을 감소시킬 수 있습니다. OpenAI는 챗봇 상호 작용이 "외로운 개인"에게 잠재적으로 도움이 될 수 있지만 건강한 관계에도 영향을 미칠 수 있다고 말합니다. 회사는 또한 사람들이 상대방이 챗봇이라는 인식을 가지고 인간과 대화를 시작할 수도 있다고 지적합니다.
OpenAI는 사용자가 대화를 시작하면 대화를 중단하도록 GPT-4o를 설계했기 때문에 이는 좋지 않습니다. 이러한 모든 우려로 인해 회사는 이제 사용자가 ChatGPT-4o를 통해 감정적 유대감을 어떻게 발전시키는지 모니터링할 것이라고 밝혔습니다. OpenAI는 또한 필요한 경우 모델을 조정할 것이라고 말합니다.
Amazon에서 PLAUD Note AI 기반 음성 녹음기를 구매하세요
위 내용은 OpenAI는 사용자가 챗봇에 대한 감정을 발전시키는 것에 대한 우려를 표명합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!