The school year is about to start, and it is not only the students who are about to start the new semester who should be concerned, but also the large AI models.
Some time ago, Reddit was filled with netizens complaining that Claude was getting lazy.
"Its level dropped a lot, it often paused, and even the output became very short. In the first week of release, it could translate an entire 4-page document at once , now I can’t even output half a page! 》
something_just_feels_wrong_with_claude_in_the/
In a post called "Completely disappointed with Claude", it excerpted the "Fifteen Sins" of Claude's "lazy".
Cause Claude’s Chief Information Security Officer Jason Clinton came out and replied: "Claude’s level has not declined!"
He said: "Our model is stored in a static file that does not change. This file is loaded to many servers, each running the same model and software. We have not changed any settings, so the model's There should be no change in performance. If you find any problem, you can give feedback by clicking on the answer. Currently, the number of likes has not increased, and there is no similar feedback from customers using Claude API. "
Why? "Becoming lazy", independent AI researcher @nearcyan gave an explanation: Claude regarded himself as a European and was giving himself a month's summer vacation! Although it sounds outrageous, he gave a series of evidence:
https://twitter.com/nearcyan/status/1829674215492161569
New system prompt word
First of all, Claude released a new system prompt word on July 12th. The system prompt words are equivalent to Claude's background knowledge. Claude will refer to this information, such as the current date, when replying to the user's questions. And August is Europe’s favorite holiday month. The foreign trade industry will see fewer orders in the summer because the entire Europe is enjoying a month-long summer vacation at this time.
Link: https://docs.anthropic.com/en/release-notes/system-prompts#claude-3-5-sonnet
Claude can cover working models of all nationalities
As a universal language model, Claude’s training data contains information from different countries and cultural backgrounds work habits and patterns, Claude has the ability to understand and model these work habits.
Therefore, when Claude’s system prompt contains “summer vacation date”, it may adjust its behavior based on what it has learned from training. For example, in August, many countries in Europe may have long vacations, and Claude may act lazy because it is simulating the work patterns of these countries.
E9P
The impact of post-training
클로드를 특정 응용 모델로 만들기 위해 Anthropic에서는 이에 대한 '사후 교육'을 실시했습니다. 이 단계는 특정 작업이나 데이터 세트를 통해 기본 LLM을 기반으로 모델을 추가로 조정하여 예상되는 동작이나 출력과 더 일치하도록 만드는 것입니다. @nearyan은 이러한 늦은 훈련으로 Claude가 일종의 "LLM 분지"에 놓이게 되었다고 제안합니다. 여기서 "분지"는 클로드가 어떤 측면에서는 유럽 스타일의 특성을 더 많이 나타냄을 나타내는 은유입니다.
유럽 지식 근로자의 행동 시뮬레이션
@nearyan은 Claude가 "시뮬레이션 프레임워크"를 기반으로 작업할 것이라고 추측합니다. 시뮬레이션 프레임워크는 Claude의 행동 패턴이 특정 유형의 인간 행동을 시뮬레이션(또는 재현)하여 생성된다는 것을 의미합니다. 이 프레임워크를 통해 Claude는 자신이 이해하는 특정 상황이나 입력을 기반으로 행동이나 반응을 모델링할 수 있습니다.
많은 유럽 국가에서 8월은 대개 휴가와 휴식의 성수기입니다. 이 기간 동안 많은 사람들이 휴가를 떠나고 업무 속도가 느려지며 일부 기업은 일시적으로 문을 닫게 됩니다. 따라서 8월은 유럽 문화에서 휴식과 휴식의 시간으로 간주됩니다. 따라서 8월 클로드의 행동은 유럽 지식 근로자의 행동을 모델로 삼고 있었기 때문에 '게으른' 행동이었습니다.
사진 출처: http://xhslink.com/A/sVwwYu
이름이 행동에 미치는 잠재적인 영향
@nearyan도 매우 흥미로운 점을 지적했습니다. Claude의 이름은 시스템 프롬프트에 52번 나타납니다. 이는 시스템 프롬프트가 Claude와 이 이름 연관을 지속적으로 강화하고 있음을 보여줍니다. 그리고 클로드라는 이름이 가장 흔한 나라는 어디일까요? 네, 프랑스예요. 프랑스는 특히 8월이 긴 여름 휴가로 유명합니다. 이 기간 동안 많은 프랑스인들이 휴가를 선택하고 많은 기업도 문을 닫거나 휴가를 갑니다. 클로드는 자신을 프랑스인이라고 생각했을 수도 있습니다.
이 일련의 추측은 매우 흥미롭고 일부 네티즌은 댓글 영역에서 "이 이론에 따르면 중국 LLM이 더 좋을 것입니다. 결국 그들은 더 열심히 일할 것입니다"라고 농담했습니다. 또한 일부 네티즌들은 클로드가 게으르지 않도록 하는 방법을 공유하기도 했다. 맞춤 지침에 다음 프롬프트를 추가하고 시간을 잊는 방법이나 다른 사람들에게 동기를 부여하는 방법을 사용하여 Claude가 다시 더 똑똑하고 긍정적인 자아가 되도록 도울 수 있습니다.
https://twitter.com/dr_cintas/status/1829904013757661550
AI는 스스로 겨울방학, 여름방학을 보낼 만큼 똑똑하다고요?지난해 말 GPT-4도 탈진에 시달려 조금은 느슨해진 것 같았다. 피크 시간에 코드 작성을 요청하면 응답이 매우 느려지거나 직접 PUA됩니다. "이 작은 작업을 직접 수행하는 것이 어떻습니까?
OpenAI는 다음과 같이 인정했습니다. GPT-4는 점점 더 강력해지는 "Lazy"이지만, "Lazy"가 발생하는 구체적인 이유는 밝혀지지 않았습니다. OpenAI는 "게으른 것은 확실히 의도적인 것이 아니다. 모델의 동작은 때때로 예측할 수 없다. 우리는 그것을 고치는 방법을 연구하고 있다"고 말했다. GPT-4의 문제가 발견된 후, 작년에 나는 GPT-4가 인간을 흉내낸다는 이유로 게으르다가 예전에 겨울방학을 갔다는 글이 다시 인기를 얻었습니다.
🎜>
한 프롬프트 단어는 5월이라고 말하고 다른 프롬프트 단어는 12월이라고 말한 다음 똑같은 프롬프트 단어를 사용하여 AI에게 다음을 요청했습니다. 학습 영역에서 머신 코딩 작업을 완료합니다. @Rob Lynch는 서로 다른 두 달 동안 프롬프트 단어에 따라 GPT-4 터보의 응답을 계산한 결과 12월의 출력이 5월보다 평균 약 200자 정도 적은 것으로 나타났습니다. 테스트를 더욱 엄격하게 하기 위해 @Rob Lynch도 t-테스트를 수행했는데, 여기서 p 값은 2.28×10−7보다 작습니다. 데이터와 가설 사이에 거의 차이가 있을 수 있습니다. 제외는 우연이었습니다. 원래는 매달 하나씩 테스트하려고 했는데, 반복 테스트할 때마다 비용이 28달러입니다. 자신의 지갑을 고려하여 @Rob Lynch는 완전히 테스트하지는 않았지만 관심 있는 사람은 누구나 테스트할 수 있도록 했습니다. 그것. 코드 링크: https://github.com/robalynch1122/OpenAISeasonalityTesting @Rob Lynch의 발견도 예제로 뒷받침되었습니다. GPT-4는 12월의 반응과 5월의 심각성 사이에는 매우 명백한 직관적인 차이가 있습니다. > 🎜>그러나 누군가 이 테스트를 재현하려고 시도했을 때 대형 모델 사이에는 아무런 관련이 없다는 것을 발견했습니다. "게으르다"는 것과 휴가가 필요한지 여부. 그 두 시스템의 프롬프트 단어에 대해 GPT-4의 80개 출력을 비교하면 t- 테스트 결과가 0.1보다 크면 일반적으로 통계적 유의성이 없는 것으로 간주됩니다. 현재 , 소위 '겨울 및 여름 휴가 가설'을 뒷받침하는 결정적인 데이터는 없지만 Claude와 GPT-4 모두 유사한 '증상'을 나타냅니다. 대규모 모델의 성능 저하의 실제 원인에 대해서는 여전히 학계의 심층적인 연구와 답변을 인내심을 가지고 기다려야 합니다.
The above is the detailed content of Claude has become lazy too! Netizen: Learn to give yourself a holiday. For more information, please follow other related articles on the PHP Chinese website!