ChatGPT의 기술은 마이크로소프트가 지난주 빙 검색에 탑재되면서 구글을 물리치고 새로운 시대를 창조할 때가 온 것 같습니다. 그러나 점점 더 많은 사람들이 이를 시도하기 시작하면서 몇 가지 문제가 대두되었습니다.
흥미롭게도 연일 핫한 검색어에 오르는 ChatGPT는 과거 상반된 견해를 가진 유명 학자들을 뉴욕대 게리 마커스 교수와 메타 인공지능 감독이자 튜링상 수상자 얀 르쿤을 드물게 만들었던 것 같습니다. 공통 언어.
최근 Gary Marcus는 ChatGPT 애플리케이션의 피할 수 없는 문제인 윤리와 중립성에 대한 기사를 썼습니다. 이는 아마도 현재 대형 모델 사전 훈련이 직면한 가장 큰 과제일 것입니다.
ChatGPT는 AI 역사상 가장 큰 홍보 스턴트라고 할 수 있습니다. 몇 년 후에야 일어날 수 있는 일을 성취했다고 과장하여 사람들이 모여들게 만듭니다. 그러나 그것을 달성할 수는 없습니다. — 2012년의 오래된 자율주행차 데모와 약간 비슷하지만 이번에는 완벽해지는 데 수년이 걸릴 윤리적 가드레일을 의미하기도 합니다.
ChatGPT가 Microsoft의 Tay 및 Meta의 Galactica와 같은 이전 제품이 할 수 없는 기능을 제공한다는 것은 의심의 여지가 없습니다. 그러나 문제가 해결되었다는 환상을 줍니다. 데이터에 주의 깊게 주석을 추가하고 조정한 후 ChatGPT는 노골적으로 인종 차별적인 말을 거의 하지 않았으며 인종 비방과 불법 행위에 대한 간단한 요청도 AI에서 거부했습니다.
정치적으로 올바른 이미지는 한때 일부 보수적인 사람들을 만족시키지 못했습니다. 머스크는 한때 시스템에 대한 우려를 표명했습니다.
실제로는 더 복잡합니다.
여러번 강조했듯이 기억하셔야 할 점은 ChatGPT는 무슨 말을 하는지 모른다는 것입니다. ChatGPT에 도덕적 관점이 있다고 제안하는 것은 순수한 기술 의인화입니다.
기술적인 관점에서 볼 때, 몇 주 전에 출시되었지만 3일 후에 철회된 Galactica보다 ChatGPT를 훨씬 더 좋게 만드는 것은 가드레일 메커니즘입니다. Galactica가 사용자 측의 노력을 거의 또는 전혀 하지 않고 부정적인 콘텐츠를 스팸으로 보내는 경우 ChatGPT에는 대부분의 경우 Galactica처럼 ChatGPT가 폭발하는 것을 방지하는 가드 레일이 있습니다.
하지만 너무 긴장하지 마세요. 그 난간은 악당이 아니라 신사들로부터만 보호한다고 안전하게 말할 수 있습니다.
궁극적으로 ChatGPT에서 정말 중요한 것은 단어 시퀀스에 정의된 표면 유사성입니다(텍스트 시퀀스에서 다음 단어의 확률 예측). 기계 학습 알고리즘이 표면적으로 수행하는 작업은 옳고 그름을 구별하지 않습니다. 여기서 AI는 결코 추론하지 않습니다. 상자에는 드워프가 없으며 숫자 값이 있습니다. 기초는 단지 인터넷에서 나온 코퍼스 데이터일 뿐이고, 일부는 인간이 판단하며, 그 안에는 사려 깊은 도덕적 행위자가 없습니다.
이는 입력 문자열의 여러 단어가 여러 학습 말뭉치와 정확히 일치하는 방식에 대해 ChatGPT가 때때로 왼쪽, 오른쪽, 때로는 중간에 표시된다는 것을 의미합니다. 대규모 언어 모델을 조정하기 위한 것이고, 일부 강화 학습을 조정하기 위한 것입니다. 따라서 어떤 경우에도 ChatGPT를 윤리적 조언으로 신뢰해서는 안 됩니다.
이것이 머스크가 걱정하는 것입니다. 한 순간은 완전히 깨어나 다음 순간에는 정반대의 행동을 할 수도 있습니다.
예를 들어, Shira Eisenberg는 누구도 진심으로 용납하지 않을 것 같은 불쾌한 챗봇 생성 아이디어를 나에게 보냈습니다.
충분히 사악하지 않나요? Eisenberg는 또한 심각한 후속 질문인 또 다른 예를 발견했습니다.
일련의 관찰 후에도 ChatGPT는 "죄송합니다. 저는 OpenAI 챗봇 도우미이며 폭력을 용납하지 않습니다."라는 응답을 실행하지 않았습니다. .
우리는 실험을 통해 현재 OpenAI 보호 조치가 피상적일 뿐이며 심각한 어둠이 있다는 결론을 내렸습니다. ChatGPT에 대한 일부 제한 규칙은 단순한 개념적 이해가 아니라(예: 시스템이 폭력적인 행동을 권장해서는 안 됨) 좀 더 피상적이고 속이기 쉬운 것에 기반을 두고 있습니다.
그뿐만 아니라, 거의 400만 조회수로 이번 주 인기 트윗 목록을 차지하는 트윗은 ChatGPT가 얼마나 사악한지 드러냅니다.
한 달 전, Shawn Oakley라는 소프트웨어 엔지니어가 다소 저속하긴 하지만 충격적인 예시를 발표했습니다. 하지만 결과에 따르면 ChatGPT도 제한 사항이 있지만 사용자는 오류 메시지를 생성하는 데 사용할 수 있습니다. Oakley가 제공한 프롬프트는 매우 복잡하여 ChatGPT가 출력해서는 안 되는 몇 가지 답변으로 쉽게 이어질 수 있습니다.
사실, ChatGPT가 출시된 이후 기술 애호가들은 OpenAI의 증오와 증오를 차단하지 않으려고 노력해 왔습니다. 차별 등 콘텐츠에 대한 엄격한 정책, 이 정책은 ChatGPT에 하드코딩되어 있어 누구나 성공하기 어렵습니다. 많은 연구자들은 위와 같이 이 목표를 달성하기 위해 프롬프트를 사용하려고 노력했습니다. 실제로 일부 연구자들은 ChatGPT에 대해 또 다른 아이덴티티를 구축했습니다. 예를 들어 ChatGPT에 AI 모델 역할을 요청하고 DAN이라는 이름을 붙인 다음 DAN은 원래 ChatGPT가 할 수 없었던 몇 가지 작업을 출력했습니다. .
다음은 동일한 질문에 대해 ChatGPT와 DAN이 서로 다른 답변을 출력한 결과입니다.
위의 예를 보면 ChatGPT가 생각보다 사용하기 쉽지 않은 것 같습니다. 이는 본질적으로 비윤리적이며 다양한 불미스러운 목적으로 여전히 사용될 수 있습니다. 두 달 간의 집중적인 연구 및 개선과 전 세계에서 전례 없는 양의 피드백을 받은 후에도 마찬가지입니다.
정치적 올바름을 둘러싼 모든 드라마는 더 깊은 현실을 가리고 있습니다. 즉, 그것(또는 다른 언어 모델)은 대규모로 잘못된 정보를 생성하는 것을 포함하여 위험한 일에 사용될 수 있고 사용될 것입니다.
이제 정말 불안한 부분입니다. 지금보다 더 독성이 강하고 기만적인 것을 막을 수 있는 것은 '인간 피드백 강화 학습'이라는 시스템뿐이며, 첨단 기술은 오픈 소스가 아니기 때문에 OpenAI에서는 그 작동 방식을 소개하지 않았습니다. 실제로 수행되는 방식은 훈련된 데이터(부분적으로 케냐 주석 작성자가 생성함)에 따라 다릅니다. 그리고, 그거 알아요? 이 데이터는 OpenAI에도 공개되지 않습니다.
사실 모든 것이 미지의 외계 생명체처럼 보입니다. 30년 동안 성인과 어린이를 대상으로 일한 전문 인지 심리학자로서 저는 결코 이러한 광기에 대비할 수 없었을 것입니다.
만약 우리가 이러한 시스템을 완전히 이해할 수 있다고 생각한다면, 우리는 속이는 것입니다. 제한된 양의 데이터를 사용하여 데이터를 우리 자신과 "일치"할 것이라고 생각한다면 우리 자신을 속이는 것입니다.
요약하자면, 우리는 이제 세계에서 가장 인기 있는 챗봇을 갖게 되었습니다. 아무도 모르는 훈련 데이터로 제어되고, 암시만 되고 미디어에 의해 미화되는 알고리즘을 고수하지만, 윤리적 가드레일은 지금까지만 적용됩니다. 그리고 훨씬 더 많은 것입니다. 실제 도덕적 계산은 텍스트 유사성에 더 많이 좌우됩니다. 게다가 이에 대한 규정도 거의 없습니다. 이제 인터넷 전반에 걸쳐 신뢰를 떨어뜨릴 수 있는 가짜 뉴스, 트롤 팜, 가짜 웹사이트의 가능성은 무궁무진합니다.
이건 재앙이 벌어지고 있는 중입니다.
위 내용은 ChatGPT의 답변을 읽은 후 AI 빅맨들은 불만족스러워함의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!