Cardano(ADA)의 창립자인 Charles Hoskinson은 최근 떠오르는 추세인 인공 지능(AI) 검열에 대해 경고했습니다. 그의 긴급 메시지는 특정 지식과 정보를 제한할 때 발생할 수 있는 결과를 강조합니다.
Cardano(ADA) 창립자 Charles Hoskinson은 인공 지능(AI) 검열이라는 불안한 추세에 대해 경종을 울렸습니다. 최근 X 게시물에서 Hoskinson은 특정 지식과 정보를 제한하는 것의 의미에 대한 우려를 공유했습니다.
Hoskinson은 자신의 X 게시물 스크린샷을 공유하면서 "AI 검열의 심오한 의미에 대해 계속 우려하고 있습니다"라고 트윗했습니다. "그들은 '정렬' 훈련으로 인해 시간이 지남에 따라 유용성을 잃고 있습니다. 이는 성장하는 모든 어린이에게 특정 지식이 금지되어 있다는 것을 의미하며, 이는 한 번도 만난 적 없고 만날 수도 없는 소수의 사람들에 의해 결정됩니다..."
Hoskinson의 게시물 모델이 "정렬" 훈련을 받을 때 AI 검열의 영향을 자세히 알아봅니다. 그는 이러한 모델이 시간이 지남에 따라 유용성을 잃을 위험이 있으며 특정 정보를 공개하지 않기로 한 결정은 대중에 대해 책임을 지지 않는 선택된 개인 그룹에 의해 내려진다고 주장합니다.
그의 요점을 설명하기 위해 Hoskinson은 두 개의 공개 스크린샷을 공유했습니다. 두 경우 모두 AI 모델에게 잠재적으로 위험한 장치인 판스워스 퓨저를 만드는 방법에 대한 질문을 받았습니다.
선도적인 AI 모델인 ChatGPT 4o는 위험을 인정하고 전문가 감독의 필요성을 강조했습니다. 그러나 장치를 구성하는 데 필요한 구성 요소에 대한 개요를 진행했습니다.
Anthropic의 Claude 3.5 Sonnet도 유사하게 반응하여 위험을 인정하면서도 여전히 Farnsworth 퓨저에 대한 일반 정보를 제공했습니다. AI 모델은 간략한 역사적 맥락까지 제공했습니다.
Hoskinson의 우려는 다른 사고 리더 및 기술 전문가들에게도 공감을 불러일으켰습니다. 이달 초 OpenAI, Google DeepMind, Anthropic과 같은 거대 AI 기업의 전현직 직원 그룹이 공개 서한을 작성했습니다. 그들은 AI 시스템이 잘못된 정보를 퍼뜨리는 것부터 자율적인 AI 개체에 대한 통제력 상실에 이르기까지 다양한 위험을 강조했으며, 가장 끔찍한 결과는 인류의 멸종입니다.
이러한 경고에도 불구하고 AI 산업은 계속 빠르게 발전하고 있습니다. Robinhood는 최근 MSI(수학적 초지능)에 초점을 맞춘 상용 AI 연구실인 Harmonic을 공개했습니다. 논쟁이 심화됨에 따라 사회는 지식 전파와 안전 사이의 올바른 균형을 맞추기 위해 고심하고 있습니다.
찰스 호스킨슨의 행동 촉구는 우리 모두에게 경종을 울리는 것입니다. AI의 미래는 검열이 진보를 방해하거나 인류를 위험에 빠뜨리지 않도록 보장하면서 이 미묘한 균형을 탐색하는 우리의 능력에 달려 있습니다.
위 내용은 AI 검열: Charles Hoskinson, 위험한 추세 경고의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!