4월 5일 뉴스 지난 6개월 동안 인간과 유사한 대화를 할 수 있는 챗봇부터 자동으로 실행되는 소프트웨어까지 강력한 새로운 인공지능(AI) 도구가 놀라운 속도로 확산되고 있습니다. 무(無)에서 만들어진 이미지 생성기에 소위 생성 인공 지능(AIGC)이 갑자기 널리 보급되고 점점 더 강력해지고 있습니다.
그런데 지난주부터 이런 AI 열풍에 대한 반발이 나타나기 시작했습니다. Tesla와 Twitter CEO Elon Musk가 이끄는 수천 명의 기술 전문가와 학자들이 "인류에 대한 심각한 위험"을 경고하고 AI 언어 모델 개발에 대한 유예를 촉구하는 공개 서한에 서명했습니다.
동시에 AI 연구 비영리 단체는 미국 연방거래위원회(FTC)에 ChatGPT를 만든 회사인 OpenAI를 조사하고 GPT-4 소프트웨어의 추가 상업적 출시를 중단해 줄 것을 요청하는 불만 사항을 제출했습니다.
이탈리아 규제 기관도 데이터 개인정보 침해를 이유로 ChatGPT를 완전히 차단하는 조치를 취했습니다.
어떤 사람들은 AI 연구의 중단이나 속도 저하를 요구하는데, 아마도 이는 이해할 수 있는 일입니다. 불과 몇 년 전만 해도 믿을 수 없거나 심지어 헤아릴 수 없을 것처럼 보였던 AI 애플리케이션이 이제 소셜 미디어, 학교, 직장, 심지어 정치에도 빠르게 침투하고 있습니다. 이러한 어지러운 변화에 대해 일각에서는 AI가 결국 인류 문명의 종말을 가져올 수도 있다는 비관적인 전망을 내놓고 있다.
좋은 소식은 전능한 AI에 대한 과대광고와 두려움이 과장될 수 있다는 것입니다. Google의 Bard와 Microsoft의 Bing이 인상적이지만 아직 'Skynet'이 되려면 멀었습니다.
안타까운 소식은 AI의 급속한 진화에 대한 사람들의 우려가 현실이 되었다는 것입니다. AI가 인간보다 더 똑똑해질 것이기 때문이 아니라, 인간은 이미 기존 조직이 준비하지 못한 방식으로 AI를 이용해 서로를 억압하고 착취하고 기만하고 있기 때문이다. 더욱이, 사람들이 AI가 더 강력하다고 인식할수록 그들과 기업은 AI가 할 수 없는 작업을 AI에 위임할 가능성이 더 커집니다.
비관적인 종말 예측 외에도 지난주에 발표된 두 가지 보고서를 통해 AI가 예측 가능한 미래에 미치는 영향에 대한 사전 이해를 얻을 수 있습니다. 첫 번째 보고서는 미국 투자은행 골드만삭스(Goldman Sachs)가 발표했으며 AI가 경제와 노동 시장에 미치는 영향을 주로 평가했으며, 두 번째 보고서는 유로폴(Europol)이 발표했으며 AI의 범죄적 남용 가능성에 중점을 두었습니다.
경제적 관점에서 볼 때 최신 AI 트렌드는 주로 한때 인간만이 하던 작업을 자동화하는 것입니다. 동력 직기, 기계화된 조립 라인, ATM과 마찬가지로 AIGC는 인간이 할 수 있는 것보다 더 저렴하고 효율적으로 특정 유형의 작업을 완료할 것을 약속합니다.
그러나 식료품점 셀프 계산대, 자동 전화 응답 시스템 또는 고객 서비스 챗봇을 사용해 본 사람이라면 누구나 증명할 수 있듯이 더 저렴하고 효율적이라고 해서 항상 더 좋은 것은 아닙니다. 이전의 자동화 물결과 달리 AIGC는 인간을 모방할 수 있으며 경우에 따라 인간을 가장할 수도 있습니다. 이는 광범위한 속임수로 이어질 수 있으며 고용주가 AI가 인간 근로자를 대체할 수 있다고 생각하도록 속일 수 있습니다.
Goldman Sachs의 연구 분석에 따르면 AIGC는 전 세계적으로 약 3억 개의 일자리를 변화시켜 수천만 명의 사람들이 일자리를 잃게 되지만 상당한 경제 성장도 촉진할 것으로 추정됩니다. 그러나 Goldman Sachs의 추정은 정확하지 않을 수 있으며 결국 예측 오류의 이력이 있습니다. 2016년에 은행은 가상 현실 헤드셋이 스마트폰만큼 유비쿼터스화될 수 있다고 예측했습니다.
골드만삭스의 AI 분석 보고서에서 가장 흥미로운 점은 다양한 산업, 즉 어떤 직업이 언어 모델로 강화될 수 있는지, 어떤 직업이 완전히 대체될 수 있는지를 세분화했다는 것입니다. Goldman Sachs 연구진은 화이트칼라 작업의 난이도를 1에서 7까지로 평가했습니다. 레벨 1은 "양식의 완성도 검토"이고 레벨 4는 "법정에서 복잡한 동의에 대한 판결"과 같이 자동화할 수 있는 작업입니다. 레벨 6이다. 이를 통해 도출된 결론은 행정 지원 및 법률 보조원 직무가 AI로 대체될 가능성이 가장 높고, 관리 및 소프트웨어 개발과 같은 직종은 더욱 생산적이 될 것이라는 것입니다.
보고서에서는 기업이 AI 기술을 갖춘 직원으로부터 더 많은 혜택을 얻게 되면서 이 세대의 AI가 결국 글로벌 GDP를 7% 증가시킬 수 있다고 낙관적으로 예측합니다. 그러나 Goldman Sachs는 또한 그 과정에서 미국인 중 약 7%가 자신의 경력이 사라지게 될 것이며 더 많은 사람들이 고용을 유지하기 위해 이 기술을 배워야 할 것이라고 예측합니다. 즉, AIGC가 좀 더 긍정적인 영향을 미치더라도 그 결과로 인해 많은 직원이 일자리를 잃을 수 있고, 사무실과 일상생활의 인간은 점차 로봇으로 대체될 것이다.
동시에 많은 기업은 이미 AI가 처리할 수 없는 작업을 지름길로 자동화하고 싶어합니다. 예를 들어 기술 웹사이트 CNET은 오류가 가득한 금융 기사를 자동으로 생성합니다. AI에 문제가 발생하면 이미 소외된 집단이 불균형적으로 영향을 받을 수 있습니다. ChatGPT 및 이와 유사한 분야에 대한 관심에도 불구하고 오늘날의 대규모 언어 모델 개발자는 얼굴 인식 및 범죄 위험 평가 알고리즘과 같은 AI 애플리케이션에 인종적 편견이 내장된 편향된 데이터 세트 문제를 아직 해결하지 못했습니다. 지난주에도 안면인식 불일치 문제로 흑인 남성이 또 억울하게 투옥됐다.
더욱 걱정스러운 점은 AIGC가 경우에 따라 의도적인 피해를 입히는 데 사용될 수 있다는 점입니다. Europol 보고서는 AIGC가 사기 및 사이버 공격과 같은 범죄를 저지르는 데 어떻게 사용되는지 자세히 설명합니다.
예를 들어, 챗봇은 특정 스타일의 언어를 생성하고 심지어 특정 사람의 목소리를 모방할 수 있어 피싱 사기를 위한 강력한 도구가 될 수 있습니다. 소프트웨어 스크립트 작성 시 언어 모델의 장점은 악성 코드 생성을 민주화할 수 있습니다. 개인화되고 상황에 맞는 단계별 조언을 제공하며 집에 침입하거나 누군가를 협박하거나 파이프 폭탄을 만들려는 범죄자에게 유용한 가이드가 될 수 있습니다. 우리는 합성 이미지가 어떻게 소셜 미디어에 허위 이야기를 퍼뜨릴 수 있는지, 딥페이크가 캠페인을 왜곡할 수 있는지에 대한 우려를 다시 불러일으키는 방법을 이미 살펴보았습니다.
언어 모델을 남용에 취약하게 만드는 것은 단지 그들의 방대한 지능뿐만 아니라 지식의 근본적인 결함이라는 점에 주목할 가치가 있습니다. 현재 최고의 챗봇은 사악한 목적으로 사용하려는 시도를 감지하면 침묵을 유지하도록 훈련되었습니다. 그러나 Europol이 지적했듯이 "ChatGPT가 잠재적인 악성 코드를 제공하지 못하도록 방지하는 보호 장치는 모델이 수행하는 작업을 이해하는 경우에만 효과적입니다." 문서화된 풍부한 트릭과 취약점이 보여주듯이 자기 인식은 여전히 기술의 약점 중 하나입니다.
이러한 모든 위험을 염두에 두고 AIGC 개발 속도가 느려지고 사회가 적응할 시간을 더 많이 주는 종말 시나리오에 대해 걱정할 필요가 없습니다. OpenAI 자체는 분기별 수익 목표를 달성해야 한다는 부담 없이 AI를 보다 책임감 있는 방식으로 구축할 수 있다는 전제 하에 비영리 단체로 설립되었습니다.
하지만 이제 OpenAI가 치열한 경쟁에서 선두를 달리고 있고 거대 기술 기업들은 AI 윤리학자들을 해고하고 있으며 말은 어차피 마구간을 떠났을 수도 있습니다. 학술 AI 전문가인 Sayash Kapoor와 Arvind Narayanan이 지적했듯이 현재 언어 모델 혁신의 주요 동인은 더 큰 모델을 추진하는 것이 아니라 우리가 보유한 모델을 다양한 애플리케이션과 도구에 통합하는 것입니다. 규제당국은 AI를 핵무기처럼 억제하려 하기보다는 제품 안전과 소비자 보호라는 관점에서 AI 도구를 보아야 한다고 주장한다.
아마도 단기적으로 가장 중요한 것은 기술 전문가, 비즈니스 리더 및 규제 기관이 당황함과 과대 광고를 제쳐두고 AIGC의 장점과 단점을 더 깊이 이해하여 AIGC를 채택할 때 더욱 신중할 수 있도록 하는 것입니다. . AI가 계속해서 역할을 수행한다면 무슨 일이 일어나더라도 그 영향은 파괴적일 것입니다. 그러나 그 능력을 과대평가하면 해를 덜 끼치는 것이 아니라 더 해롭게 될 것입니다.
위 내용은 미국 언론: AI의 지능에 놀라지 마세요. 진짜 무서운 점은 AI가 과대평가되고 남용된다는 점입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!