ChatGPT와 같은 생성적 AI 모델은 너무나 놀랍기 때문에 AI가 인간과 동등할 뿐만 아니라 종종 더 똑똑할 수 있다고 주장하는 사람들도 있습니다. 그들은 눈부신 스타일로 멋진 예술 작품을 선보입니다. 그들은 세부 사항, 아이디어, 지식이 가득한 텍스트를 작성할 수 있습니다. 그 결과 만들어진 인공물은 너무 다양하고 겉보기에 너무 독특해 기계에서 나온 것이라고 믿기 어려울 정도입니다. 우리는 생성 AI가 할 수 있는 모든 것을 이제 막 발견하기 시작했습니다.
일부 관찰자들은 이러한 새로운 인공 지능이 마침내 튜링 테스트의 문턱을 넘었다고 믿습니다. 다른 사람들은 임계값을 쉽게 초과할 수 없으며 단순히 과장된 것이라고 주장합니다. 그러나 이 걸작은 너무나 놀랍기 때문에 이미 많은 사람들이 실업 위기에 처해 있습니다.
하지만 사람들이 익숙해지면 생성 인공 지능의 아우라가 사라질 것입니다. 관찰자 그룹은 올바른 방식으로 질문을 하여 이러한 지능형 기계가 어리석거나 잘못된 말을 하게 만듭니다. 이게 요즘 유행이 됐어요. 밤에 태양 사진을 요구하거나 눈보라에 북극곰 사진을 요구하는 등 초등학교 미술 시간에 유행했던 오래된 논리폭탄을 사용한 이들도 있었다. 다른 사람들은 상식이라고도 알려진 AI의 상황 인식의 한계를 보여주는 기괴한 요청을 했습니다. 관심 있는 사람들은 생성 AI가 실패하는 패턴을 계산할 수 있습니다.
이 기사에서는 생성 인공 지능의 10가지 단점이나 결함을 제안합니다. 이 Qing Neng은 약간 신맛이 나는 포도로 읽을 수 있습니다. 왜냐하면 기계가 장악하도록 허용되면 그는 직업을 잃을 것이기 때문입니다. 나는 인간 팀을 지지하는 작은 사람이라고 말할 수 있지만, 인간이 기계와의 투쟁에서 영웅적인 모습을 보여줄 수 있기를 바랄 뿐입니다. 그래도 우리 모두 조금은 걱정해야 하지 않을까요?
DALL-E 및 ChatGPT와 같은 생성 AI 모델이 처음 구축되었을 때 실제로는 훈련 세트에 있는 수백만 개의 예제에서 새로운 패턴을 만들었고 그 결과는 잘라내기 및 붙여넣기의 합성이었습니다. 다양한 소스에서. 인간이 이런 짓을 하면 표절이라고 합니다.
물론 인간도 모방을 통해 배웁니다. 그러나 어떤 경우에는 빌리는 것이 너무 뻔해서 초등학교 교사를 불안하게 만들 수도 있습니다. AI가 생성한 이 콘텐츠는 큰 텍스트 덩어리로 구성되어 있으며 단어 단위로 표시됩니다. 그러나 때로는 대학 교수 그룹에게 건네주더라도 그 출처를 발견하기 어려울 정도로 충분한 혼합 또는 합성이 관련되어 있습니다. 어쨌든 그것의 독창성을 보는 것은 불가능합니다. 이 기계들은 아무리 반짝거려도 진정으로 새로운 작품을 만들어낼 수는 없었습니다.
표절은 주로 학교의 문제이지만 저작권법은 시장에도 적용됩니다. 한 사람이 다른 사람의 작업을 표절하면 법정에 회부되고 수백만 달러의 벌금이 부과될 위험이 있습니다. 하지만 인공지능은 어떨까? 그들에게도 동일한 규칙이 적용됩니까?
저작권법은 복잡한 주제이며 생성 AI의 법적 지위를 해결하는 데 수년이 걸릴 것입니다. 그러나 이것을 기억하십시오. AI가 인간을 실업 직전에 놓을 만큼 좋아 보이는 작업을 생성하기 시작하면 그들 중 일부는 분명히 새로운 여가 시간을 사용하여 소송을 제기할 것입니다.
제너레이티브 AI가 제기하는 법적 문제는 표절과 저작권만이 아닙니다. 변호사들은 이미 새로운 소송 윤리 문제를 꿈꾸고 있습니다. 예를 들어, 페인팅 프로그램을 만드는 회사는 인간 사용자의 페인팅 행동에 대한 데이터를 수집한 다음 해당 데이터를 사용하여 인공 지능을 훈련해야 할까요? 인간은 이러한 창조적 노동의 사용에 대해 보상을 받아야 합니까? 현 세대의 인공지능의 성공은 주로 데이터 획득에서 비롯됩니다. 그렇다면 데이터를 생성한 사람들이 파이 한 조각을 원하면 어떻게 될까요? 어느 것이 공정합니까? 합법적인 것으로 간주될 수 있는 것은 무엇입니까?
AI는 인간이 개발하는 데 수년이 걸리는 지능을 특히 잘 모방합니다. 인류학자들이 무명의 17세기 예술가를 소개하거나 거의 잊혀진 르네상스의 음조 구조를 사용하여 새로운 음악을 작곡할 때 우리는 깊은 인상을 받을 충분한 이유가 있습니다. 우리는 이러한 깊이 있는 지식을 개발하려면 수년간의 연구가 필요하다는 것을 알고 있습니다. AI가 단 몇 달의 훈련 후에 이와 동일한 작업을 수행하면 결과는 눈부시게 정확하고 정확할 수 있지만 일부 핵심 요소가 누락될 수 있습니다.
잘 훈련된 기계가 수십억 개의 기록으로 가득 찬 디지털 신발 상자에서 올바른 오래된 영수증을 찾을 수 있다면 Aphra Behn과 같은 시인에 대해 알아야 할 모든 것을 배울 수도 있습니다. 마야 상형문자의 의미를 해독하기 위해 기계가 만들어졌다고 믿을 수도 있습니다. AI는 인간 창의성의 장난스럽고 예측할 수 없는 측면을 모방하는 것처럼 보일 수 있지만 실제로는 그렇게 할 수 없습니다. 동시에, 예측 불가능성은 창의적인 혁신을 주도합니다. 패션과 같은 산업은 변화에 집착할 뿐만 아니라 변화에 의해 정의됩니다. 실제로 인공 지능이 그 자리를 차지하고 있지만 오래되고 힘들게 얻은 인간 지능도 마찬가지입니다.
지능에 있어서 인공지능은 본질적으로 기계적이고 규칙 기반입니다. AI가 훈련 데이터 세트를 처리하면 실제로 변경되지 않는 모델을 생성합니다. 일부 엔지니어와 데이터 과학자는 기계가 적응하는 방법을 배울 수 있도록 시간이 지남에 따라 AI 모델을 점진적으로 재교육하는 것을 계획하고 있습니다. 그러나 대부분의 경우 아이디어는 일부 지식을 고정된 형태로 인코딩하는 복잡한 뉴런 세트를 만드는 것입니다. 불변성은 그 자리를 차지하고 있으며 특정 산업에 적용될 수 있습니다. AI의 위험은 훈련 데이터의 시대정신에 영원히 갇혀 있을 것이라는 점입니다. 인간이 생성 AI에 너무 의존하여 더 이상 훈련 모델을 위한 새로운 자료를 생성할 수 없게 되면 어떻게 될까요?
AI용 훈련 데이터는 어딘가에서 와야 하며 신경망에서 무엇을 기대할 수 있는지 항상 확신할 수는 없습니다. AI가 훈련 데이터에서 개인정보를 유출한다면 어떻게 될까요? 더 나쁜 것은 AI가 매우 유연하게 설계되었기 때문에 AI를 잠그는 것이 훨씬 더 어렵다는 것입니다. 관계형 데이터베이스는 개인 정보가 포함된 특정 테이블에 대한 액세스를 제한할 수 있습니다. 그러나 AI는 수십 가지 다른 방식으로 쿼리할 수 있습니다. 공격자는 원하는 민감한 데이터를 얻기 위해 올바른 질문을 올바른 방법으로 묻는 방법을 빠르게 배울 것입니다. 예를 들어 특정 자산의 위도와 경도가 잠겨 있다고 가정해 보겠습니다. 영리한 공격자는 몇 주 후에 해가 뜨는 정확한 시간을 위치에 물어볼 수 있습니다. 충실한 AI가 답변을 시도합니다. 개인 데이터를 보호하기 위해 AI를 가르치는 방법은 아직 없습니다.
초기 메인프레임 프로그래머가 GIGO 또는 "Garbage in, Garbage out"이라는 약어를 만들었다는 것을 알고 있다면 그들이 컴퓨터 문제의 핵심 이후로 그것을 깨달았다는 것을 이해할 수 있습니다. AI의 많은 문제는 열악한 훈련 데이터에서 비롯됩니다. 데이터 세트가 부정확하거나 편향된 경우 결과는 반드시 이를 반영합니다.
생성 AI의 중심에 있는 하드웨어는 Spock만큼 논리 기반일 수 있지만 기계를 만들고 훈련시키는 인간은 그렇지 않습니다. 편견과 편애가 AI 모델에 적용되는 것으로 나타났습니다. 어쩌면 누군가 편향된 데이터를 사용하여 모델을 만들었을 수도 있습니다. 어쩌면 모델이 특정 인기 질문에 답변하지 못하도록 재정의를 추가했을 수도 있습니다. 어쩌면 하드 코딩된 답변을 입력하면 감지하기 어려워질 수도 있습니다. 인류는 인공지능이 우리의 해로운 믿음을 전달하는 훌륭한 수단이 되도록 보장하는 다양한 방법을 찾아냈습니다.
AI 모델은 다른 일도 잘하기 때문에 실수하는 것을 쉽게 용서합니다. 하지만 인공지능은 인간과 다르게 생각하기 때문에 예측하기 어려운 오류가 많습니다. 예를 들어, 텍스트-이미지 변환 기능을 사용하는 많은 사용자는 AI가 산술과 같은 상당히 간단한 작업을 잘못했다는 사실을 발견했습니다. 인간은 초등학교에서 기본적인 산수를 배우고, 그 후 다양한 방법으로 이 기술을 사용합니다. 10살짜리 어린이에게 문어의 스케치를 그리라고 하면 그 어린이는 다리가 8개라고 거의 확실하게 판단할 것입니다. 현재 버전의 인공 지능은 추상적이고 상황에 맞는 수학 사용에 있어서 어려움을 겪는 경향이 있습니다. 모델 작성자가 이 실수에 주의를 기울인다면 이는 쉽게 변경될 수 있지만 다른 실수도 있습니다. 기계 지능은 인간 지능과 다르며, 이는 기계의 어리석음도 다르다는 것을 의미합니다.
때때로 우리 인간은 자신도 모르게 인공지능의 공백을 메우는 경향이 있습니다. 누락된 정보를 채우거나 답변을 연결합니다. AI가 헨리 8세가 자신의 아내를 살해한 왕이었다고 말한다면 우리는 이 역사를 이해하지 못하기 때문에 이에 대해 의문을 제기하지 않을 것입니다. 우리는 카리스마 넘치는 스타 앞에서 응원할 때처럼 AI가 옳다고 미리 짐작할 뿐이다. 어떤 진술이 자신감 있게 들리면 인간의 마음은 종종 그것을 사실이고 올바른 것으로 기꺼이 받아들입니다.
생성 AI 사용자에게 가장 까다로운 문제는 AI가 언제 잘못되었는지 아는 것입니다. 기계는 인간처럼 거짓말을 할 수 없지만, 그래서 더 위험해집니다. 그들은 완벽하게 정확한 몇 가지 데이터를 생성한 다음 누구도 깨닫지 못한 채 추측으로 방향을 바꾸거나 심지어 노골적으로 비방할 수도 있습니다. 중고차 딜러나 포커 플레이어는 자신이 부정행위를 하고 있음을 아는 경향이 있으며, 대부분은 자신의 명예훼손 행위를 폭로하는 증거를 가지고 있습니다. 하지만 인공지능은 그렇지 않습니다.
디지털 콘텐츠는 무한히 복제 가능하며 이는 희소성을 중심으로 구축된 많은 경제 모델에 부담을 주었습니다. 생성 AI는 이러한 패턴을 더 많이 깨뜨릴 것입니다. 생성적 AI는 일부 작가와 예술가를 실직하게 할 것입니다. 또한 우리가 생존하기 위해 의존하는 많은 경제 규칙을 뒤집을 것입니다. 광고와 콘텐츠가 끝없이 리믹스되고 다시 태어날 수 있는데도 광고 지원 콘텐츠가 여전히 제 역할을 할 수 있을까요? 인터넷의 무료 부분은 로봇이 웹 페이지의 광고를 클릭하는 세상으로 축소될 것입니다. 이 모든 것은 생성 AI에 의해 제작되고 무한 복제됩니다.
이러한 풍요로움은 경제의 모든 구석구석을 혼란에 빠뜨릴 수 있습니다. 이러한 토큰이 영원히 복제될 수 있다면 사람들은 복제 불가능한 토큰에 대해 계속 비용을 지불하게 될까요? 예술을 만드는 것이 그렇게 쉬웠어도 여전히 존중받을 수 있을까요? 그래도 특별할까요? 특별하지 않다면 누구든지 신경 쓸까요? 당연하게 여겨지면 모든 것이 가치를 잃나요? 이것이 셰익스피어가 "터무니없는 행운의 돌팔매와 화살"이라고 말했을 때 의미한 것입니까? 이 질문에 스스로 답하려고 노력하지 맙시다. 답을 찾기 위해 생성 인공 지능을 살펴보겠습니다. 대답은 흥미롭고 이상하며 궁극적으로 옳고 그름 사이의 지하 세계에 신비롭게 갇혀 있을 것입니다.
출처: www.cio.com
위 내용은 생성 인공 지능이 걱정되는 10가지 이유의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!