20세기와 21세기의 수많은 기술 발전 중에서 가장 영향력이 큰 것은 의심할 여지 없이 인공지능입니다. 정보를 찾는 방법을 재구성하는 검색 엔진 알고리즘부터 소비자 세계의 Amazon Alexa에 이르기까지 인공 지능은 전체 기술 산업을 미래로 이끄는 주요 기술이 되었습니다.
초기 스타트업이든 Microsoft와 같은 업계 거대 기업이든, 귀하의 비즈니스에는 인공 지능 또는 기계 학습을 다루는 부서가 하나 이상 있습니다. 특정 연구에 따르면 2021년 전 세계 인공지능 산업 가치는 935억 달러에 달할 것으로 예상된다.
인공지능은 2000년대와 2010년대 기술 산업에서 폭발적으로 성장했지만 적어도 1950년대부터 어떤 형태나 방식으로든 존재해 왔으며 그 이전으로 거슬러 올라갑니다.
튜링 테스트나 체스를 두는 컴퓨터와 같은 인공지능 역사의 넓은 개요는 대중의 의식 속에 뿌리내려 있지만, 상식의 표면 아래에는 풍부하고 밀도 높은 역사가 존재합니다. 이 글에서는 이러한 역사의 본질을 추출하여 인공지능이 어떻게 신화적인 생각에서 세상을 변화시키는 현실로 변모했는지 보여줄 것입니다.
인공지능은 종종 최첨단 개념으로 여겨지지만, 인간은 수천년 동안 인공지능을 상상해왔고, 이러한 상상은 오늘날 이 분야의 발전에 실질적인 영향을 미쳤습니다. 그리스 크레타섬의 수호자인 청동 로봇 탈로스, 르네상스 시대의 연금술적 인간 창조 등이 대표적이다. 프랑켄슈타인의 괴물, 2001: 스페이스 오디세이의 HAL 9000, 터미네이터 시리즈의 스카이넷과 같은 캐릭터는 현대 소설에서 인공 지능을 묘사하는 방식 중 일부일 뿐입니다.
인공지능 역사상 가장 영향력 있는 가상 개념 중 하나는 아이작 아시모프의 로봇공학 3원칙입니다. 이러한 법칙은 실제 연구자와 기업이 로봇 공학에 대한 자체 법칙을 만들 때 자주 인용됩니다.
실제로 영국의 공학 및 물리 과학 연구 위원회, 예술 및 인문 연구 위원회는 로봇 설계자, 제작자 및 사용자를 위한 5가지 원칙을 발표했을 때 Asimov의 법칙이 단순히 로봇의 실제로는 작동하지 않습니다.
1940년대 Asimov가 The Three Laws를 집필할 때 연구원 William Gray Walter는 인공 지능의 기초적인 시뮬레이션 버전을 개발하고 있었습니다. 거북이 또는 거북이로 알려진 이 작은 로봇은 빛과 플라스틱 껍질과의 접촉을 감지하고 반응할 수 있으며 컴퓨터를 사용하지 않고도 작동할 수 있습니다.
1960년대 후반 존스 홉킨스 대학교는 음파 탐지기를 사용하여 대학 복도를 탐색하고 배터리가 부족할 때 특수 벽면 콘센트에서 충전할 수 있는 또 다른 컴퓨터 없는 자율 로봇인 Beast를 만들었습니다.
그러나 오늘날 우리가 알고 있는 인공 지능의 발전은 컴퓨터 과학의 발전과 불가분의 관계가 있음을 알게 될 것입니다. 튜링은 1950년에 출판된 그의 논문 "컴퓨터와 지능(Computing Machines and Intelligence)"에서 유명한 튜링 테스트를 제안했으며, 이 테스트는 오늘날에도 여전히 영향력을 발휘하고 있습니다. Christopher Strachey의 Frantic I 컴퓨터용 체커 프로그램과 같이 게임 플레이를 위해 많은 초기 인공 지능 프로그램이 개발되었습니다.
1956년 Marvin Minsky, John McCarthy, Claude Shannon, Nathan Rochester는 다트머스 세미나에서 "인공 지능"이라는 용어를 만들었습니다. 회의에서 McCarthy는 신흥 분야의 이름을 만들었습니다.
이 세미나는 Alan Newell과 Herbert Simon이 컴퓨터 프로그래머 Cliff Shaw의 도움으로 개발한 Logic Theorist 컴퓨터 프로그램을 처음으로 발표한 곳이기도 합니다. "Logic Theorist"는 인간 수학자들이 하는 방식으로 수학 정리를 증명하기 위해 고안되었습니다.
게임과 수학은 '탐색으로서의 추론' 원리를 쉽게 적용했기 때문에 초기 인공지능의 초점이었습니다. 평균 분석(MEA)이라고도 알려진 검색으로서의 추론은 세 가지 기본 단계를 따르는 문제 해결 방법입니다.
이것은 인공 지능 원리의 초기 전조였습니다. 행동으로 문제가 해결되지 않으면 새로운 행동 세트를 찾아 문제가 해결될 때까지 반복하십시오.
인공 지능 연구는 1950년대와 1960년대에 DARPA와 같은 조직으로부터 상당한 자금 지원을 받았습니다. 이는 냉전 시대 정부가 다른 쪽보다 유리할 수 있는 모든 것에 돈을 지출하려는 의지 덕분이었습니다.
이 연구는 기계 학습의 일련의 발전을 촉진했습니다. 예를 들어, 다목적 진화 알고리즘을 사용하는 동안 경험적 사고의 지름길이 생성되어 AI가 탐색할 수 있지만 원하는 결과를 얻을 가능성이 없는 문제 해결 경로가 차단됩니다.
최초의 인공 신경망은 원래 1940년대에 제안되었으며 미국 해군 연구소의 자금 지원 덕분에 1958년에 발명되었습니다. 이 기간 동안 연구자들의 주요 초점은 인공지능이 인간의 언어를 이해하도록 만드는 것이었습니다.
1966년 Joseph Weizenbaum은 전 세계 인터넷 사용자가 감사하는 최초의 챗봇인 ELIZA를 출시했습니다. 인공지능 연구에서 가장 영향력 있는 초기 발전 중 하나는 문장을 간단한 키워드 집합으로 기본 개념으로 변환하려는 Roger Schank의 개념 의존 이론이었습니다.
1970년대, 1950년대, 1960년대 인공지능 연구에 팽배했던 낙관주의가 사라지기 시작했습니다. AI 연구가 직면한 수많은 실제 문제로 인해 자금이 고갈되고 있습니다. 그 중 가장 중요한 것은 컴퓨팅 성능의 한계입니다.
Bruce G. Buchanan은 Journal of Artificial Intelligence의 기사에서 다음과 같이 설명했습니다. "초기 프로그램은 메모리와 프로세서의 크기와 속도는 물론 초기 운영 체제와 언어의 상대적인 서투름으로 인해 필연적으로 제한되었습니다." 기술의 소멸과 낙관주의의 퇴색, 이 시기는 인공지능의 겨울이라 불린다.
이 기간 동안 인공지능 연구자들은 좌절에 직면했고 학제간 의견 차이가 나타났습니다. 1969년 마빈 민스키(Marvin Minsky)와 프랭크 로젠블라트(Frank Rosenblatt)가 『퍼셉트론(The Perceptron)』을 출판하면서 신경망 분야의 발전은 완전히 방해를 받았고, 이 분야의 연구는 1980년대까지 진전이 없었습니다.
그러다가 소위 두 가지 주요 범주가 나타났습니다. 한 범주는 인공 지능을 훈련하고 교육하기 위해 논리적이고 상징적인 추론을 사용하는 경향이 있습니다. 그들은 인공지능이 수학 정리와 같은 논리적 문제를 해결할 수 있기를 바라고 있습니다.
존 매카시(John McCarthy)는 1959년 제안을 통해 인공 지능에 논리를 사용한다는 아이디어를 소개했습니다. 또한 1972년 Alan Colmerauer와 Phillipe Roussel이 개발한 Prolog 프로그래밍 언어는 논리 프로그래밍 언어로 특별히 설계되었으며 오늘날에도 여전히 인공 지능에 사용됩니다.
동시에 또 다른 그룹의 사람들은 인공 지능이 인간처럼 생각해야 하는 문제를 해결하기 위해 인공 지능을 얻으려고 노력하고 있습니다. 1975년 논문에서 Marvin Minsky는 연구자들이 일반적으로 사용하는 "프레이밍"이라는 접근 방식을 설명했습니다.
프레임워크는 인간과 인공지능이 세상을 이해하는 방식입니다. 새로운 사람이나 사건을 만날 때, 우리는 비슷한 사람이나 사건의 기억을 이용해 새로운 레스토랑에서 음식을 주문할 때와 같이 일반적인 생각을 할 수 있지만 메뉴나 서빙하는 사람을 알지 못할 수도 있습니다. 다른 레스토랑에서의 과거 경험을 바탕으로 주문하는 방법에 대한 대략적인 아이디어.
1980년대는 인공 지능에 대한 열광이 다시 시작된 시기였습니다. 예를 들어, 일본의 5세대 프로젝트는 코드로 실행되는 일반 컴퓨터처럼 프롤로그로 실행되는 스마트 컴퓨터를 만들려고 했고, 이는 미국 기업의 관심을 더욱 불러일으켰습니다. 뒤처지고 싶지 않은 미국 기업들은 인공 지능 연구에 투자하고 있습니다.
정리하자면, 인공지능에 대한 관심 증가와 산업연구로의 전환으로 인해 인공지능 산업의 가치는 1988년 20억 달러로 치솟았습니다. 인플레이션을 고려하면 이 수치는 2022년에 50억 달러에 가까워질 것입니다.
그러나 1990년대에 들어서면서 1970년대와 마찬가지로 관심도 쇠퇴하기 시작했습니다. 10년간의 개발 끝에 5세대 이니셔티브는 많은 목표를 달성하지 못했습니다. 기업이 대량 생산된 범용 칩을 구입하고 AI 애플리케이션을 소프트웨어로 프로그래밍하는 것이 더 저렴하고 쉽다는 사실을 알게 되면서 전용 AI 하드웨어 시장이 생겼습니다. LISP 기계와 같은 시스템이 충돌하여 전체 시장이 축소되었습니다.
게다가 금세기 초 인공지능의 타당성을 입증했던 전문가 시스템에도 치명적인 결함이 보이기 시작했습니다. 시스템이 계속 사용됨에 따라 작동할 규칙이 계속 추가되고 처리하려면 점점 더 큰 지식 기반이 필요합니다. 결국, 시스템의 지식 기반을 유지하고 업데이트하는 데 필요한 인력의 양은 재정적으로 지속 가능하지 않을 때까지 증가합니다. 이러한 요인과 기타 요인이 결합되어 두 번째 AI 겨울이 발생했습니다.
1990년대 후반과 21세기 초, 인공지능의 봄이 다가오고 있다는 조짐이 보였습니다. AI의 획기적인 순간인 1997년 Deep Blue가 당시 세계 체스 챔피언 Gary Kasparov를 상대로 승리한 것과 같이 AI의 가장 오래된 목표 중 일부가 마침내 달성되었습니다.
보다 정교한 수학적 도구와 전기 공학과 같은 분야와의 협력으로 인공지능은 보다 논리 중심의 과학 분야로 변모했습니다.
동시에 Google의 검색 엔진 알고리즘, 데이터 마이닝, 음성 인식 등 많은 새로운 산업 분야에 인공 지능이 적용되었습니다. 새로운 슈퍼컴퓨터와 프로그램은 IBM의 Watson이 Jeopardy에서 승리한 것과 같은 최고의 인간 상대와 경쟁하고 심지어 승리할 수도 있습니다.
최근 몇 년 동안 가장 영향력 있는 인공 지능 중 하나는 플랫폼 사용자를 위한 온라인 경험을 선별하기 위해 귀하가 본 게시물과 시기를 결정하는 Facebook 알고리즘이었습니다. 유사한 기능을 갖춘 알고리즘은 Youtube 및 Netflix와 같은 사이트에서 찾을 수 있으며, 이전 기록을 기반으로 시청자가 다음에 무엇을 보고 싶어할지 예측합니다.
때때로 이러한 혁신은 인공지능으로 간주되지도 않습니다. Nick Brostrom은 2006년 CNN과의 인터뷰에서 다음과 같이 말했습니다. "일반적인 응용 프로그램에 침투한 많은 최첨단 인공 지능은 일반적으로 인공 지능이라고 부르지 않습니다. 일단 무언가가 충분히 유용하고 일반화되면 더 이상 인공 지능으로 분류되지 않기 때문입니다."
유용한 인공지능 AI를 부르지 않는 추세는 2010년대까지 이어지지 않았습니다. 이제 스타트업과 거대 기술 기업 모두 최신 제품이 인공 지능이나 기계 학습을 기반으로 한다고 서둘러 주장하고 있습니다. 어떤 경우에는 이러한 욕구가 너무 강해서 일부 사람들은 AI의 기능이 의심스럽더라도 자사 제품이 AI로 구동된다고 주장할 것입니다.
앞서 언급한 소셜 미디어 알고리즘을 통해서든, Amazon의 Alexa와 같은 가상 비서를 통해서든, 인공 지능은 많은 사람들의 집에 들어왔습니다. 겨울과 터지는 거품 속에서도 인공 지능 분야는 지속되어 현대 생활의 매우 중요한 부분이 되었으며 앞으로 몇 년 동안 기하급수적으로 성장할 가능성이 높습니다.
위 내용은 인공지능 개발의 역사를 아시나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!