수십년 간의 연구 끝에 인공지능(AI)이 주요 산업 트렌드 중 하나가 되었습니다. 알렉사와 시리와의 대화부터 웨이모와 테슬라의 자율주행차, 인간처럼 산문을 쓰는 오픈AI의 GPT-3, 인간 바둑왕을 이기는 딥마인드의 알파제로까지 인공지능은 이제 충분히 성숙해졌다. 종종 인간보다 더 빠르고 더 효과적으로 실제 문제를 해결합니다.
기술 산업의 다른 곳에서는 일부 비전가들이 양자 물리학의 특성을 활용하여 오늘날의 컴퓨터보다 더 빠르게 계산을 수행하려는 양자 컴퓨터를 개발하기 위해 열심히 노력하고 있습니다.
이 시점에서 많은 분들이 궁금하실 것입니다. 양자 컴퓨팅이 인공 지능과 정확히 어떤 관련이 있나요?
알고리즘 복잡성은 AI 연구자들과 인공 지능을 혼란스럽게 하는 다소 모호한 수학적 개념입니다. 양자 컴퓨팅 분야의 선구자들의 작품입니다.
계산 복잡도 이론은 수학과 컴퓨터 과학을 포괄하는 분야로, 공간(기억), 시간 등 자원 활용에 따라 계산 문제를 분류하는 데 중점을 두고 있습니다. 본질적으로 계산 문제는 알고리즘에 정의된 수학적 단계에 따라 컴퓨터가 기계적으로 해결할 수 있는 작업입니다.
예를 들어 목록에서 숫자를 정렬하는 문제를 생각해 보세요. "선택 정렬"이라고 하는 가능한 알고리즘 중 하나는 목록의 정렬되지 않은 부분(처음에는 모두)에서 가장 작은 요소(오름차순)를 반복적으로 찾아서 시작 부분에 배치하는 것으로 구성됩니다. 알고리즘은 실행 시 원래 목록의 두 하위 목록(이미 정렬된 부분과 나머지 정렬되지 않은 부분)을 효과적으로 유지합니다. 이 과정을 여러 번 거치면 작은 것부터 큰 것 순으로 정렬된 목록이 나옵니다. 시간 복잡도 측면에서 이는 N 2의 복잡도로 표시됩니다. 여기서 N은 목록에 있는 요소의 크기 또는 수를 나타냅니다. 수학자들은 "큐브 정렬(Cube Sort)" 또는 "팀 정렬(Tim Sort)"과 같이 더 효율적이지만 더 복잡한 정렬 알고리즘을 제안했는데, 둘 다 N x log(N)의 복잡성을 갖습니다. 100개의 요소 목록을 정렬하는 것은 오늘날의 컴퓨터에서는 간단한 작업이지만, 10억 개의 레코드 목록을 정렬하는 것은 그렇게 간단하지 않을 수 있습니다. 따라서 시간 복잡도(또는 입력 문제의 크기에 비해 알고리즘의 단계 수)가 매우 중요합니다.
문제를 더 빨리 해결하려면 더 빠른 컴퓨터를 사용하거나 더 적은 작업이 필요한 더 효율적인 알고리즘을 찾을 수 있습니다. 이것이 바로 시간 복잡도가 낮다는 것을 의미합니다. 그러나 지수적 복잡성(예: N 2 또는 2 N) 문제의 경우 수학이 불리하게 작용하고 더 큰 문제의 경우 더 빠른 컴퓨터를 사용하는 것만으로는 실용적이지 않다는 것이 분명합니다. 그리고 이것이 바로 인공지능 분야의 경우이다.
먼저 오늘날의 인공지능(AI) 시스템에 사용되는 인공 신경망의 계산 복잡성을 살펴보겠습니다. 이러한 수학적 모델은 동물의 뇌를 구성하는 생물학적 신경망에서 영감을 받았습니다. 그들은 많은 예를 보고 입력 데이터를 인식하거나 분류하는 방법을 "학습"합니다. 이는 "입력 레이어"에 표시된 데이터와 상호 연결의 가중치를 기반으로 출력을 결정하는 활성화 함수와 결합된 상호 연결된 노드 또는 뉴런의 모음입니다.
"출력"이 유용하거나 정확하도록 상호 연결의 가중치를 조정하기 위해 네트워크를 많은 데이터 예제에 노출하고 출력 손실을 "역전파"하여 "훈련"할 수 있습니다.
N개의 입력과 M개의 숨겨진 레이어가 있는 신경망의 경우 i번째 숨겨진 레이어에 m개의 숨겨진 뉴런과 k개의 출력 뉴런이 포함되어 있으면 모든 뉴런의 가중치를 조정하는 알고리즘(역전파 알고리즘이라고 함)은 다음과 같은 시간 복잡도를 갖게 됩니다.
요약하자면, 인기 있는 OpenAI의 GPT-3 모델은 이미 1,750억 개의 매개변수(또는 뉴런)를 사용하여 인간과 비슷한 유창함으로 원시 산문을 작성할 수 있습니다. 수십억 달러 규모의 이 AI 모델은 현재 대규모 클라우드 데이터 센터의 강력한 서버 컴퓨터를 사용하더라도 훈련하는 데 수개월이 걸립니다. 또한 AI 모델의 크기는 계속해서 증가하므로 시간이 지남에 따라 상황은 더욱 악화될 것입니다.
양자 컴퓨터는 양자 물리학의 특성, 특히 중첩과 얽힘을 사용하여 데이터를 저장하고 계산을 수행하는 기계입니다. 이는 수십억 개의 작업을 동시에 수행하여 인공 지능을 포함하여 매우 복잡한 문제에 대해 매우 실질적인 가속화를 제공할 것으로 예상됩니다.
고전적인 컴퓨터는 정보를 비트("binary digits"의 약자) 단위로 전송하는 반면, 양자 컴퓨터는 큐비트("qubits"의 약자)를 사용합니다. 기존 비트와 마찬가지로 큐비트는 궁극적으로 1 또는 0의 형태로 정보를 전송해야 하지만, 특별한 점은 1과 0을 동시에 나타낼 수 있다는 것입니다. 큐비트는 1이 될 확률이 70%, 0이 될 확률이 30%인 확률 분포를 가지고 있다고 합니다. 이것이 바로 양자 컴퓨터를 특별하게 만드는 이유입니다.
양자 컴퓨터는 양자 역학의 두 가지 기본 속성인 중첩과 얽힘을 활용합니다.
큐비트가 1과 0이 동시에 있을 때 중첩 상태에 있다고 합니다. 중첩은 시스템이 동시에 여러 상태에 있고 측정 시 단일 상태만 가정하는 조건에 대한 일반적인 용어입니다. 동전이 양자 물체라고 가정하면 동전을 뒤집을 때 중첩이 발생합니다. 즉, 동전은 앞면 또는 뒷면의 확률만 가집니다. 동전이 땅에 닿고 측정하면 동전이 앞면인지 뒷면인지 알 수 있습니다. 마찬가지로, 전자의 스핀(동전이 땅에 떨어지는 것과 유사)을 측정해야만 전자의 상태와 그것이 1인지 0인지 알 수 있습니다.
중첩된 양자 입자는 여러 입자가 있을 때만 유용합니다. 이는 양자역학의 두 번째 기본 원리인 얽힘(entanglement)으로 이어집니다. 두 개(또는 그 이상)의 얽힌 입자는 개별적으로 설명할 수 없습니다. 그 특성은 서로 전적으로 의존합니다. 따라서 얽힌 큐비트는 서로 영향을 미칠 수 있습니다. 하나의 큐비트(1 또는 0)의 확률 분포는 시스템의 다른 모든 큐비트의 확률 분포에 따라 달라집니다.
이 때문에 시스템에 새로운 큐비트가 추가될 때마다 컴퓨터가 분석할 수 있는 상태 수가 두 배로 늘어납니다. 이러한 컴퓨터 성능의 기하급수적인 증가는 새로운 비트마다 선형적으로만 확장되는 기존 컴퓨팅과 대조됩니다.
이론적으로 얽힌 큐비트는 수십억 개의 작업을 동시에 수행할 수 있습니다. 이 기능은 N2, 2N 또는 N 범위의 복잡성을 갖는 모든 알고리즘에 상당한 가속을 제공할 것이 분명합니다.
양자 컴퓨팅의 엄청난 잠재력으로 인해 하드웨어 팀은 이러한 시스템을 현실화하기 위해 계속 노력하고 있으며(현재 최대 규모는 IBM의 127-Qubit Eagle 시스템), 소프트웨어 연구원 New 이러한 "동시 컴퓨팅" 기능을 활용할 수 있는 알고리즘은 이미 암호화, 화학, 재료 과학, 시스템 최적화, 기계 학습/인공 지능 등의 분야에서 연구되고 있습니다. Shor의 인수분해된 양자 알고리즘은 기존 컴퓨터에 비해 기하급수적인 속도 향상을 제공할 것으로 믿어지며, 이는 현재 암호화 알고리즘에 위험을 초래합니다.
가장 흥미롭게도 양자 선형 대수학은 다항식 속도 향상을 제공하여 인공 신경망의 성능을 크게 향상시킬 것으로 믿어집니다. Google은 하이브리드 양자-고전 기계 학습 모델의 신속한 프로토타입을 생성할 수 있는 양자 기계 학습용 소프트웨어 프레임워크인 TensorFlow Quantum을 출시했습니다. 역시 양자 컴퓨팅 분야의 선두주자인 IBM은 최근 양자 머신러닝의 양자 우월성에 대한 '수학적 증거'를 발견했다고 발표했습니다. 그러나 IBM과 Google 같은 회사는 수직적으로 통합되어(따라서 하드웨어 시스템과 소프트웨어 알고리즘을 동시에 개발하지만) 또한 Zapata, Riverlane, 1Qbit 및 어느 정도 Quantinuum(Cambridge Quantum Computing이 Honeywell과 합병되고 이름이 변경된 이후 더 이상 순수 소프트웨어 회사가 아님)을 포함하여 매우 흥미로운 양자 소프트웨어 스타트업이 많이 있습니다. 몇 가지 예.
양자 하드웨어가 더욱 강력해지고 양자 기계 학습 알고리즘이 정교해짐에 따라 양자 컴퓨팅은 AI 칩 시장에서 상당한 점유율을 차지할 가능성이 높습니다.
위 내용은 양자컴퓨팅과 인공지능은 어떤 관계인가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!