양자우월주의, 이 용어가 나온지 거의 4년이 되었습니다.
2019년 Google 물리학자들은 53큐비트 머신으로 양자 헤게모니를 성공적으로 달성했다고 발표했는데, 이는 중요한 상징적 이정표였습니다.
네이처에 발표된 논문에서는 양자 시스템이 계산을 완료하는 데 고작 200초밖에 걸리지 않았는데, 당시 가장 강력한 슈퍼컴퓨터인 서밋을 사용해 동일한 계산을 수행하는 데 약 1만년이 걸렸다고 명시했습니다.
소위 "양자 우월" 또는 "양자 우위"(이하 "양자 우월")는 양자 컴퓨터가 완료할 수 있는 작업이 실현 가능한 기존 알고리즘의 범위를 벗어남을 의미합니다.
이러한 작업이 가장 발전된 전통적인 슈퍼컴퓨터에 배치되더라도 긴 계산 시간(종종 수천 년)으로 인해 알고리즘의 실질적인 중요성이 상실됩니다.
흥미롭게도 구글의 2019년 결과에서는 양자 헤게모니가 달성됐다고만 기술했을 뿐, 양자컴퓨터가 클래식 컴퓨터를 능가한 구체적인 사례는 설명하지 않았다.
현재 양자컴퓨터는 양자컴퓨팅의 성능과 안정성을 누적하고 훼손할 수 있는 오류로 인해 어려움을 겪고 있기 때문에 대답하기 어려운 질문입니다.
사실 양자 헤게모니 실현 분야에 비해 과학자들이 더 알고 싶어하는 것은 양자 컴퓨터가 점점 더 커지면서 기존 알고리즘이 따라잡을 수 있을지에 대한 또 다른 질문입니다.
텍사스 대학교 오스틴 캠퍼스의 컴퓨터 과학자 Scott Aaronson은 "우리는 결국 양자 측면이 완전히 거리를 두고 이 경쟁을 완전히 끝내기를 희망합니다."라고 말했습니다.
대부분의 연구자들은 , 대답은 부정적입니다.
즉, 언젠가는 기존 알고리즘이 양자 컴퓨팅의 속도를 완전히 따라갈 수 없게 되지만, 이를 정확하고 종합적으로 증명하지 못했습니다. 이러한 추론을 확실하게 증명하는 한 가지 방법은 양자 컴퓨팅이 기존 컴퓨팅보다 "지속적인 이점"을 얻을 수 있는 조건을 찾는 것입니다.
이제 이 질문에는 예비적인 답이 있는 것 같습니다.
시간 절약: 양자 컴퓨팅은 오류 수정을 계속할 수 없으면 이러한 오류는 이상적인 "양자 헤게모니"를 깨뜨리게 됩니다.” 양자 알고리즘을 따라가는 알고리즘.
최근 Arxiv에 게재된 사전 인쇄 논문에서 하버드 대학, 캘리포니아 대학, 버클리 대학, 이스라엘 히브리 대학의 공동 팀은 이 결론을 확인하기 위한 큰 진전을 이루었습니다.
그들은 표적 오류 수정이 무작위 회로 샘플링에서 내구성 있는 양자 우위를 위한 필수 조건임을 입증했으며, 이는 몇 년 전 Google의 연구 결론을 뒷받침합니다. 현재의 양자 오류 수정 수준에서는 양자 우위가 실제로 존재하지 않습니다.
연구원들은 이 결론을 증명하기 위해 오류가 존재할 때 무작위 회로 샘플링 실험을 시뮬레이션할 수 있는 고전적인 알고리즘을 개발했습니다.
큐비트 배열로 시작하고 "양자 게이트"라는 작업을 사용하여 이러한 큐비트를 무작위로 조작합니다. 일부 양자 게이트는 큐비트 쌍을 얽히게 합니다. 즉, 큐비트는 개별적으로 설명할 수 없는 양자 상태를 공유합니다.
다층 회로에 이러한 양자 게이트를 반복적으로 설정하면 큐비트가 더 복잡한 얽힌 상태로 들어갈 수 있습니다.
이 양자 상태를 이해하기 위해 연구원들은 어레이의 모든 큐비트를 측정했습니다. 이 동작으로 인해 모든 큐비트의 집합적인 양자 상태가 일반 비트의 임의 문자열, 즉 0과 1로 축소됩니다.배열의 큐비트 수에 따라 가능한 결과의 수가 빠르게 증가합니다. Google의 2019년 실험에서는 53큐비트에 거의 10조 개의 결과가 포함되었습니다.
게다가 이 방법은 결과의 확률 분포 맵을 구축하기 위해 무작위 회로에서 여러 번 반복 측정해야 합니다.
양자 우월성에 대한 질문은 얽힘을 사용하지 않는 고전적인 알고리즘으로 이러한 확률 분포를 모방하는 것이 어렵거나 심지어 불가능합니까?
2019년 Google 연구원들은 오류가 발생하지 않는 오류 없는 양자 회로에서는 이 목표가 어렵다는 것을 증명했습니다. 오류 없이 고전적인 알고리즘을 사용하여 무작위 회로 샘플링 실험을 시뮬레이션하는 것은 실제로 어렵습니다.
계산 복잡도의 관점에서 볼 때, 큐비트 수가 증가하면 기존 분류 알고리즘의 계산 복잡도는 기하급수적으로 증가하는 반면, 양자 알고리즘의 계산 복잡도는 다항식으로 증가합니다.
n이 충분히 커지면 n에서 지수 함수인 알고리즘은 n에서 다항식인 알고리즘보다 훨씬 뒤떨어집니다.
이것이 고전 컴퓨터에서는 어렵지만 양자 컴퓨터에서는 쉬운 문제를 이야기할 때 언급하는 차이점입니다. 최고의 클래식 알고리즘은 기하급수적인 시간이 걸리는 반면, 양자 컴퓨터는 다항식 시간에 문제를 해결할 수 있습니다.
그러나 2019년 논문은 불완전한 양자 게이트로 인한 오류의 영향을 고려하지 않았으며, 연구 결론은 실제로 오류 수정 없이 무작위 회로 샘플링이 여전히 양자 헤게모니를 달성할 수 있는지에 대한 공백을 남겼습니다.
실제로 양자 얽힘에서 발생하는 누적 오류를 고려하면 기존 알고리즘으로 무작위 회로 샘플링 실험을 시뮬레이션하는 어려움이 크게 줄어들 것입니다. 그리고 기존 알고리즘 시뮬레이션의 계산 복잡성이 양자 알고리즘과 동일한 다항식 수준으로 감소되면 양자 헤게모니는 더 이상 존재하지 않습니다.
이 새로운 논문은 회로 깊이가 일정하게 유지된다고 가정할 때(예: 매우 얕은 3개 층) 큐비트 수가 증가함에 따라 양자 얽힘이 너무 많지 않고 출력이 여전히 고전적으로 시뮬레이션될 수 있음을 보여줍니다.
반면, 증가하는 큐비트 수를 따라가기 위해 회로 깊이를 늘리면 양자 게이트 오류의 누적 효과로 인해 얽힘으로 인한 복잡성이 희석되고 시뮬레이션하기가 더 쉬워집니다. 고전적인 알고리즘으로 출력합니다.
둘 사이에는 '골든 존'이 있습니다. 즉, 양자 헤게모니가 계속해서 생존할 수 있는 창, 즉 기존 알고리즘 시뮬레이션이 양자 얽힘을 따라잡을 수 없는 범위입니다.
본 논문이 출판되기 전에는 큐비트 수가 증가하더라도 큐비트 수가 특정 중간 범위에 도달하면 양자 우위가 여전히 존재했습니다.
이 회로 깊이에서는 양자 알고리즘 오류로 인해 출력이 꾸준히 저하되더라도 모든 단계에서 기존 알고리즘을 시뮬레이션하기가 어렵습니다.
이 새로운 논문은 이 "골든 존"을 거의 제거했습니다.
이 논문은 무작위 회로 샘플링을 시뮬레이션하기 위한 고전적인 알고리즘을 도출하고 그 실행 시간이 지수 함수가 아니라 해당 양자 실험을 실행하는 데 필요한 시간의
다항 함수임을 증명합니다. 이 결과는 고전적 무작위 회로 샘플링 방식의 속도와 양자 방식의 속도 사이에 밀접한 이론적 연관성을 확립합니다. 즉, 이론적으로 달성된 양자 헤게모니가 실제로는 거의 존재하지 않음을 선언합니다.
내가 "거의"라고 말하는 이유는 새로운 알고리즘의 기본 가정이 일부 얕은 회로에서는 유효하지 않아 알 수 없는 "작은 간격"을 남기기 때문입니다.
그러나 이러한 격차에서 양자 우위를 달성할 희망을 품고 있는 연구자는 여전히 거의 없습니다. 심지어 시카고 대학의 컴퓨터 과학자이자 2019년 구글 논문의 저자 중 한 명인 빌 페퍼먼(Bill Fefferman)도 "가능성은 매우 희박하다고 생각합니다"라고 말했습니다.
계산 복잡도 이론의 엄격한 기준에 따르면 무작위 회로 샘플링은 더 이상 양자 우월성을 생성하지 않는다고 말할 수 있습니다.
또한 이러한 결론에 직면하여 모든 연구자들은 양자 오류 수정이 양자 컴퓨팅의 장기적인 성공에 얼마나 중요한지에 동의합니다. Fefferman은 "결국 우리는 양자 오류 수정이 해결책이라는 것을 발견했습니다."라고 말했습니다.
위 내용은 스탠포드와 버클리의 새로운 연구가 구글의 '양자 우위'를 무너뜨렸습니다! 이론적으로는 아름답지만 실제로는 쓸모가 없습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!