양자 시뮬레이션을 향상시키기 위한 신경망 기반 전략
최근 양자 컴퓨터는 물리학, 화학, 재료 과학의 기본 작업인 양자 시스템의 바닥 상태를 찾는 데 유망한 플랫폼을 제공합니다. 그러나 최근 방법은 잡음으로 인해 제한되고 최근 양자 하드웨어 리소스도 제한됩니다.
캐나다 워털루 대학교의 연구원들은 신경망을 사용하여 최근 양자 시뮬레이션을 통해 얻은 바닥 상태 및 바닥 상태 관측 가능 항목의 추정치를 향상시키는 신경 오류 완화를 도입했습니다. 이 방법의 광범위한 적용 가능성을 입증하기 위해 연구진은 신경 오류 완화를 사용하여 H2 및 격자 슈윙거 모델뿐만 아니라 변이 양자 고유 솔버에 의해 준비된 LiH 분자 해밀턴의 바닥 상태를 찾았습니다.
실험 결과에 따르면 신경 오류 완화는 수치 및 실험적 변형 양자 서명 솔버 계산을 개선하여 추가 요구 없이 보다 복잡한 관측 가능 항목(예: 차수 매개변수 및 얽힘 엔트로피)에 대한 낮은 에너지 오류, 높은 충실도 및 견고성을 정확하게 추정할 수 있음을 보여줍니다. 양자 자원. 또한 신경 오류 완화는 사용된 양자 상태 준비 알고리즘, 이를 구현하는 양자 하드웨어 및 실험에 영향을 미치는 특정 잡음 채널과 무관하므로 양자 시뮬레이션 도구로서의 다양성에 기여합니다.
이 연구의 제목은 "Neural Error Mitigation of Near-Term Quantum Simulations"이며 2022년 7월 20일 "Nature Machine Intelligence"에 게재되었습니다.
20세기 초부터 과학자들은 양자 역학 시스템의 동작을 설명하는 포괄적인 이론을 개발해 왔습니다. 그러나 이러한 시스템을 연구하는 데 필요한 계산 비용은 현재의 과학 계산 방법 및 하드웨어의 성능을 초과하는 경우가 많습니다. 그러므로 계산적 불가능성은 이러한 이론을 과학적, 기술적 문제에 실제로 적용하는 데 장애물로 남아 있습니다.
양자 컴퓨터에서 양자 시스템 시뮬레이션(여기서는 양자 시뮬레이션이라고 함)은 이러한 장애물을 극복할 수 있는 가능성을 보여 주며 양자 컴퓨터의 개념과 생성을 뒷받침하는 근본적인 원동력이 되었습니다. 특히, 고전 컴퓨터의 능력을 뛰어넘는 양자다체계의 바닥상태와 정상상태에 대한 양자 시뮬레이션은 핵물리학, 입자물리학, 양자중력, 응집물질물리학, 양자화학, 재료과학 등에 큰 영향을 미칠 것으로 기대된다. . 현재 및 단기 양자 컴퓨터의 성능은 큐비트 수 및 잡음 효과와 같은 제한으로 인해 계속해서 제한됩니다. 양자 오류 정정 기술은 잡음으로 인한 오류를 제거하여 내결함성 양자 컴퓨팅을 위한 방법을 제공합니다. 그러나 실제로 양자 오류 수정을 구현하면 필요한 큐비트 수와 낮은 오류율 측면에서 상당한 오버헤드가 발생하며, 이 두 가지 모두 현재 및 단기 장치의 기능을 초과합니다.
내결함성 양자 시뮬레이션이 달성될 때까지 최신 변형 알고리즘은 양자 하드웨어의 필요성을 크게 완화하고 시끄러운 중간 규모 양자 장치의 기능을 활용합니다.
주요 사례로는 일련의 매개변수화된 양자 회로 에너지 고유값의 변형 최적화를 통해 대상 해밀턴의 최소값에 반복적으로 접근하는 하이브리드 양자 고전 알고리즘인 변형 양자 고유 해결사(VQE)가 있습니다. 다른 변형 알고리즘 중에서 이는 최신 장치를 사용하여 양자 이점을 달성하고 과학 및 기술의 여러 분야에서 발전을 가속화하기 위한 선도적인 전략이 되었습니다.
노이즈가 있는 중간 규모 양자 장치는 다양한 노이즈 소스 및 결함의 영향을 받기 때문에 변형 양자 알고리즘의 실험적 구현은 많은 과학적 문제에 대한 과제로 남아 있습니다. 현재 이러한 문제를 완화하기 위한 여러 가지 양자 오류 완화(QEM) 방법이 제안되고 실험적으로 검증되어 양자 오류 정정에 필요한 양자 자원 없이 양자 컴퓨팅을 향상시킵니다.
일반적으로 이러한 방법은 잡음 모델의 암시적 표현과 필요한 관측 가능 항목의 추정에 영향을 미치는 방식을 포함하여 양자 계산, 하드웨어 구현 또는 양자 알고리즘 자체에 영향을 미치는 잡음 채널에 대한 특정 정보를 사용합니다. 상태 부분 공간에 대한 구체적인 지식 양자 상태가 상주해야 하는 단일 큐비트 및 2큐비트 게이트 오류, 상태 준비 및 측정 오류와 같은 양자 컴퓨팅의 다양한 구성 요소에 대한 잡음 소스의 특성화 및 완화.
기계 학습 기술은 최근 양자 다체 물리학 및 양자 정보 처리의 복잡한 문제를 해결하기 위한 도구로 용도가 변경되어 QEM에 대한 대안적인 접근 방식을 제공합니다. 여기에서 워털루 대학교 연구원들은 신경망을 사용하여 해밀턴의 양자 바닥 상태를 대략적으로 준비할 때 오류를 완화하는 신경 오류 완화(NEM)라는 QEM 전략을 소개합니다.
NEM 알고리즘은 두 단계로 구성됩니다. 먼저, 연구원들은 신경 양자 상태(NQS) 단층 촬영(NQST)을 수행하여 실험적으로 접근 가능한 측정을 사용하여 시끄러운 양자 장치에 의해 준비된 대략적인 바닥 상태를 나타내도록 NQS ansatz를 훈련했습니다. 전통적인 양자 상태 단층 촬영(QST)에서 영감을 받은 NQST는 제한된 수의 측정을 사용하여 복잡한 양자 상태를 효율적으로 재구성하는 데이터 기반 QST 기계 학습 방법입니다.
그런 다음 동일한 NQS ansatz(NEM ansatz라고도 함)에 변형 Monte Carlo(VMC) 알고리즘을 적용하여 알려지지 않은 바닥 상태의 표현을 향상시킵니다. VQE의 정신으로 VMC는 NQS ansatz의 예에서 고전적 변이 ansatz를 기반으로 해밀턴의 바닥 상태를 근사화합니다.
그림: NEM 프로그램. (출처: Paper)
여기에서 연구원들은 NEM ansatz로 자동 회귀 생성 신경망을 사용했습니다. 보다 구체적으로 Transformer 아키텍처를 사용하여 모델이 NQS로 잘 수행된다는 것을 보여주었습니다. 장거리 시간적 및 공간적 상관 관계를 시뮬레이션할 수 있는 기능으로 인해 이 아키텍처는 자연어 및 이미지 처리 분야의 많은 최첨단 실험에 사용되었으며 장거리 양자 상관 관계를 시뮬레이션할 수 있는 가능성이 있습니다. .
NEM은 다른 오류 완화 기술에 비해 몇 가지 장점이 있습니다. 첫째, 실험적 오버헤드가 낮습니다. VQE에서 준비한 시끄러운 양자 상태의 속성을 학습하려면 실험적으로 실행 가능한 간단한 측정 세트만 필요합니다. 따라서 NEM의 오류 완화 오버헤드는 양자 리소스(즉, 추가 양자 실험 및 측정 수행)에서 기계 학습을 위한 기존 컴퓨팅 리소스로 이동됩니다. 특히 연구원들은 NEM의 주요 비용이 융합 전 VMC를 수행하는 것이라고 지적했습니다. NEM의 또 다른 장점은 양자 시뮬레이션 알고리즘, 이를 구현하는 장치 및 양자 시뮬레이션에 영향을 미치는 특정 노이즈 채널과 독립적이라는 것입니다. 따라서 다른 QEM 기술과 결합할 수도 있으며 양자 아날로그 또는 디지털 양자 회로를 시뮬레이션하는 데 적용할 수도 있습니다.
NEM은 최근 양자소자를 이용해 양자 관측물을 추정할 때 발생하는 낮은 측정 정확도 문제도 해결한다. 이는 양자 관측 가능 항목의 정확한 추정이 실제 적용에 중요한 양자 시뮬레이션에서 특히 중요합니다. NEM은 본질적으로 알고리즘의 각 단계에서 낮은 측정 정확도 문제를 해결합니다. 첫 번째 단계에서 NQST는 작은 추정 편향을 도입하는 대신 관찰 가능한 추정의 분산을 개선합니다. 이 편향과 잔여 분산은 VMC로 NEM ansatz를 훈련함으로써 더욱 감소될 수 있으며, 이는 바닥 상태에 도달한 후 에너지 추정치의 제로 분산 기대로 이어집니다.
ansatz의 VQE로 파라메트릭 양자 회로 사용과 ansatz의 NQST 및 VMC로 신경망 사용을 결합함으로써 NEM은 두 개의 파라메트릭 양자 상태 패밀리와 세 가지 최적화 문제를 결합합니다. 그들의 손실은 합쳐집니다. 연구자들은 이러한 상태군 간의 관계의 성격, 손실 및 양자적 이점에 대해 의문을 제기했습니다. 이러한 관계를 조사하면 양자 이점을 추구하기 위해 시끄러운 중간 규모 양자 알고리즘의 잠재력을 연구할 수 있는 새로운 방법이 제공됩니다. 이는 고전적으로 다루기 쉬운 양자 시스템의 시뮬레이션과 양자 자원이 필요한 시뮬레이션 사이의 더 나은 경계를 용이하게 할 수 있습니다.
논문 링크:https://www.nature.com/articles/s42256-022-00509-0
관련 보고서: https://techxplore.com/news/ 2022-08-neural-networkbased-strategy-near-term-퀀텀.html
위 내용은 양자 시뮬레이션을 향상시키기 위한 신경망 기반 전략의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











오늘날의 딥러닝 방법은 모델의 예측 결과가 실제 상황에 가장 가깝도록 가장 적합한 목적 함수를 설계하는 데 중점을 두고 있습니다. 동시에 예측을 위한 충분한 정보를 얻을 수 있도록 적합한 아키텍처를 설계해야 합니다. 기존 방법은 입력 데이터가 레이어별 특징 추출 및 공간 변환을 거치면 많은 양의 정보가 손실된다는 사실을 무시합니다. 이 글에서는 딥 네트워크를 통해 데이터를 전송할 때 중요한 문제, 즉 정보 병목 현상과 가역 기능을 살펴보겠습니다. 이를 바탕으로 다중 목표를 달성하기 위해 심층 네트워크에서 요구되는 다양한 변화에 대처하기 위해 PGI(Programmable Gradient Information) 개념을 제안합니다. PGI는 목적 함수를 계산하기 위해 대상 작업에 대한 완전한 입력 정보를 제공할 수 있으므로 네트워크 가중치를 업데이트하기 위한 신뢰할 수 있는 기울기 정보를 얻을 수 있습니다. 또한 새로운 경량 네트워크 프레임워크가 설계되었습니다.

그래프 신경망(GNN)은 최근 몇 년 동안 빠르고 놀라운 발전을 이루었습니다. 그래프 딥러닝, 그래프 표현 학습(그래프 표현 학습) 또는 기하학적 딥러닝이라고도 알려진 그래프 신경망은 머신러닝, 특히 딥러닝 분야에서 가장 빠르게 성장하고 있는 연구 주제입니다. 이번 공유의 제목은 "GNN의 기본, 프론티어 및 응용"이며, Wu Lingfei, Cui Peng, Pei Jian 및 Zhao 학자가 편찬한 종합 도서 "그래프 신경망의 기본, 프론티어 및 응용"의 일반적인 내용을 주로 소개합니다. 리앙. 1. 그래프 신경망 소개 1. 그래프를 연구하는 이유는 무엇입니까? 그래프는 복잡한 시스템을 설명하고 모델링하기 위한 보편적인 언어입니다. 그래프 자체는 복잡하지 않으며 주로 간선과 노드로 구성됩니다. 노드를 사용하여 모델링하려는 개체를 나타내고 가장자리를 사용하여 두 개체를 나타낼 수 있습니다.

현재 주류 AI 칩은 크게 GPU, FPGA, ASIC 세 가지 범주로 나뉜다. GPU와 FPGA는 모두 초기 단계에서 상대적으로 성숙한 칩 아키텍처이며 범용 칩입니다. ASIC은 특정 AI 시나리오에 맞게 맞춤화된 칩입니다. 업계에서는 CPU가 AI 컴퓨팅에 적합하지 않지만 AI 애플리케이션에도 필수적이라는 점을 확인했다. GPU와 CPU의 GPU 솔루션 아키텍처 비교 CPU는 von Neumann 아키텍처를 따르며, 그 핵심은 프로그램/데이터 저장 및 직렬 순차 실행입니다. 따라서 CPU 아키텍처는 저장 장치(Cache)와 제어 장치(Control)를 배치하는 데 많은 공간이 필요한 반면, 컴퓨팅 장치(ALU)는 작은 부분만 차지하므로 CPU가 대규모 작업을 수행합니다. 병렬 컴퓨팅.

마인크래프트에서 레드스톤은 매우 중요한 아이템이다. 스위치, 레드스톤 횃불, 레드스톤 블록은 게임 내 고유한 재료로 전선이나 물체에 전기와 같은 에너지를 공급할 수 있습니다. 레드스톤 회로는 다른 기계를 제어하거나 활성화하기 위한 구조물을 만드는 데 사용할 수 있습니다. 이 회로 자체는 플레이어의 수동 활성화에 응답하도록 설계할 수도 있고, 반복적으로 신호를 출력하거나 생물체 움직임과 같은 비플레이어에 의한 변경에 응답할 수도 있습니다. 아이템 낙하, 식물 성장, 낮과 밤 등. 따라서 내 세계에서 레드스톤은 자동문, 조명 스위치, 스트로보 전원 공급 장치와 같은 단순한 기계부터 거대한 엘리베이터, 자동 농장, 소형 게임 플랫폼, 심지어 게임 내 컴퓨터까지 매우 다양한 유형의 기계를 제어할 수 있습니다. . 최근 B 스테이션 UP 메인@

비전 작업(예: 이미지 분류)을 위한 딥 러닝 모델은 일반적으로 단일 시각적 영역(예: 자연 이미지 또는 컴퓨터 생성 이미지)의 데이터를 사용하여 엔드투엔드 학습됩니다. 일반적으로 여러 도메인에 대한 비전 작업을 완료하는 애플리케이션은 각 개별 도메인에 대해 여러 모델을 구축하고 이를 독립적으로 교육해야 합니다. 추론 중에는 각 모델이 특정 도메인 입력 데이터를 처리합니다. 서로 다른 분야를 지향하더라도 이러한 모델 간 초기 레이어의 일부 기능은 유사하므로 이러한 모델의 공동 학습이 더 효율적입니다. 이렇게 하면 대기 시간과 전력 소비가 줄어들고, 각 모델 매개변수를 저장하는 데 드는 메모리 비용이 줄어듭니다. 이러한 접근 방식을 다중 도메인 학습(MDL)이라고 합니다. 또한 MDL 모델은 단일 모델보다 성능이 뛰어날 수도 있습니다.

바람이 우산을 날릴 만큼 강하면 드론은 다음과 같이 안정적입니다. 바람을 타고 비행하는 것은 공중 비행의 일부이므로 조종사가 항공기를 착륙시킬 때 풍속은 다음과 같습니다. 더 작은 수준에서는 돌풍이 드론 비행에 영향을 미칠 수도 있습니다. 현재 드론은 바람 없이 통제된 조건에서 비행하거나 사람이 원격 조종을 사용해 조종합니다. 드론은 연구자들이 개방된 하늘에서 대형을 이루어 비행하도록 제어하지만 이러한 비행은 일반적으로 이상적인 조건과 환경에서 수행됩니다. 그러나 드론이 패키지 배송과 같이 필요하지만 일상적인 작업을 자율적으로 수행하려면 실시간으로 바람 조건에 적응할 수 있어야 합니다. 바람에 날릴 때 드론의 기동성을 높이기 위해 Caltech의 엔지니어 팀

논문 주소: https://arxiv.org/abs/2307.09283 코드 주소: https://github.com/THU-MIG/RepViTRepViT는 모바일 ViT 아키텍처에서 잘 작동하며 상당한 이점을 보여줍니다. 다음으로, 본 연구의 기여를 살펴보겠습니다. 기사에서는 경량 ViT가 일반적으로 시각적 작업에서 경량 CNN보다 더 나은 성능을 발휘한다고 언급했는데, 그 이유는 주로 모델이 전역 표현을 학습할 수 있는 MSHA(Multi-Head Self-Attention 모듈) 때문입니다. 그러나 경량 ViT와 경량 CNN 간의 아키텍처 차이점은 완전히 연구되지 않았습니다. 본 연구에서 저자는 경량 ViT를 효과적인

"ComputerWorld" 잡지는 IBM이 엔지니어가 필요한 수학 공식을 작성한 다음 이를 제출하면 프로그래밍이 종료되도록 하는 새로운 언어 FORTRAN을 개발했기 때문에 "프로그래밍은 1960년에 사라질 것"이라는 기사를 쓴 적이 있습니다. 몇 년 후 우리는 비즈니스 용어를 사용하여 문제를 설명하고 컴퓨터에 COBOL이라는 프로그래밍 언어를 사용하면 더 이상 프로그래머가 필요하지 않다는 새로운 말을 들었습니다. 이후 IBM은 직원들이 양식을 작성하고 보고서를 생성할 수 있는 RPG라는 새로운 프로그래밍 언어를 개발해 회사의 프로그래밍 요구 사항 대부분을 이를 통해 완료할 수 있다고 합니다.
