양자컴퓨팅과 인공지능은 어떤 관계인가?
수십년 간의 연구 끝에 인공지능(AI)이 주요 산업 트렌드 중 하나가 되었습니다. 알렉사와 시리와의 대화부터 웨이모와 테슬라의 자율주행차, 인간처럼 산문을 쓰는 오픈AI의 GPT-3, 인간 바둑왕을 이기는 딥마인드의 알파제로까지 인공지능은 이제 충분히 성숙해졌다. 종종 인간보다 더 빠르고 더 효과적으로 실제 문제를 해결합니다.
기술 산업의 다른 곳에서는 일부 비전가들이 양자 물리학의 특성을 활용하여 오늘날의 컴퓨터보다 더 빠르게 계산을 수행하려는 양자 컴퓨터를 개발하기 위해 열심히 노력하고 있습니다.
이 시점에서 많은 분들이 궁금하실 것입니다. 양자 컴퓨팅이 인공 지능과 정확히 어떤 관련이 있나요?
알고리즘 복잡성은 숨겨진 적입니다.
알고리즘 복잡성은 AI 연구자들과 인공 지능을 혼란스럽게 하는 다소 모호한 수학적 개념입니다. 양자 컴퓨팅 분야의 선구자들의 작품입니다.
계산 복잡도 이론은 수학과 컴퓨터 과학을 포괄하는 분야로, 공간(기억), 시간 등 자원 활용에 따라 계산 문제를 분류하는 데 중점을 두고 있습니다. 본질적으로 계산 문제는 알고리즘에 정의된 수학적 단계에 따라 컴퓨터가 기계적으로 해결할 수 있는 작업입니다.
예를 들어 목록에서 숫자를 정렬하는 문제를 생각해 보세요. "선택 정렬"이라고 하는 가능한 알고리즘 중 하나는 목록의 정렬되지 않은 부분(처음에는 모두)에서 가장 작은 요소(오름차순)를 반복적으로 찾아서 시작 부분에 배치하는 것으로 구성됩니다. 알고리즘은 실행 시 원래 목록의 두 하위 목록(이미 정렬된 부분과 나머지 정렬되지 않은 부분)을 효과적으로 유지합니다. 이 과정을 여러 번 거치면 작은 것부터 큰 것 순으로 정렬된 목록이 나옵니다. 시간 복잡도 측면에서 이는 N 2의 복잡도로 표시됩니다. 여기서 N은 목록에 있는 요소의 크기 또는 수를 나타냅니다. 수학자들은 "큐브 정렬(Cube Sort)" 또는 "팀 정렬(Tim Sort)"과 같이 더 효율적이지만 더 복잡한 정렬 알고리즘을 제안했는데, 둘 다 N x log(N)의 복잡성을 갖습니다. 100개의 요소 목록을 정렬하는 것은 오늘날의 컴퓨터에서는 간단한 작업이지만, 10억 개의 레코드 목록을 정렬하는 것은 그렇게 간단하지 않을 수 있습니다. 따라서 시간 복잡도(또는 입력 문제의 크기에 비해 알고리즘의 단계 수)가 매우 중요합니다.
문제를 더 빨리 해결하려면 더 빠른 컴퓨터를 사용하거나 더 적은 작업이 필요한 더 효율적인 알고리즘을 찾을 수 있습니다. 이것이 바로 시간 복잡도가 낮다는 것을 의미합니다. 그러나 지수적 복잡성(예: N 2 또는 2 N) 문제의 경우 수학이 불리하게 작용하고 더 큰 문제의 경우 더 빠른 컴퓨터를 사용하는 것만으로는 실용적이지 않다는 것이 분명합니다. 그리고 이것이 바로 인공지능 분야의 경우이다.
인공지능은 해결하기 매우 복잡한 문제입니다
먼저 오늘날의 인공지능(AI) 시스템에 사용되는 인공 신경망의 계산 복잡성을 살펴보겠습니다. 이러한 수학적 모델은 동물의 뇌를 구성하는 생물학적 신경망에서 영감을 받았습니다. 그들은 많은 예를 보고 입력 데이터를 인식하거나 분류하는 방법을 "학습"합니다. 이는 "입력 레이어"에 표시된 데이터와 상호 연결의 가중치를 기반으로 출력을 결정하는 활성화 함수와 결합된 상호 연결된 노드 또는 뉴런의 모음입니다.
"출력"이 유용하거나 정확하도록 상호 연결의 가중치를 조정하기 위해 네트워크를 많은 데이터 예제에 노출하고 출력 손실을 "역전파"하여 "훈련"할 수 있습니다.
N개의 입력과 M개의 숨겨진 레이어가 있는 신경망의 경우 i번째 숨겨진 레이어에 m개의 숨겨진 뉴런과 k개의 출력 뉴런이 포함되어 있으면 모든 뉴런의 가중치를 조정하는 알고리즘(역전파 알고리즘이라고 함)은 다음과 같은 시간 복잡도를 갖게 됩니다.
요약하자면, 인기 있는 OpenAI의 GPT-3 모델은 이미 1,750억 개의 매개변수(또는 뉴런)를 사용하여 인간과 비슷한 유창함으로 원시 산문을 작성할 수 있습니다. 수십억 달러 규모의 이 AI 모델은 현재 대규모 클라우드 데이터 센터의 강력한 서버 컴퓨터를 사용하더라도 훈련하는 데 수개월이 걸립니다. 또한 AI 모델의 크기는 계속해서 증가하므로 시간이 지남에 따라 상황은 더욱 악화될 것입니다.
구조를 위한 양자 컴퓨팅?
양자 컴퓨터는 양자 물리학의 특성, 특히 중첩과 얽힘을 사용하여 데이터를 저장하고 계산을 수행하는 기계입니다. 이는 수십억 개의 작업을 동시에 수행하여 인공 지능을 포함하여 매우 복잡한 문제에 대해 매우 실질적인 가속화를 제공할 것으로 예상됩니다.
고전적인 컴퓨터는 정보를 비트("binary digits"의 약자) 단위로 전송하는 반면, 양자 컴퓨터는 큐비트("qubits"의 약자)를 사용합니다. 기존 비트와 마찬가지로 큐비트는 궁극적으로 1 또는 0의 형태로 정보를 전송해야 하지만, 특별한 점은 1과 0을 동시에 나타낼 수 있다는 것입니다. 큐비트는 1이 될 확률이 70%, 0이 될 확률이 30%인 확률 분포를 가지고 있다고 합니다. 이것이 바로 양자 컴퓨터를 특별하게 만드는 이유입니다.
양자 컴퓨터는 양자 역학의 두 가지 기본 속성인 중첩과 얽힘을 활용합니다.
큐비트가 1과 0이 동시에 있을 때 중첩 상태에 있다고 합니다. 중첩은 시스템이 동시에 여러 상태에 있고 측정 시 단일 상태만 가정하는 조건에 대한 일반적인 용어입니다. 동전이 양자 물체라고 가정하면 동전을 뒤집을 때 중첩이 발생합니다. 즉, 동전은 앞면 또는 뒷면의 확률만 가집니다. 동전이 땅에 닿고 측정하면 동전이 앞면인지 뒷면인지 알 수 있습니다. 마찬가지로, 전자의 스핀(동전이 땅에 떨어지는 것과 유사)을 측정해야만 전자의 상태와 그것이 1인지 0인지 알 수 있습니다.
중첩된 양자 입자는 여러 입자가 있을 때만 유용합니다. 이는 양자역학의 두 번째 기본 원리인 얽힘(entanglement)으로 이어집니다. 두 개(또는 그 이상)의 얽힌 입자는 개별적으로 설명할 수 없습니다. 그 특성은 서로 전적으로 의존합니다. 따라서 얽힌 큐비트는 서로 영향을 미칠 수 있습니다. 하나의 큐비트(1 또는 0)의 확률 분포는 시스템의 다른 모든 큐비트의 확률 분포에 따라 달라집니다.
이 때문에 시스템에 새로운 큐비트가 추가될 때마다 컴퓨터가 분석할 수 있는 상태 수가 두 배로 늘어납니다. 이러한 컴퓨터 성능의 기하급수적인 증가는 새로운 비트마다 선형적으로만 확장되는 기존 컴퓨팅과 대조됩니다.
이론적으로 얽힌 큐비트는 수십억 개의 작업을 동시에 수행할 수 있습니다. 이 기능은 N2, 2N 또는 N 범위의 복잡성을 갖는 모든 알고리즘에 상당한 가속을 제공할 것이 분명합니다.
양자 기반 인공 지능을 준비하세요
양자 컴퓨팅의 엄청난 잠재력으로 인해 하드웨어 팀은 이러한 시스템을 현실화하기 위해 계속 노력하고 있으며(현재 최대 규모는 IBM의 127-Qubit Eagle 시스템), 소프트웨어 연구원 New 이러한 "동시 컴퓨팅" 기능을 활용할 수 있는 알고리즘은 이미 암호화, 화학, 재료 과학, 시스템 최적화, 기계 학습/인공 지능 등의 분야에서 연구되고 있습니다. Shor의 인수분해된 양자 알고리즘은 기존 컴퓨터에 비해 기하급수적인 속도 향상을 제공할 것으로 믿어지며, 이는 현재 암호화 알고리즘에 위험을 초래합니다.
가장 흥미롭게도 양자 선형 대수학은 다항식 속도 향상을 제공하여 인공 신경망의 성능을 크게 향상시킬 것으로 믿어집니다. Google은 하이브리드 양자-고전 기계 학습 모델의 신속한 프로토타입을 생성할 수 있는 양자 기계 학습용 소프트웨어 프레임워크인 TensorFlow Quantum을 출시했습니다. 역시 양자 컴퓨팅 분야의 선두주자인 IBM은 최근 양자 머신러닝의 양자 우월성에 대한 '수학적 증거'를 발견했다고 발표했습니다. 그러나 IBM과 Google 같은 회사는 수직적으로 통합되어(따라서 하드웨어 시스템과 소프트웨어 알고리즘을 동시에 개발하지만) 또한 Zapata, Riverlane, 1Qbit 및 어느 정도 Quantinuum(Cambridge Quantum Computing이 Honeywell과 합병되고 이름이 변경된 이후 더 이상 순수 소프트웨어 회사가 아님)을 포함하여 매우 흥미로운 양자 소프트웨어 스타트업이 많이 있습니다. 몇 가지 예.
양자 하드웨어가 더욱 강력해지고 양자 기계 학습 알고리즘이 정교해짐에 따라 양자 컴퓨팅은 AI 칩 시장에서 상당한 점유율을 차지할 가능성이 높습니다.
위 내용은 양자컴퓨팅과 인공지능은 어떤 관계인가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

Editor | KX 약물 연구 및 개발 분야에서 단백질과 리간드의 결합 친화도를 정확하고 효과적으로 예측하는 것은 약물 스크리닝 및 최적화에 매우 중요합니다. 그러나 현재 연구에서는 단백질-리간드 상호작용에서 분자 표면 정보의 중요한 역할을 고려하지 않습니다. 이를 기반으로 Xiamen University의 연구자들은 처음으로 단백질 표면, 3D 구조 및 서열에 대한 정보를 결합하고 교차 주의 메커니즘을 사용하여 다양한 양식 특징을 비교하는 새로운 다중 모드 특징 추출(MFE) 프레임워크를 제안했습니다. 조정. 실험 결과는 이 방법이 단백질-리간드 결합 친화도를 예측하는 데 있어 최첨단 성능을 달성한다는 것을 보여줍니다. 또한 절제 연구는 이 프레임워크 내에서 단백질 표면 정보와 다중 모드 기능 정렬의 효율성과 필요성을 보여줍니다. 관련 연구는 "S"로 시작된다

7월 5일 이 웹사이트의 소식에 따르면 글로벌파운드리는 올해 7월 1일 보도자료를 통해 타고르 테크놀로지(Tagore Technology)의 전력질화갈륨(GaN) 기술 및 지적재산권 포트폴리오 인수를 발표하고 자동차와 인터넷 시장 점유율 확대를 희망하고 있다고 밝혔다. 더 높은 효율성과 더 나은 성능을 탐구하기 위한 사물 및 인공 지능 데이터 센터 응용 분야입니다. 생성 AI와 같은 기술이 디지털 세계에서 계속 발전함에 따라 질화갈륨(GaN)은 특히 데이터 센터에서 지속 가능하고 효율적인 전력 관리를 위한 핵심 솔루션이 되었습니다. 이 웹사이트는 이번 인수 기간 동안 Tagore Technology의 엔지니어링 팀이 GLOBALFOUNDRIES에 합류하여 질화갈륨 기술을 더욱 개발할 것이라는 공식 발표를 인용했습니다. G
