인공지능의 '상식' 문제를 해결하는 방법
번역가 | Li Rui
리뷰어 | Sun Shujuan
최근 몇 년 동안 딥 러닝은 컴퓨터 비전, 음성 인식 및 자연어 처리를 포함하여 가장 어려운 인공 지능 분야에서 큰 발전을 이루었습니다.
그러나 딥러닝 시스템은 여전히 일부 문제를 해결하지 못했습니다. 딥 러닝 시스템은 새로운 상황을 잘 처리하지 못하기 때문에 학습하는 데 많은 양의 데이터가 필요하고 때로는 제작자조차 혼란스럽게 만드는 기괴한 실수를 저지르기도 합니다.
일부 과학자들은 점점 더 큰 신경망을 만들고 이를 점점 더 큰 데이터 세트로 훈련함으로써 이러한 문제를 해결할 수 있다고 믿습니다. 인공지능 분야에 필요한 것은 인간의 '상식'이라고 믿는 사람들도 있다.
새 책 "Machines Like Us"에서 컴퓨터 과학자 Ronald J. Brachman과 Hector J. Levesque는 "상식"이라는 인공 지능 퍼즐의 누락된 조각에 대한 생각과 가능한 해결책을 제시합니다. 수십 년간. 업계 언론과의 인터뷰에서 Brachman은 상식이 무엇인지, 왜 기계에 상식이 없는지, 그리고 "지식 표현" 개념이 어떻게 인공 지능 커뮤니티를 올바른 방향으로 이끌 수 있는지에 대해 논의했습니다. "지식 표현"이라는 개념은 수십 년 동안 존재했지만 딥러닝 열풍 동안 보류되었습니다.
아직 가설의 영역에 갇혀 있지만, 『우리 같은 기계』라는 책은 1970년대부터 인공지능에 깊이 관여한 두 사람의 덕분에 잠재적인 연구 분야에 대한 새로운 시각을 제시합니다.
좋은 AI 시스템은 이상한 실수를 저지릅니다
Brachman은 “지난 10~12년 동안 사람들이 딥러닝에 대해 남다른 열정을 보이면서 우리가 할 수 있는 일을 할 수 있는 딥러닝 기반 시스템에 대한 연구가 많이 있었습니다. 원래는 인공 지능이 할 수 있는 모든 일에 대해 논의했습니다. ”
인공 지능 초기의 비전은 로봇 형태로 작동할 수 있는 자급자족형 자율 시스템을 만드는 것이었습니다. 특정 상황에서는 인간의 개입이 거의 또는 전혀 없습니다.
브락크먼은 “요즘 많은 사람들이 딥러닝이 무엇을 이룰 수 있는지에 열광하다 보니 연구 범위가 많이 좁아졌다. 특히 산업 분야에서는 막대한 자금 지원과 인재 채용이 경험을 바탕으로 한 연구를 추진해왔다. 또는 많은 사람들이 일반 인공 지능에 가깝다고 주장하는 시스템에 너무 많은 관심을 기울이고 있거나 '좋은 구식 인공 지능'(GOFAI) 또는 상징적 접근 방식이 완전히 구식이거나 불필요합니다."
분명히 , 인상적이기는 하지만 딥러닝 시스템은 아직 해결되지 않은 수수께끼의 문제에 직면해 있습니다. 신경망은 입력 값에 대해 특별히 고안된 수정으로 인해 기계 학습 모델이 출력을 갑작스럽고 잘못된 변경으로 만드는 적대적 공격에 취약합니다. 딥러닝은 또한 단순한 인과관계를 이해하는 데 어려움을 겪으며, 개념을 구상하고 조합하는 데도 형편없습니다. 대규모 언어 모델은 최근 특별한 관심 분야였지만 일관되고 인상적인 텍스트를 생성하는 데 있어 때로는 매우 어리석은 실수를 저지르기도 합니다.
Brachman은 "인공지능이 저지르는 실수에 대한 사람들의 인식은 멍청하고 무지해 보인다는 것이고, 인간은 그런 실수를 거의 하지 않는다는 것입니다. 그러나 중요한 것은 이러한 실수의 이유가 다소 설명하기 어렵다는 것입니다."라고 말했습니다. 이러한 실수로 인해 Brachman과 Levesque는 오늘날의 AI 기술에서 누락된 부분과 예시 중심 교육 신경망 시스템을 보완하거나 교체하는 데 필요한 것이 무엇인지 생각해 보게 되었습니다.
Brachman은 “생각해보면 이러한 시스템에 분명히 부족한 것은 인간이 상식이라고 부르는 것, 즉 많은 사람들에게 분명한 것을 보고 간단하고 분명한 결론에 빠르게 도달하고, 터무니없거나 잘못된 선택이라고 즉시 깨닫는 일을 하지 마세요.”
상식이란 무엇인가요?
AI 커뮤니티는 초창기부터 상식을 이야기해왔습니다. 실제로 1958년 John McCarthy가 작성한 최초의 인공 지능 논문 중 하나는 "상식을 갖춘 프로그램"이라는 제목이었습니다.
브래크먼은 “이것은 새로운 것도 아니고, 우리가 만들어낸 이름도 아니지만, 상식이 무엇인지, 그것이 무엇을 의미하는지 더 깊이 이해한다면 현장은 인공지능의 선구자들이 말한 핵심 의미를 망각해버렸다. 그것을 가지면 우리에게 도움이 될 것입니다. 더 중요한 것은 그것이 어떻게 작동하고 어떻게 구현될 것인지에 대한 심리학 문헌에서는 지침을 거의 찾을 수 없다는 것입니다." 책 Machines Like Us에서 Brachman과 Levesque는 상식으로 전환합니다. “평범하고 일상적이며 실용적인 목표를 달성하기 위해 일상적이고 경험적인 지식을 효과적으로 사용하는 능력”입니다.
상식은 생존에 필수적입니다. 인간과 고등동물은 경험을 통해 학습하고 매일 직면하는 대부분의 상황을 처리할 수 있는 루틴 및 자동 조종 기술을 개발하도록 진화했습니다. 하지만 일상은 사람들이 계속해서 접하는 일상 그 이상입니다. 사람들은 이전에 한 번도 본 적이 없는 새로운 상황에 직면할 때가 많습니다. 그 중 일부는 평소와 매우 다를 수 있지만 대부분의 경우 사람들은 사물을 익숙한 것과 조금 다르게 봅니다. AI 논의에서는 이를 '롱테일'이라고 부르기도 합니다.
Brachman은 “우리 생각에는 이러한 루틴이 중단되면 실제로 상식이 가장 먼저 활성화되어 사람들이 새로운 상황을 빨리 이해하고 이전에 무엇을 했는지 기억하고 빠르게 기억을 조정하고 이를 적용할 수 있게 해줍니다. ”
상식은 심리학자이자 노벨상 수상자인 다니엘 카너먼(Daniel Kahneman)이 대중화한 이중 시스템 사고 패러다임과 어떤 면에서는 다소 다릅니다. 상식은 사람들이 특별한 집중 없이 할 수 있는 대부분의 일상 업무(예: 양치질, 신발 끈 묶기, 단추 채우기, 익숙한 지역에서 운전)를 수행하는 빠른 자동 조종 시스템 1 사고가 아닙니다. 현재의 틀에서 벗어나기 위해서는 긍정적인 사고가 필요합니다.
동시에 상식은 시스템 2 사고가 아닙니다. 시스템 2 사고는 완전한 집중과 단계별 사고가 필요한 느린 사고 모드입니다(예: 6주간의 여행 계획, 소프트웨어 설계, 복잡한 문제 해결) 수학 방정식) .
Brachman은 "사람들은 문제에 대처하기 위해 깊이 생각할 수 있습니다. 이런 종류의 생각은 뇌를 지치게 하고 속도를 느리게 만듭니다. 상식적으로는 깊이 생각할 필요가 없기 때문에 거의 모든 일상 생활에서 이러한 상황을 피할 수 있습니다."
출판된 저서에서 Brachman과 Levesque는 상식이 사려 깊고 체계적인 분석보다 빠르게 작동하는 '피상적 인지 현상'임을 강조합니다.
"그것을 알아내는 데 많은 생각이 필요하다면 상식이 아닙니다. '반성적 사고'라고 생각하면 되고, '반성적'도 '생각'만큼 중요합니다."
공통 없는 AI sense 직면한 위험
상식에는 예측 가능성, 신뢰, 설명 가능성 및 책임이 필요합니다.
Brachman은 "대부분의 사람들은 이상한 실수를 하지 않습니다. 사람들이 어리석은 일을 할 수도 있지만 반성하고 나면 그러한 실수를 피할 수 있습니다. 인간은 완벽하지 않지만 어느 정도 실수는 있습니다. AI를 통한 도전 상식이 없는 시스템은 훈련의 한계에 도달하면 실수를 할 수 있다는 것입니다. Brachman은 오류가 완전히 예측할 수 없고 설명할 수 없다고 말했습니다.
Brachman은 "상식이 없는 AI 시스템에는 이러한 관점이 없고 스스로 이상한 일을 하는 것을 막을 수 있는 대안도 없으며 취약해집니다. 실수를 하면 그 실수는 그들에게 전혀 의미가 없습니다.
"라고 말했습니다. 이러한 오류는 이미지에 라벨을 잘못 붙이는 등의 무해한 오류부터 자율주행차가 잘못된 차선으로 운전하게 만드는 등 매우 위험한 오류까지 다양합니다.
Brachman과 Levesque는 책에서 "AI 시스템이 직면하는 문제가 체스를 두는 것이고 그 관심사가 게임에서 승리하는 것이라면 상식은 그들에게 적용되지 않을 것이며 사람들이 체스를 둘 때 게임을 할 때 일반적입니다. ”
따라서 인공 지능 시스템이 자동차 운전이나 인간과의 협업, 심지어 공개 대화 참여와 같은 공개 분야의 민감한 응용 프로그램에 들어갈 때 상식은 매우 중요한 역할을 할 것입니다. 이 분야에서는 항상 새롭고 흥미로운 일이 일어나고 있습니다.
Brachman과 Levesque는 저서 Machines Like Us에서 다음과 같이 썼습니다. “인공 지능 시스템이 현실 세계에서 흔히 발생하는 일을 합리적인 방식으로 처리할 수 있으려면 이미 발생한 일을 이해하는 것 이상을 수행해야 합니다. 과거에 일어난 일을 보고 내면화하는 것만으로는 미래를 예측할 수 없습니다.”
Revisiting Symbolic Artificial Intelligence
대부분의 과학자들은 현재의 AI 시스템에 상식이 부족하다는 데 동의합니다. 그러나 해결책에 관해서는 종종 의견 차이가 있습니다. 대중적인 추세는 신경망을 점점 더 크게 만들고 있습니다. 더 큰 신경망이 계속해서 점진적인 개선을 이루고 있다는 증거가 있습니다. 어떤 경우에는 대규모 신경망이 제로샷 학습 기술을 보여 훈련되지 않은 작업을 수행합니다.
그러나 더 많은 데이터와 계산이 상식 없는 인공지능 시스템의 문제를 해결하는 것이 아니라 더 크고 더 혼란스러운 수치 가중치와 행렬 연산에 숨길 뿐이라는 것을 보여주는 수많은 연구와 실험도 있습니다.
Brachman은 "이러한 시스템은 상관 관계나 패턴을 알아차리고 내면화합니다. '개념'을 형성하지 않습니다. 이러한 시스템이 언어와 상호 작용하더라도 사람들이 메커니즘을 가지고 있다고 생각하는 근본적인 심리학과 개념 없이 단순히 인간 행동을 모방할 뿐입니다."
Brachman과 Levesque는 상식적인 지식과 세상에 대한 상식적인 이해를 인코딩하는 시스템을 만드는 것을 옹호합니다.
그들은 책에 다음과 같이 적었습니다. “상식 지식은 세상에 있는 사물과 그것이 가지고 있는 속성에 관한 것이며, 우리가 개념적 구조라고 부르는 것을 매개로 합니다. 그것은 존재할 수 있는 다양한 사물과 그들이 가질 수 있는 다양한 속성에 관한 것입니다. 지식은 상징적 표현과 이러한 상징적 구조에 대한 계산 작업 수행을 통해 사용됩니다. 무엇을 해야 할지에 대한 상식적인 결정은 목표를 달성하는 방법과 관찰된 상황에 대해 무엇을 해야 할지 고려하는 것과 같습니다.
Brachman과 Levesque는 컴퓨터에 상식을 적용하기 위해 해당 분야가 상징적 인공 지능에 대한 초기 작업 중 일부를 되돌아보고 재검토해야 한다고 믿습니다. 그들은 이것을 "지식 표현" 가설이라고 부릅니다. 이 책에서는 지식 표현(KR) 시스템을 구축하는 방법과 다양한 지식을 결합하여 보다 복잡한 형태의 지식과 추론을 형성하는 방법을 자세히 설명합니다.
지식 표현(KR) 가설에 따르면 상식 지식의 표현은 두 부분으로 나누어집니다. “하나는 세계의 상태를 표현하는 세계 모델이고, 다른 하나는 개념적 지식을 표현하는 개념 모델입니다. 이것은 세계를 표현하는 데 사용할 수 있는 모델입니다. 프로젝트를 분류하기 위한 일반적인 프레임워크입니다. "
Brachman은 "우리의 견해는 일종의 기호가 존재하는 인공 지능에 대한 초기 생각으로 돌아가는 것입니다. 그리고 기호 조작 프로그램(사람들이 추론 엔진이라고 부르던 것)은 사람들이 상식이라고 부르는 세상에 대한 기본 지식, 즉 직관적이거나 순진한 물리학, 인간과 다른 에이전트가 어떻게 행동하고 의도를 가지고 있는지에 대한 기본적인 이해를 코딩하고 사용할 수 있습니다. 신념, 시간과 사건이 어떻게 작동하는지, 원인과 결과 등. 이것은 우리가 2년 동안 얻은 모든 지식입니다. 공식적으로 표현된 세상에 대한 지식은 실제로 기계의 동작에 인과적인 영향을 미칠 수 있습니다. 또한 구성성 같은 모든 작업을 수행하고 익숙한 것을 새로운 방식으로 제시합니다.”
Brachman은 책에서 제시한 가정이 미래에는 반증될 수 있다고 강조했습니다.
Brachman은 “장기적으로는 이 모든 지식을 사전 구축하거나 사전 코딩하거나 AI 시스템이 다른 방식으로 학습하도록 하는 것에 관한 것인지는 알 수 없습니다. 실험에 따르면, AI의 다음 단계는 첫 번째 단계는 이러한 지식 기반을 구축하고 시스템이 이를 사용하여 일상 생활의 예상치 못한 사건을 처리하고 익숙하고 익숙하지 않은 상황을 처리하는 방법에 대해 대략적인 추측을 하는 것입니다. ”
Brachman과 Levesque의 가설은 Cyc와 같은 상징적 상식 지식 기반을 기반으로 하는 이전의 노력을 기반으로 하며, 이 프로젝트는 1980년대로 거슬러 올라가며 세계에 대한 수백만 개의 규칙과 개념을 수집했습니다.
Brachman은 “더 나아가서 자율적인 의사 결정 기계가 일상적인 의사 결정 상황에서 이러한 것들을 어떻게 사용하는지에 초점을 맞춰야 한다고 생각합니다. 사실적 지식을 축적하고 위험한 유형에 답할 수 있는 것입니다. 하지만 시끄러운 세상에서 일하고 예상치 못한 놀라움에 합리적이고 신속하게 대응할 수 있다는 것은 완전히 다른 문제입니다. "
머신러닝이 상식적으로 중요한 역할을 합니까? Brachman은 머신러닝 기반 시스템이 인공지능을 인식하는 데 계속 핵심 역할을 할 것이라고 말했습니다.
그는 “나는 인공 망막의 픽셀을 처리하기 위해 1차 술어 미적분학을 사용하거나 속도 신호 처리를 처리하기 위한 기호 운영 체제를 사용하도록 강요하지 않을 것입니다. 이러한 기계 학습 시스템은 저감각 수준 인식 작업에 매우 좋습니다. 아직 이해되지 않은 것들은 인지 사슬에서 얼마나 높은지, 사람들이 현장에서 보는 것과 자연어 사이에 개념과 연결을 형성하지 않기 때문에 끝까지 도달하지 못합니다.”
원제:
AI의 '공통'을 해결하는 방법. 감각' 문제
, 작성자: Ben Dickson
위 내용은 인공지능의 '상식' 문제를 해결하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

Editor | Radish Skin 2021년 강력한 AlphaFold2가 출시된 이후 과학자들은 단백질 구조 예측 모델을 사용하여 세포 내 다양한 단백질 구조를 매핑하고 약물을 발견하며 알려진 모든 단백질 상호 작용에 대한 "우주 지도"를 그려 왔습니다. 방금 Google DeepMind는 단백질, 핵산, 소분자, 이온 및 변형된 잔기를 포함한 복합체에 대한 결합 구조 예측을 수행할 수 있는 AlphaFold3 모델을 출시했습니다. AlphaFold3의 정확도는 과거의 많은 전용 도구(단백질-리간드 상호작용, 단백질-핵산 상호작용, 항체-항원 예측)에 비해 크게 향상되었습니다. 이는 단일 통합 딥러닝 프레임워크 내에서 다음을 달성할 수 있음을 보여줍니다.

Editor | KX 약물 연구 및 개발 분야에서 단백질과 리간드의 결합 친화도를 정확하고 효과적으로 예측하는 것은 약물 스크리닝 및 최적화에 매우 중요합니다. 그러나 현재 연구에서는 단백질-리간드 상호작용에서 분자 표면 정보의 중요한 역할을 고려하지 않습니다. 이를 기반으로 Xiamen University의 연구자들은 처음으로 단백질 표면, 3D 구조 및 서열에 대한 정보를 결합하고 교차 주의 메커니즘을 사용하여 다양한 양식 특징을 비교하는 새로운 다중 모드 특징 추출(MFE) 프레임워크를 제안했습니다. 조정. 실험 결과는 이 방법이 단백질-리간드 결합 친화도를 예측하는 데 있어 최첨단 성능을 달성한다는 것을 보여줍니다. 또한 절제 연구는 이 프레임워크 내에서 단백질 표면 정보와 다중 모드 기능 정렬의 효율성과 필요성을 보여줍니다. 관련 연구는 "S"로 시작된다
