뇌에도 트랜스포머가 있다! '해마'와 동일한 메커니즘
, 만들 수 없고 이해할 수 없습니다
—— Ferman
은 인공 지능을 만들고 싶어합니다. 먼저 인간의 두뇌가 지능적인 이유를 이해해야 합니다.신경망의 탄생과 그에 따른 눈부신 발전으로 연구자들은 신경망에 대한
생물학적 설명을 찾고 있었고, 생물학적 진보는 AI 연구자들이 새로운 모델을 개발하도록 영감을 주었습니다.
AI 모델을 사용하여 뇌를 이해하는 데 도움을 주는 것입니다.
최근 연구에 따르면 가장 인기 있는Transformer 모델은 생물학적 지식의 도움 없이 개발되었지만 구조가 인간 두뇌의 해마 구조와 매우 유사하다는 사실이 밝혀졌습니다.
연구원들은 Transformer에 재귀 위치 인코딩을 장착한 후 모델이 해마를 정확하게 복제할 수 있음을 발견했습니다. )의
공간 표현. 그러나 저자는 또한 이 결과에 놀라지 않는다고 말했습니다. 왜냐하면 Transformer는 신경 과학 분야의 현재
해마 모델과 밀접하게 관련되어 있기 때문에 가장 눈에 띄는 것은 place cell(place cell) 및 grid입니다. 셀 (그리드 셀). 게다가 실험을 통해 Transformer 모델이 신경과학 버전에서 제공하는 모델에 비해 엄청난 성능 향상을 보이는 것으로 나타났습니다.
이 작업은 인공 신경망과 뇌 네트워크의 계산을 결합하여
해마와 대뇌 피질사이의 상호 작용에 대한 새로운 이해를 제공하고 현재의 신경 과학 모델을 넘어서 대뇌 피질 영역이 더 넓은 범위의 복잡한 작업에 대해 수행하는 방식에 대한 힌트를 제공합니다. 언어 이해와 같은. Transformer가 해마를 시뮬레이션한다고요?
인간이 자신의 뇌를 이해하는 것은 여전히 어렵습니다. 예를 들어, "우리가 어디에 있는지, 무엇이 모퉁이에 있는지, 거기에 어떻게 가는지"를 해결하기 위해 뇌가 공간 정보를 어떻게 구성하고 접근하는지 연구하는 것은 여전히 어려운 과제입니다. .
전체 프로세스에는 전체 메모리 네트워크를 불러오고 각각 수천 개의 다른 뉴런에 연결된 수백억 개의 뉴런에서 저장된 공간 데이터가 포함될 수 있습니다.
신경과학자들은 그리드 세포, 위치를 매핑하는 뉴런과 같은 몇 가지 핵심 요소를 식별했지만 더 깊은 연구를 수행하는 방법은 아직 알려져 있지 않습니다. 연구자들은 인간의 회백질 조각을 제거하고 연구하여 이미지의 위치 기반 기억이 어떻게 이루어지는지 관찰할 수 없습니다. , 소리, 냄새가 흐르고 서로 연결됩니다.
인공지능 모델은 인간의 뇌를 이해하는 또 다른 방법을 제공합니다. 지난 수년 동안 신경과학자들은 다양한 유형의 신경망을 사용하여 뇌의 뉴런 발사를 시뮬레이션해 왔습니다.
최근 연구에 따르면 해마(기억에 중요한 뇌 구조)는 기본적으로 Transformer 모델과 유사합니다.
연구원들은 뇌의 내부 작동과 유사한 방식으로 공간 정보를 추적하는 새로운 모델을 사용하여 몇 가지 놀라운 결과를 얻었습니다.
옥스포드 대학과 스탠포드 대학의 인지 신경과학자 James Whittington은 이러한 뇌 모델이 트랜스포머와 동일하다는 것을 알면 새로운 모델이 더 나은 성능을 발휘하고 훈련하기가 더 쉽다는 것을 의미한다고 말했습니다.
Whittington과 다른 사람들의 연구에서 볼 수 있듯이 Transformer는 신경망 모델의 능력을 크게 향상시켜 그리드 셀과 뇌의 다른 부분에서 수행되는 다양한 계산을 모방할 수 있습니다.
Whitington은 이러한 모델이 인공 신경망의 작동 방식, 더 나아가 뇌에서 계산이 수행되는 방식에 대한 이해를 향상시킬 수 있다고 말합니다.
트랜스포머 모델 연구에 주로 종사하는 Google Brain 컴퓨터 과학자 David Ha는 우리가 새로운 뇌를 재현하려는 것이 아니라 뇌가 할 수 있는 일을 하는 메커니즘을 만들 수 있다고 말했습니다.
Transformer는 자연어를 처리하는 인공지능의 새로운 모델로 5년 전 처음 제안된 BERT, GPT-3 등 '스타 모델'의 비밀 무기이기도 했습니다. 이러한 모델은 설득력 있는 노래 가사를 생성하고 셰익스피어 소네트를 작곡하거나 일부 인간 고객 서비스 작업을 수행할 수 있습니다.
Transformer의 핵심 메커니즘은 self-attention입니다. 여기서 각 입력(단어, 픽셀, 연속된 숫자 등)은 항상 다른 모든 입력에 연결되는 반면, 다른 일반적인 신경망은 입력만 연결합니다. 특정 입력이 연결되어 있습니다.
Transformer는 자연어 작업을 위해 특별히 설계되었지만 후속 연구에 따르면 Transformer는 이미지 분류 및 뇌 모델링과 같은 다른 작업에서도 우수한 성능을 발휘하는 것으로 나타났습니다.
2020년 오스트리아 린츠에 있는 요한 케플러 대학교의 컴퓨터 과학자 Sepp Hochreiter(LSTM 논문의 첫 번째 저자)가 이끄는 팀은 Transformer를 사용하여 강력하고 오래 지속되는 메모리 검색 모델인 홉필드 네트워크.
프린스턴 물리학자 John Hopfield가 40년 전에 처음 제안한 이 네트워크는 일반적인 규칙을 따릅니다. 즉, 동시에 활성화되는 뉴런은 서로 강한 연결을 설정합니다.
Hochreiter와 그의 협력자들은 연구자들이 항상 더 나은 기억 검색 모델을 찾고 있으며 새로운 클래스의 Hopfield 네트워크가 기억을 검색하는 방식과 Transformer가 주의를 기울이는 방식 사이의 연관성을 확인했다고 언급했습니다.
MIT-IBM Watson 인공 지능 연구소의 Hopfield와 Dmitry Krotov가 개발한 이 새로운 Hopfield 네트워크는 더 효율적인 연결을 가지며 표준 Hopfield 네트워크보다 더 많은 메모리를 저장하고 검색할 수 있습니다. ㅋㅋㅋ 이를 업그레이드하기 위한 Transformer 규칙의 메커니즘 네트워크.
2022년에 이 새로운 논문은 Hochreiter의 방법을 더욱 조정하고 Transformer를 수정하여 메모리를 더 이상 선형 시퀀스로 처리하지 않고 문장의 단어 문자열처럼 공간의 고차원 좌표로 인코딩하도록 수정했습니다. .
연구원들은 이러한 "비틀림"이 신경과학 작업에서 모델의 성능을 더욱 향상시킨다고 말합니다. 실험 결과는 또한 이 모델이 신경과학자들이 fMRI 스캔에서 보는 격자 세포 발화 패턴 모델과 수학적으로 동일하다는 것을 보여주었습니다.
University College London의 신경과학자 Caswell Barry는 격자 세포가 무작위로 발생할 가능성이 없는 놀라운 패턴을 지닌 흥미롭고 아름답고 규칙적인 구조를 가지고 있다고 말했습니다.
이 새로운 연구는 Transformer가 해마에서 관찰된 패턴을 어떻게 정확하게 복제하는지 보여줍니다.
또한 그들은 Transformer 모델이 이전 상태와 이동 방법을 기반으로 어디에 있는지, 그리고 전통적인 그리드 셀 모델에 들어가는 핵심 방식을 파악할 수 있다는 것을 인식했습니다.
다른 최근 연구에서도 Transformer가 다른 뇌 기능에 대한 이해를 높일 수 있다고 제안합니다.
작년에 MIT 컴퓨터 신경과학자 Martin Schrimpf는 43개의 서로 다른 신경망 모델을 분석하여 fMRI와 전기피질검사에서 보고된 인간 신경 활동 측정값을 얼마나 잘 예측했는지 확인했습니다.
그는 Transformer가 현재 이미징에서 발견되는 거의 모든 변화를 예측할 수 있는 선도적이고 가장 발전된 신경망이라는 것을 발견했습니다.
컴퓨터 과학자이기도 한 David Ha와 Yujin Tang은 최근에 인체가 감각 관찰을 어떻게 전송하는지 시뮬레이션하여 Transformer에 대량의 데이터를 무작위로 무질서하게 입력할 수 있는 모델을 설계했습니다. 뇌. Transformer는 우리의 두뇌처럼 무질서한 정보 흐름을 성공적으로 처리할 수 있다는 것이 밝혀졌습니다.
문서 링크: https://arxiv.org/abs/2111.14377
Yujin Tang은 신경망이 배선되어 있으며 특정 입력만 받을 수 있다고 말했습니다. 그러나 실제 생활에서는 데이터 세트가 빠르게 변경되는 경우가 많으며 대부분의 AI는 조정할 방법이 없습니다. 앞으로는 빠르게 적응할 수 있는 아키텍처를 시도해보고 싶습니다.
위 내용은 뇌에도 트랜스포머가 있다! '해마'와 동일한 메커니즘의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

오늘 저는 시계열 예측 성능을 향상시키기 위해 잠재 공간에서 시계열 데이터를 대규모 자연어 처리(NLP) 모델과 정렬하는 방법을 제안하는 코네티컷 대학의 최근 연구 작업을 공유하고 싶습니다. 이 방법의 핵심은 잠재 공간 힌트(프롬프트)를 사용하여 시계열 예측의 정확성을 높이는 것입니다. 논문 제목: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting 다운로드 주소: https://arxiv.org/pdf/2403.05798v1.pdf 1. 큰 문제 배경 모델

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라
