무선 '소울커뮤니케이션'! Cui Tiejun 학자는 유연하고 비침습적인 새로운 뇌-컴퓨터 초표면 개발을 주도하고 있습니다.
최근에는 코딩 메타표면을 통해 전자기 기능의 실시간 및 프로그래밍 가능 제어가 가능해졌지만, 이전 전자기 기능은 기존 수동 장치에서 정적이거나 매우 제한적이었습니다. 그러나 이러한 메타표면에는 여전히 수동 작업이 필요합니다.
사람들의 소망을 직접적으로 감지하고 구별하기 위해 과학자들은 이후 뇌-컴퓨터 인터페이스(BCI) 개념을 제안했고, 뇌-컴퓨터 인터페이스를 통해 뇌와 장치 간의 통신을 구축하려고 시도했습니다. 프로그래밍 가능한 메타표면의 비율은 새로운 관점을 제공합니다. "특수 모자"에서 뇌 신호를 수집함으로써 뇌-컴퓨터 인터페이스는 운영자의 희망을 해독하고 운영자가 복잡한 근육 활동을 수행하지 않고도 제어 대상에 명령을 보낼 수 있습니다.
이제 남동대학교 밀리미터파 국가 핵심 연구소의 추이 티에쥔(Cui Tiejun) 학자 팀은 남중국 공과 대학교, 싱가포르 국립 대학교 등 과학 연구 기관과 함께 한 단계 더 나아가 전자기파를 개발했습니다. 뇌-컴퓨터-메타표면(EBCM).
보고에 따르면 이 메타표면은 정보 합성과 무선 전송을 유연하고 비침습적으로 제어하여 조작자의 뇌 정보를 뇌전도(EEG) 신호로 변환한 다음 다양한 전자기(EM) 명령으로 변환하여 무선 "마음 통신"을 달성할 수 있습니다. 두 운영자 사이.
아래 그림과 같이 관련 명령을 표시하는 모니터가 운영자 앞에 배치됩니다. 간단한 지시만 받으면 EBCM은 운영자의 의도를 이해하고 가시광선 스캐닝, 파동 변조, 패턴 인코딩과 같은 전자기 기능을 구현할 수 있습니다.
관련 연구 논문은 "비침습적 뇌-컴퓨터-메타표면 플랫폼을 통한 인간 마음의 직접 무선 통신"이라는 제목으로 과학저널 eLight에 게재되었습니다.
연구원들은 이 연구가 전자파 공간과 뇌-컴퓨터 인터페이스를 결합하여 메타표면, 인간 두뇌 지능 및 인공 지능의 심층 통합 탐구를 위한 새로운 방향을 제시하고 차세대 생물학적 지능을 구축하는 데 도움이 된다고 말했습니다. 메타표면 시스템.
생각을 이용해 "HELLO"를 출력하세요
본 연구에서 연구팀은 EBCM 기반의 무선 문자 통신을 설계하고 실험적으로 시연했습니다.
연구팀은 뇌-컴퓨터 인터페이스 운영자를 위한 텍스트 그래픽 사용자 인터페이스(GUI)를 제공하므로 시각적 버튼을 "0"과 "1"로 구성된 특정 인코딩 시퀀스로 직접 인코딩할 수 있습니다.
실험에서는 메타표면 반사의 진폭을 구별하기 위해 고이득 단일 빔 모드와 저이득 무작위 산란 모드가 사용되었으며, 이는 각각 코드 "1"(고진폭) 및 "0"에 해당합니다. (낮음) 무선 정보 전송에 사용됩니다.
프로토타입 시연으로 연구원들은 EBCM 통신 시스템에서 한 운영자에서 다른 운영자로 텍스트를 무선으로 전송하는 방법을 시연했습니다.
문자 발송자인 운영자 A는 EBCM GUI의 문자 버튼을 시각적으로 보면서 편지를 보냅니다. EEG 신호에서 대상 문자를 디코딩할 때 FPGA에 ASCII 기반 인코딩 시퀀스가 구현되어 시변 모드를 전환하고 메타표면을 조작하여 운영자 B의 EBCM이 정보를 수신, 복조 및 표시하는 공간으로 정보를 보냅니다.
아래 사진과 같이 연구팀은 "HELLO" 다섯 글자의 무선 전송 과정을 보여주었고, 교환원 B의 화면에는 "HELLO"라는 단어가 성공적으로 표시되었습니다.
시각 빔 스캐닝 실험에서는 작업자가 시각적으로 특정 방향을 바라보며 원하는 빔 스캐닝 방향을 직접 달성했습니다. EBCM은 작업자의 EEG를 감지한 후 해당 빔 스캐닝 방향의 실행 인코딩 패턴을 표시할 수 있습니다.
또한 연구팀은 EBCM의 패턴 인코딩 프로세스도 시연했습니다. 운영자는 특정 버튼을 눌러 필요한 코드를 입력합니다. EBCM에서 감지한 입력 코드는 화면에 노란색 사각형으로 표시됩니다. 마지막 코드 "C4"는 인코딩 프로세스를 종료하고 FPGA에 최종 인코딩 패턴을 계산하도록 지시하는 중지 명령입니다. 이후 EBCM은 계산된 인코딩 패턴을 실행하여 메타표면에 표시합니다.
위의 실험은 작업자가 더 이상 근육과 관련된 움직임이 필요하지 않고 관련 지속적인 자극을 위해 특정 시각적 버튼만 응시하면 EBCM이 이러한 자극을 식별하고 의사소통을 위해 해당 자극을 해당 EM 신호로 변환할 수 있음을 보여줍니다. .
스마트 메타표면이란 무엇인가요?
메타서피스(Metasurface)는 파장보다 두께가 작은 인공적인 층을 이루는 물질을 말합니다. 평면 내 구조 형태에 따라 메타표면은 두 가지 유형으로 나눌 수 있습니다. 하나는 측면 서브파장 미세 구조를 갖는 것이고 다른 하나는 균일한 필름 층을 갖는 것입니다. Metasurfaces는 전자기파 위상, 편광 모드, 전파 모드 및 기타 특성을 유연하고 효과적으로 제어할 수 있습니다.
스마트 메타표면은 이동통신 분야에서 정보 메타물질의 중요한 응용 분야로, 그 기본 원리는 디지털 프로그래밍을 통해 메타물질의 전자기 특성을 제어하고, 일반 벽에 공간 전자파의 확산 반사를 변경하며, 지능을 구현하는 것입니다. 우주전자파를 제어하고 빔포밍하는 기술로 저전력, 저비용 특성을 갖고 있어 미래 이동통신 네트워크의 중요한 인프라가 될 것으로 기대된다.
2014년 초 Cui Tiejun 학자 팀은 지능형 메타표면 하드웨어 시스템 구현에 앞장서 정보 메타물질의 적용을 촉진하는 선례를 세웠습니다.
올해 2월 Cui Tiejun 학자 팀과 공동 작업자는 다층 전송 디지털 인코딩 메타표면을 사용하여 실시간으로 조정될 수 있는 완전 회절 신경망(PAIM)을 구축하여 네트워크 매개변수를 성공적으로 달성했습니다. 실시간 프로그래밍 및 광속 컴퓨팅 특성을 갖추고 있으며, 세계 최초로 완전 회절 조정 가능한 신경망인 영상 인식, 강화 학습, 통신 다채널 인코딩 및 디코딩 등 다양한 응용 사례를 시연했습니다. 마이크로파 공간의 네트워크를 구현하고 시연했습니다.
물론 메타표면의 적용 시나리오는 이에 국한되지 않습니다.
메타표면의 풍부하고 독특한 물리적 특성과 전자기파를 유연하게 조절하는 능력으로 인해 메타표면은 스텔스 기술, 안테나 기술, 마이크로파 및 테라헤르츠 장치, 광전자 장치 등 다양한 분야에서 중요한 응용 가능성을 가질 수 있습니다.
위 내용은 무선 '소울커뮤니케이션'! Cui Tiejun 학자는 유연하고 비침습적인 새로운 뇌-컴퓨터 초표면 개발을 주도하고 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











대규모 언어 모델(LLM)은 자연어 이해, 언어 생성, 복잡한 추론을 비롯한 여러 중요한 작업에서 강력한 기능을 입증했으며 사회에 지대한 영향을 미쳤습니다. 그러나 이러한 뛰어난 기능을 사용하려면 상당한 교육 리소스(왼쪽 참조)와 긴 추론 시간(오른쪽 참조)이 필요합니다. 따라서 연구자들은 효율성 문제를 해결하기 위한 효과적인 기술적 수단을 개발해야 합니다. 또한 그림의 오른쪽에서 볼 수 있듯이 Mistral-7B와 같은 일부 효율적인 LLM(LanguageModel)이 LLM의 설계 및 배포에 성공적으로 사용되었습니다. 이러한 효율적인 LLM은 LLaMA1-33B와 유사한 정확도를 유지하면서 추론 메모리를 크게 줄일 수 있습니다.

3nm 공정, H100을 능가하는 성능! 최근 외신 디지타임스는 엔비디아가 차세대 GPU인 B100(코드명 '블랙웰')을 인공지능(AI)과 고성능컴퓨팅(HPC) 애플리케이션용 제품으로 개발 중이라는 소식을 전했다. B100은 TSMC의 3nm 공정 공정과 더욱 복잡한 MCM(멀티 칩 모듈) 설계를 사용하며 2024년 4분기에 출시될 예정입니다. 인공지능 GPU 시장의 80% 이상을 독점하고 있는 엔비디아의 경우, B100을 이용해 철이 뜨거울 때 공격할 수 있고, 이번 AI 배치 물결에서 AMD, 인텔 등 도전자들을 더욱 공격할 수 있다. NVIDIA 추정에 따르면, 2027년까지 이 분야의 출력 가치는 대략적으로 도달할 것으로 예상됩니다.

최근에는 다중모달 학습이 많은 주목을 받고 있는데, 특히 텍스트-이미지 합성과 이미지-텍스트 대조 학습이라는 두 가지 방향에서 더욱 그렇습니다. OpenAI에서 출시한 텍스트 이미지 모델 DALL・E 및 DALL-E 2, NVIDIA의 GauGAN 및 GauGAN2와 같은 일부 AI 모델은 창의적인 이미지 생성 및 편집에 적용되어 광범위한 대중의 관심을 끌었습니다. 이에 뒤처지지 않기 위해 Google은 5월 말 자체 텍스트-이미지 모델 Imagen을 출시했는데, 이는 캡션 조건부 이미지 생성의 범위를 더욱 확장하는 것으로 보입니다. 장면에 대한 설명만 주어지면 Imagen은 고품질, 고해상도를 생성할 수 있습니다.

다중 모드 대형 모델에 대한 가장 포괄적인 리뷰가 여기에 있습니다! Microsoft의 중국 연구원 7명이 집필한 이 책은 119페이지로 구성되어 있습니다. 이는 이미 완성되어 현재까지 선두에 있는 두 가지 유형의 다중 모드 대형 모델 연구 방향에서 시작하여 시각적 이해와 시각적 생성이라는 5가지 구체적인 연구 주제를 포괄적으로 요약합니다. 통합 시각적 모델 LLM이 지원하는 다중 모드 대형 모델 다중 모드 에이전트는 현상에 초점을 맞춥니다. 다중 모드 기본 모델은 전문화된 모델에서 범용 모델로 이동했습니다. Ps. 그래서 저자는 논문 서두에 도라에몽의 이미지를 직접 그렸습니다. 이 리뷰(보고서)를 누가 읽어야 합니까? Microsoft의 원래 말로: 전문 연구원이든 학생이든 다중 모달 기본 모델의 기본 지식과 최신 진행 상황을 배우는 데 관심이 있는 한 이 콘텐츠는 함께 모이는 데 매우 적합합니다.

이미지-비디오 생성(I2V) 작업은 정적 이미지를 동적 비디오로 변환하는 것을 목표로 하는 컴퓨터 비전 분야의 과제입니다. 이 작업의 어려움은 이미지 콘텐츠의 신뢰성과 시각적 일관성을 유지하면서 단일 이미지에서 시간 차원의 동적 정보를 추출하고 생성하는 것입니다. 기존 I2V 방법에는 이 목표를 달성하기 위해 복잡한 모델 아키텍처와 많은 양의 교육 데이터가 필요한 경우가 많습니다. 최근 Kuaishou가 주도한 새로운 연구 결과 "I2V-Adapter: AGeneralImage-to-VideoAdapter for VideoDiffusionModels"가 발표되었습니다. 본 연구에서는 혁신적인 이미지-비디오 변환 방법을 소개하고 경량 어댑터 모듈을 제안합니다.

2022년 볼츠만상을 수상한 두 명의 과학자가 발표되었습니다. 이 상은 IUPAP 통계물리학위원회(C3)가 통계물리학 분야에서 뛰어난 업적을 이룬 연구자를 표창하기 위해 제정한 것입니다. 우승자는 이전에 볼츠만상이나 노벨상을 수상한 적이 없는 과학자여야 합니다. 이 상은 1975년에 시작되었으며 통계 물리학의 창시자인 루트비히 볼츠만(Ludwig Boltzmann)을 기념하기 위해 3년마다 수여됩니다. 수상 이유: 자기 조직화의 정확한 해결을 포함하여 통계 물리학 분야에 대한 Deepak Dharistheoriginalstatement의 선구적인 공헌을 인정하여 수여됩니다. 중요 모델, 인터페이스 성장, 장애

EfficientSAM의 이 작업은 CVPR2024에 5/5/5점 만점으로 포함되었습니다! 작가는 그 결과를 아래 사진처럼 소셜미디어에 공유했습니다. 르쿤 튜링상 수상자도 이 작품을 강력 추천했습니다! 최근 연구에서 Meta 연구진은 SAM을 사용한 SAMI(Mask Image Pre-training)라는 새로운 개선된 방법을 제안했습니다. 이 방법은 MAE 사전 훈련 기술과 SAM 모델을 결합하여 고품질 사전 훈련된 ViT 인코더를 달성합니다. SAMI를 통해 연구자들은 모델의 성능과 효율성을 개선하고 비전 작업을 위한 더 나은 솔루션을 제공하려고 노력합니다. 이 방법의 제안은 컴퓨터 비전 및 딥 러닝 분야를 더욱 탐구하고 개발할 수 있는 새로운 아이디어와 기회를 제공합니다. 서로 다른 것을 결합하여

영상 생성이 본격화되고 있으며, 피카는 위대한 장군, 즉 피카의 창립 과학자인 구글 연구원 오메르 바르탈(Omer Bar-Tal)을 맞이했습니다. 한 달 전, 구글이 영상 생성 모델인 뤼미에르(Lumiere)를 공동저자로 출시했는데, 그 효과는 놀라웠다. 당시 네티즌들은 “구글이 영상 세대 전쟁에 합류했는데, 또 한 번 볼만한 좋은 쇼가 있다”고 말했다. StabilityAI CEO와 Google의 전 동료들을 포함하여 업계 관계자들이 축복을 보냈습니다. 뤼미에르의 첫 작품, 막 석사 학위를 취득한 오메르 바르탈(Omer Bar-Tal)은 2021년 텔아비브 대학교 수학과 컴퓨터과학과를 졸업한 뒤 와이즈만 과학원에서 컴퓨터 석사 과정을 공부했다. 주로 이미지 및 비디오 합성 분야의 연구에 중점을 두고 있습니다. 그의 논문 결과는 여러 차례 발표되었습니다
