


ICLR 2024 | 오디오 및 비디오 분리에 대한 새로운 관점을 제공하는 Tsinghua University의 Hu Xiaolin 팀은 RTFS-Net을 출시했습니다.
AVSS(시청각 음성 분리) 기술의 주요 목적은 얼굴 정보를 사용하여 혼합 신호에서 대상 화자의 음성을 식별하고 분리하는 것입니다. 이 기술은 스마트 비서, 원격 회의, 증강 현실 등 다양한 분야에 폭넓게 적용됩니다. AVSS 기술을 통해 시끄러운 환경에서 음성 신호의 품질을 크게 향상시켜 음성 인식 및 통신 효과를 향상시킬 수 있습니다. 이 기술의 발전으로 사람들의 일상 생활과 업무가 편리해졌습니다.
전통적인 시청각 음성 분리 방법은 일반적으로 복잡한 모델과 많은 컴퓨팅 리소스를 필요로 하며, 특히 배경이 시끄럽거나 사람이 많은 경우 더욱 그렇습니다. 이 경우 성능이 쉽게 제한됩니다. 이러한 문제를 극복하기 위해 연구자들은 딥러닝 기반 방법을 탐색하기 시작했습니다. 그러나 기존 딥러닝 기술은 계산 복잡도가 높고, 미지의 환경에 적응하기 어렵다는 과제를 안고 있습니다.
구체적으로 현재의 시청각 음성 분리 방식은 다음과 같은 문제점이 있습니다.
시간 영역 방식: 고품질의 오디오 분리 효과를 제공할 수 있지만, 매개 변수가 많아짐에 따라 계산 복잡도가 높아지고 처리 속도가 빨라집니다. 더 느립니다.
시간-주파수 영역 방법: 계산적으로 더 효율적이지만 역사적으로 시간 영역 방법에 비해 성능이 좋지 않습니다. 이들은 세 가지 주요 과제에 직면해 있습니다.
1. 시간 및 주파수 차원에 대한 독립적인 모델링이 부족합니다.
2. 모델 성능을 향상시키는 데 여러 수용 필드의 시각적 단서가 완전히 활용되지 않습니다.
3. 복잡한 기능을 부적절하게 처리하면 주요 진폭 및 위상 정보가 손실됩니다.
이러한 문제를 해결하기 위해 Tsinghua University의 Hu Xiaolin 부교수 팀의 연구원들은 RTFS-Net이라는 새로운 시청각 음성 분리 모델을 제안했습니다. 이 모델은 압축 재구성 방법을 채택하여 모델의 계산 복잡성과 매개변수 수를 크게 줄이면서 분리 성능을 향상시킵니다. RTFS-Net은 100만개 미만의 매개변수를 사용하는 최초의 시청각 음성 분리 방법이며, 시간-주파수 영역 다중 모드 분리에서 모든 시간 영역 모델을 능가하는 최초의 방법이기도 합니다.
논문 주소: https://arxiv.org/abs/2309.17189
논문 홈페이지: https://cslikai.cn/RTFS-Net/AV-Model-Demo.html
-
코드 주소: https://github.com/spkgyk/RTFS-Net (출시 예정)
방법 소개
RTFS-Net의 전체 네트워크 아키텍처는 아래 그림 1에 나와 있습니다.
RTFS 블록(그림 2 참조)은 음향 차원(시간 및 주파수)을 압축하고 독립적으로 모델링하여 복잡성이 낮은 부분 공간을 생성하려고 시도합니다. 정보 손실을 줄이기 위해 노력하고 있습니다. 특히, RTFS 블록은 시간 및 주파수 차원 모두에서 오디오 신호를 효율적으로 처리하기 위해 이중 경로 아키텍처를 사용합니다. 이 접근 방식을 통해 RTFS 블록은 오디오 신호에 대한 높은 감도와 정확성을 유지하면서 계산 복잡성을 줄일 수 있습니다. 다음은 RTFS 블록의 구체적인 작업 흐름입니다.
1. 시간-주파수 압축: RTFS 블록은 먼저 시간 및 주파수 차원에서 입력 오디오 기능을 압축합니다. 2. 독립 차원 모델링: 압축이 완료된 후 RTFS 블록은 시간 및 주파수 차원을 독립적으로 모델링합니다. 3. 차원 융합: RTFS 블록은 시간과 주파수 차원을 독립적으로 처리한 후 융합 모듈을 통해 두 차원의 정보를 병합합니다. 4. 재구성 및 출력: 마지막으로 융합된 특징은 일련의 디콘볼루션 레이어를 통해 원래의 시간-주파수 공간으로 다시 재구성됩니다. ㅋㅋㅋ 그림 2. RTFS 블록의 네트워크 구조 CAF(Cross-Dimensional Attention Fusion) 모듈(그림 3 참조)은 오디오 및 시각적 정보를 효과적으로 융합하고 음성 분리 효과를 향상시키며 계산 복잡성을 줄입니다. 기존 SOTA 방식에 비해 1.3%에 불과하다. 구체적으로 CAF 모듈은 먼저 깊이 및 그룹화된 컨볼루션 작업을 사용하여 주의 가중치를 생성합니다. 이러한 가중치는 입력 기능의 중요도에 따라 동적으로 조정되므로 모델이 가장 관련성이 높은 정보에 집중할 수 있습니다. 그런 다음 생성된 주의 가중치를 시각적 및 청각적 특징에 적용함으로써 CAF 모듈은 다차원의 주요 정보에 집중할 수 있습니다. 이 단계에는 다양한 차원의 특성에 가중치를 부여하고 융합하여 포괄적인 특성 표현을 생성하는 작업이 포함됩니다. 주의 메커니즘 외에도 CAF 모듈은 게이팅 메커니즘을 채택하여 다양한 소스의 기능 융합 정도를 추가로 제어할 수도 있습니다. 이 접근 방식은 모델의 유연성을 향상시키고 보다 정밀한 정보 흐름 제어를 가능하게 합니다.그림 3. CAF 융합 모듈의 개략적인 구조도
스펙트럼 소스 분리(S^3) 블록의 설계 개념은 음성을 효과적으로 추출하기 위해 복소수로 표현 혼합 오디오 기능에서 대상 스피커의 이 방법은 오디오 신호의 위상 및 진폭 정보를 최대한 활용하여 소스 분리의 정확성과 효율성을 향상시킵니다. 그리고 복잡한 네트워크를 사용하면 S^3 블록이 대상 화자의 음성을 분리할 때 특히 세부 사항을 보존하고 아티팩트를 줄이는 데 있어 아래와 같이 신호를 더 정확하게 처리할 수 있습니다. 마찬가지로 S^3 블록의 설계를 통해 다양한 오디오 처리 프레임워크에 쉽게 통합할 수 있고 다양한 소스 분리 작업에 적합하며 일반화 기능이 뛰어납니다.
실험 결과
분리 효과
아래에 표시된 것처럼 세 가지 벤치마크 다중 모달 음성 분리 데이터 세트(LRS2, LRS3 및 VoxCeleb2)에서 RTFS-Net은 모델 매개변수와 계산 성능을 크게 줄였습니다. 현재의 최첨단 성능에 접근하거나 초과하는 복잡성. 효율성과 성능 간의 균형은 RTFS 블록 수(4, 6, 12개 블록)가 다른 변형을 통해 입증됩니다. 여기서 RTFS-Net-6은 성능과 효율성의 적절한 균형을 제공합니다. RTFS-Net-12는 테스트된 모든 데이터 세트에서 가장 좋은 성능을 발휘하여 복잡한 오디오 및 비디오 동기화 분리 작업을 처리하는 데 시간-주파수 영역 방법의 장점을 입증했습니다.
실제 효과
혼합 동영상: 여성 스피커 오디오:
남성 스피커 오디오:
요약
대형모형 기술개발의 지속적인 발전, 시청각 음성 분리 분야에서도 분리 품질을 향상시키기 위해 대형 모델을 추구하고 있습니다. 그러나 이는 최종 장치에는 적합하지 않습니다. RTFS-Net은 크게 감소된 계산 복잡성과 매개변수 수를 유지하면서 상당한 성능 향상을 달성합니다. 이는 AVSS 성능을 개선하는 데 반드시 더 큰 모델이 필요한 것이 아니라 오디오와 시각적 양식 간의 복잡한 상호 작용을 더 잘 포착하는 혁신적이고 효율적인 아키텍처가 필요하다는 것을 보여줍니다.
위 내용은 ICLR 2024 | 오디오 및 비디오 분리에 대한 새로운 관점을 제공하는 Tsinghua University의 Hu Xiaolin 팀은 RTFS-Net을 출시했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고

인공지능은 생각보다 빠르게 발전하고 있습니다. GPT-4가 다중 모드 기술을 대중의 시선에 도입한 이후 다중 모드 대형 모델은 급속한 개발 단계에 진입하여 순수 모델 연구 및 개발에서 수직 분야의 탐색 및 적용으로 점차 전환하고 모든 계층과 깊이 통합되었습니다. 인터페이스 상호작용 분야에서는 구글, 애플 등 국제 기술 대기업들이 대형 멀티모달 UI 모델 연구개발에 투자해 왔으며, 이는 휴대폰 AI 혁명의 유일한 길로 평가받고 있다. 이러한 맥락에서 중국 최초의 대규모 UI 모델이 탄생했습니다. 지난 8월 17일 IXDC2024 국제 경험 디자인 컨퍼런스에서 AI 시대의 디자인 도구인 Motiff가 자체 개발한 UI 멀티모달 모델인 Motiff 모델을 출시했습니다. 이것은 세계 최초의 UI 디자인 도구입니다.
