ICCV 2023 발표: ControlNet 및 SAM과 같은 인기 논문이 상을 받았습니다.
컴퓨터 비전 국제회의(ICCV)가 이번주 프랑스 파리에서 개막했습니다
컴퓨터 비전 분야 세계 최고 학술회의인 ICCV는 2년마다 개최됩니다.
ICCV의 인기는 항상 CVPR과 동등하며 계속해서 새로운 최고치를 경신했습니다.
오늘 개회식에서 ICCV는 올해 논문 데이터를 공식 발표했습니다. 올해 ICCV에 총 8068개의 제출물이 제출되었으며 그 중 2160개가 승인되었습니다. 합격률은 26.8%로 지난 ICCV 2021 합격률 25.9%보다 소폭 높은 수준이다

논문 주제에 대해서도 관계자가 관련 데이터를 발표했다. 다시점과 센서를 탑재한 3D 기술이 가장 많다. 인기

오늘 개막식의 가장 중요한 부분은 역시 시상식입니다. 다음으로 우수논문, 우수논문상 후보, 최우수 학생논문 수상자를 하나씩 발표하겠습니다
Best Paper-Marr Award
올해 최우수논문(Marr Award)에는 수상논문 2편이 있습니다
첫 번째 연구는 토론토 대학교

저자: Mian Wei, Sotiris Nousias, Rahul Gulve, David B. Lindell, Kiriakos N. Kutulakos
재작성된 내용: 토론토 대학은 평판이 좋은 기관입니다
요약: 이 기사에서는 역동적인 장면을 동시에 이미징하는 문제인 극단적인 시간 척도(초)를 고려합니다. 피코초까지), 많은 빛도 없고 그것을 방출하는 광원의 타이밍 신호도 없이 수동적으로 수행됩니다. 이 경우 단일 광자 카메라에 대한 기존 플럭스 추정 기술이 실패하기 때문에 우리는 확률론적 미적분학에서 통찰력을 얻어 광자 감지 타임스탬프 스트림에서 재구성된 픽셀의 시변 플럭스를 활성화하는 플럭스 감지 이론을 개발합니다.
이 문서에서는 이 이론을 활용하여 (1) 수동 자유 실행 SPAD 카메라가 낮은 플럭스 조건에서 전체 DC~31GHz 범위에 걸쳐 달성 가능한 주파수 대역폭을 가짐을 보여주고, (2) 새로운 Fu Leaf 도메인 플럭스 재구성 알고리즘을 도출합니다. (3) 매우 낮은 광자 수 또는 무시할 수 없는 데드 타임에 대해서도 알고리즘의 노이즈 모델이 유효한지 확인합니다.
ControlNet, SAM 등 인기 논문이 수상했으며, ICCV 2023 논문상이 발표되었습니다. 이 논문은 비동기 이미징 메커니즘의 잠재력을 실험적으로 보여줍니다. (1) 동기화 없이 상당히 다른 속도로 작동하는 광원(전구, 프로젝터, 다중 펄스 레이저)에 의해 동시에 조명되는 장면을 이미지화하고, (2) 수동 비선형 -영상 획득; (3) 나중에 30Hz로 재생할 수 있는 초광대역 영상을 녹화하여 일상적인 움직임을 보여주지만, 빛 자체의 전파를 보여주기 위해 10억 배 더 느리게

필요한 콘텐츠 다시 작성해야 할 내용은 다음과 같습니다. 두 번째 기사는 우리가 ControNet

문서 주소: https://arxiv.org/pdf/2302.05543.pdf
작성자: Zhang Lumin, Rao Anyi, Maneesh Agrawala
입니다. 기관: 스탠포드 대학교
요약: 이 논문은 그래프 생성 효과를 향상시키기 위해 추가 조건을 추가하여 확산 모델(예: Stable Diffusion)을 제어할 수 있는 엔드투엔드 신경망 아키텍처 ControlNet을 제안합니다. -선화에서 컬러 이미지를 생성하고 동일한 깊이 구조의 이미지를 생성하며 손 키 포인트를 통해 손 생성을 최적화합니다.
ControlNet의 핵심 아이디어는 텍스트 설명에 몇 가지 추가 조건을 추가하여 확산 모델(예: Stable Diffusion)을 제어함으로써 생성된 이미지의 캐릭터 포즈, 깊이, 그림 구조 및 기타 정보를 더 잘 제어하는 것입니다.
다음으로 다시 작성됨: 모델이 Canny 가장자리 감지, 깊이 감지, 의미론적 분할, Hough 변환 선 감지, 전체 중첩 가장자리 감지(HED), 인간 자세 인식 등을 수행할 수 있도록 이미지 형태로 추가 조건을 입력할 수 있습니다. 작업을 수행하고 결과 이미지에 이 정보를 유지합니다. 이 모델을 이용하면 선화나 그래피티를 바로 풀컬러 이미지로 변환하여 동일한 깊이 구조의 이미지를 생성할 수 있으며, 동시에 손 키포인트를 통해 캐릭터 손 생성도 최적화할 수 있습니다

부탁드립니다. 자세한 소개를 참조하세요. 이 사이트의 보고서: AI 차원 축소가 인간 화가를 강타하고, Vincentian 그래프가 ControlNet에 도입되고, 깊이와 가장자리 정보가 완전히 재사용됩니다.
최우수 논문 후보: SAM
올해 4월, Meta는 모든 이미지나 비디오의 객체에 대한 마스크를 생성할 수 있는 SAM(Separate Everything)의 AI 모델이라는 논문을 발표했습니다. 이 기술은 컴퓨터 비전 분야의 연구자들에게 충격을 주었고 일부에서는 "CV는 더 이상 존재하지 않습니다"라고까지 말했습니다.
이제 이 주목할만한 논문이 최우수 논문 후보에 올랐습니다.

논문 주소: https://arxiv.org/abs/2304.02643
재작성 내용: 기관: Meta AI
재작성 내용: 분할 문제의 해결 방법은 현재 대략 두 가지 방법이 있습니다. 첫 번째는 대화형 분할로, 모든 클래스의 객체를 분할하는 데 사용할 수 있지만 사람이 마스크를 반복적으로 조정하여 방법을 안내해야 합니다. 두 번째는 자동 분할로, 미리 정의된 특정 개체 범주(예: 고양이 또는 의자)를 분할하는 데 사용할 수 있지만 훈련을 위해 수동으로 주석을 추가한 개체(예: 분할된 고양이의 수천 또는 수만 개 예)가 필요합니다. . 이 두 가지 방법 중 어느 것도 보편적인 완전 자동 분할 방법을 제공하지 않습니다.
Meta가 제안한 SAM은 이 두 가지 방법을 잘 요약합니다. Interactive Segmentation과 자동 Segmentation을 쉽게 수행할 수 있는 단일 모델입니다. 모델의 프롬프트 가능한 인터페이스를 통해 사용자는 모델에 대한 올바른 프롬프트(클릭, 상자 선택, 텍스트 등)를 디자인하여 광범위한 세분화 작업을 완료할 수 있습니다.
요약하자면 이러한 기능은 SAM을 만듭니다. 새로운 작업과 영역에 적응할 수 있습니다. 이러한 유연성은 이미지 분할 분야에서 독특합니다.
자세한 내용은 이 사이트의 보고서를 참조하세요. CV가 더 이상 존재하지 않나요? Meta는 "모든 것을 분할" AI 모델을 출시하고 CV는 GPT-3 순간을 안내할 수 있습니다
Best Student Paper
이 연구는 Cornell University, Google Research 및 UC Berkeley의 연구원이 공동으로 완료했으며 저자는 다음과 같습니다. Cornell Tech의 박사과정 학생인 Qianqian Wang. 그들은 완전하고 전체적으로 일관된 모션 표현인 OmniMotion을 공동으로 제안했으며, 비디오의 모든 픽셀에 대해 정확하고 완전한 모션 추정을 수행하기 위한 새로운 테스트 시간 최적화 방법을 제안했습니다.

- 논문 주소:https://arxiv.org/abs/2306.05422
- 프로젝트 홈페이지:https://omnimotion.github.io/
컴퓨터 비전 분야에는 일반적으로 사용되는 모션 추정 방법에는 희소 특징 추적과 조밀한 광학 흐름의 두 가지 유형이 있습니다. 그러나 두 방법 모두 몇 가지 단점이 있습니다. 희소 특징 추적은 모든 픽셀의 움직임을 모델링할 수 없는 반면, 조밀한 광학 흐름은 오랜 시간 동안 움직임 궤적을 캡처할 수 없습니다
OmniMotion은 비디오 특성화를 위해 준3D 표준 볼륨을 사용하는 연구에서 제안된 새로운 기술입니다. OmniMotion은 로컬 공간과 표준 공간 간의 전단사를 통해 모든 픽셀을 추적할 수 있습니다. 이 표현 방법은 객체가 가려진 경우에도 전체적인 일관성과 모션 추적을 보장할 뿐만 아니라 카메라와 객체 모션의 모든 조합을 모델링할 수도 있습니다. 실험을 통해 OmniMotion 방식이 기존 SOTA 방식보다 성능이 훨씬 우수하다는 것이 입증되었습니다.

자세한 소개는 이 사이트의 보고서를 참조하세요. 모든 픽셀이 언제 어디서나 차단되더라도 추적할 수 있습니다. 모든 것을 추적하세요" 비디오 알고리즘 여기 왔어요
물론, 이러한 수상 논문 외에도 올해 ICCV에는 주목할 만한 뛰어난 논문이 많이 있습니다. 마지막으로, 수상 경력이 있는 17개 논문의 초기 목록은 다음과 같습니다.

위 내용은 ICCV 2023 발표: ControlNet 및 SAM과 같은 인기 논문이 상을 받았습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











하지만 공원에 있는 노인을 이길 수는 없을까요? 파리올림픽이 본격화되면서 탁구가 많은 주목을 받고 있다. 동시에 로봇은 탁구 경기에서도 새로운 돌파구를 마련했습니다. 방금 DeepMind는 탁구 경기에서 인간 아마추어 선수 수준에 도달할 수 있는 최초의 학습 로봇 에이전트를 제안했습니다. 논문 주소: https://arxiv.org/pdf/2408.03906 DeepMind 로봇은 탁구를 얼마나 잘 치나요? 아마도 인간 아마추어 선수들과 동등할 것입니다: 포핸드와 백핸드 모두: 상대는 다양한 플레이 스타일을 사용하고 로봇도 견딜 수 있습니다: 다양한 스핀으로 서브를 받습니다. 그러나 게임의 강도는 그만큼 강렬하지 않은 것 같습니다. 공원에 있는 노인. 로봇용, 탁구용

8월 21일, 2024년 세계로봇대회가 베이징에서 성대하게 개최되었습니다. SenseTime의 홈 로봇 브랜드 "Yuanluobot SenseRobot"은 전체 제품군을 공개했으며, 최근에는 Yuanluobot AI 체스 두는 로봇인 체스 프로페셔널 에디션(이하 "Yuanluobot SenseRobot")을 출시하여 세계 최초의 A 체스 로봇이 되었습니다. 집. Yuanluobo의 세 번째 체스 게임 로봇 제품인 새로운 Guoxiang 로봇은 AI 및 엔지니어링 기계 분야에서 수많은 특별한 기술 업그레이드와 혁신을 거쳤으며 처음으로 3차원 체스 말을 집는 능력을 실현했습니다. 가정용 로봇의 기계 발톱을 통해 체스 게임, 모두 체스 게임, 기보 복습 등과 같은 인간-기계 기능을 수행합니다.

개학이 코앞으로 다가왔습니다. 새 학기를 앞둔 학생들뿐만 아니라 대형 AI 모델도 스스로 관리해야 합니다. 얼마 전 레딧에는 클로드가 게으르다고 불평하는 네티즌들이 붐볐습니다. "레벨이 많이 떨어졌고, 자주 멈췄고, 심지어 출력도 매우 짧아졌습니다. 출시 첫 주에는 4페이지 전체 문서를 한 번에 번역할 수 있었지만 지금은 반 페이지도 출력하지 못합니다. !" https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ "클로드에게 완전히 실망했습니다"라는 제목의 게시물에

베이징에서 열린 세계로봇컨퍼런스에서는 휴머노이드 로봇의 전시가 현장의 절대 화두가 됐다. 스타더스트 인텔리전트 부스에서는 AI 로봇 어시스턴트 S1이 덜시머, 무술, 서예 3대 퍼포먼스를 선보였다. 문학과 무술을 모두 갖춘 하나의 전시 공간은 수많은 전문 관객과 미디어를 끌어 모았습니다. 탄력 있는 현의 우아한 연주를 통해 S1은 정밀한 작동과 속도, 힘, 정밀성을 갖춘 절대적인 제어력을 보여줍니다. CCTV 뉴스는 '서예'의 모방 학습 및 지능형 제어에 대한 특별 보도를 진행했습니다. 회사 설립자 Lai Jie는 부드러운 움직임 뒤에 하드웨어 측면이 최고의 힘 제어와 가장 인간과 유사한 신체 지표(속도, 하중)를 추구한다고 설명했습니다. 등)이지만 AI측에서는 사람의 실제 움직임 데이터를 수집해 로봇이 강한 상황에 직면했을 때 더욱 강해지고 빠르게 진화하는 방법을 학습할 수 있다. 그리고 민첩하다

참가자들은 이번 ACL 컨퍼런스에서 많은 것을 얻었습니다. ACL2024는 6일간 태국 방콕에서 개최됩니다. ACL은 전산언어학 및 자연어 처리 분야 최고의 국제학술대회로 국제전산언어학회(International Association for Computational Linguistics)가 주최하고 매년 개최된다. ACL은 NLP 분야에서 학술 영향력 1위를 항상 차지하고 있으며, CCF-A 추천 컨퍼런스이기도 합니다. 올해로 62회째를 맞이하는 ACL 컨퍼런스에는 NLP 분야의 최신 저서가 400편 이상 접수됐다. 어제 오후 컨퍼런스에서는 최우수 논문과 기타 상을 발표했습니다. 이번에 최우수논문상 7개(미출판 2개), 우수주제상 1개, 우수논문상 35개가 있다. 이 컨퍼런스에서는 또한 3개의 리소스 논문상(ResourceAward)과 사회적 영향상(Social Impact Award)을 수상했습니다.

오늘 오후 Hongmeng Zhixing은 공식적으로 새로운 브랜드와 신차를 환영했습니다. 8월 6일, Huawei는 Hongmeng Smart Xingxing S9 및 Huawei 전체 시나리오 신제품 출시 컨퍼런스를 개최하여 파노라마식 스마트 플래그십 세단 Xiangjie S9, 새로운 M7Pro 및 Huawei novaFlip, MatePad Pro 12.2인치, 새로운 MatePad Air, Huawei Bisheng을 선보였습니다. 레이저 프린터 X1 시리즈, FreeBuds6i, WATCHFIT3 및 스마트 스크린 S5Pro를 포함한 다양한 새로운 올-시나리오 스마트 제품, 스마트 여행, 스마트 오피스, 스마트 웨어에 이르기까지 화웨이는 풀 시나리오 스마트 생태계를 지속적으로 구축하여 소비자에게 스마트한 경험을 제공합니다. 만물인터넷. Hongmeng Zhixing: 스마트 자동차 산업의 업그레이드를 촉진하기 위한 심층적인 권한 부여 화웨이는 중국 자동차 산업 파트너와 손을 잡고

컨퍼런스 소개 과학기술의 급속한 발전과 함께 인공지능은 사회 발전을 촉진하는 중요한 힘이 되었습니다. 이 시대에 우리는 분산인공지능(DAI)의 혁신과 적용을 목격하고 참여할 수 있어 행운입니다. 분산 인공지능(Distributed Artificial Intelligence)은 인공지능 분야의 중요한 한 분야로, 최근 몇 년간 점점 더 많은 주목을 받고 있습니다. 대규모 언어 모델(LLM) 기반 에이전트가 갑자기 등장했습니다. 대규모 모델의 강력한 언어 이해와 생성 기능을 결합하여 자연어 상호 작용, 지식 추론, 작업 계획 등에 큰 잠재력을 보여주었습니다. AIAgent는 빅 언어 모델을 이어받아 현재 AI계에서 화제가 되고 있습니다. 오

비전과 로봇 학습의 긴밀한 통합. 최근 화제를 모으고 있는 1X 휴머노이드 로봇 네오(NEO)와 두 개의 로봇 손이 원활하게 협력해 옷 개기, 차 따르기, 신발 싸기 등을 하는 모습을 보면 마치 로봇 시대로 접어들고 있다는 느낌을 받을 수 있다. 실제로 이러한 부드러운 움직임은 첨단 로봇 기술 + 정교한 프레임 디자인 + 다중 모드 대형 모델의 산물입니다. 우리는 유용한 로봇이 종종 환경과 복잡하고 절묘한 상호작용을 요구한다는 것을 알고 있으며, 환경은 공간적, 시간적 영역에서 제약으로 표현될 수 있습니다. 예를 들어, 로봇이 차를 따르도록 하려면 먼저 로봇이 찻주전자 손잡이를 잡고 차를 흘리지 않고 똑바로 세운 다음, 주전자 입구와 컵 입구가 일치할 때까지 부드럽게 움직여야 합니다. 을 누른 다음 주전자를 특정 각도로 기울입니다. 이것
