Rumah > Peranti teknologi > AI > teks badan

ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik

PHPz
Lepaskan: 2024-08-08 21:01:32
asal
687 orang telah melayarinya
ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架
Lajur AIxiv ialah lajur di mana tapak ini menerbitkan kandungan akademik dan teknikal. Dalam beberapa tahun kebelakangan ini, lajur AIxiv laman web ini telah menerima lebih daripada 2,000 laporan, meliputi makmal terkemuka dari universiti dan syarikat utama di seluruh dunia, mempromosikan pertukaran dan penyebaran akademik secara berkesan. Jika anda mempunyai kerja yang sangat baik yang ingin anda kongsikan, sila berasa bebas untuk menyumbang atau hubungi kami untuk melaporkan. E-mel penyerahan: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
Pengarang pertama dan pengarang yang sepadan bagi kertas ini adalah kedua-duanya dari Makmal MIPL Institut Sains Komputer Wangxuan, Universiti Peking Xu Zhu, Penulis yang sepadan ialah penyelia kedoktoran Liu Yang. Dalam beberapa tahun kebelakangan ini, MIPL Laboratory telah menerbitkan beberapa keputusan perwakilan di persidangan teratas seperti IJCV, CVPR, AAAI, ICCV, ICML, ECCV, dll., dan telah memenangi banyak anugerah kejuaraan dalam pertandingan heavyweight dalam bidang CV di rumah dan luar negara bekerjasama secara meluas.

Penjanaan imej interaksi watak merujuk kepada penjanaan imej yang memenuhi keperluan perihalan teks, dan kandungannya ialah interaksi antara orang dan objek, dan imej itu diperlukan untuk menjadi realistik dan semantik yang mungkin. Dalam tahun-tahun kebelakangan ini, model imej yang dijana teks telah mencapai kemajuan yang ketara dalam menjana imej kehidupan sebenar, tetapi model ini masih menghadapi cabaran dalam menghasilkan imej kesetiaan tinggi dengan interaksi manusia sebagai kandungan utama. Kesukaran terutamanya berpunca daripada dua aspek: pertama, kerumitan dan kepelbagaian postur manusia membawa cabaran kepada penjanaan watak yang munasabah kedua, penjanaan kawasan sempadan interaktif yang tidak boleh dipercayai (kawasan yang kaya dengan semantik interaktif) boleh menyebabkan kegagalan ekspresi semantik interaktif watak; tidak mencukupi.

Sebagai tindak balas kepada masalah di atas, pasukan penyelidik dari Universiti Peking mencadangkan rangka kerja penjanaan imej interaksi manusia yang sedar postur dan interaksi (SA-HOI), yang menggunakan kualiti penjanaan postur manusia dan maklumat kawasan sempadan interaksi sebagai panduan untuk proses denoising imej interaksi watak yang lebih munasabah dan realistik dihasilkan. Untuk menilai secara menyeluruh kualiti imej yang dihasilkan, mereka juga mencadangkan penanda aras penjanaan imej interaksi manusia yang komprehensif.

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架

  • Pautan kertas: https://proceedings.mlr.press/v235/xu24e.html

  • Laman utama projek: https://sites.google.com/view/sa-hoi/

  • Pautan kod sumber: https://github.com/XZPKU/SA-HOI

  • Laman utama makmal: http://www.wict.pku.edu.cn/mipl

SA-HOI ialah A kaedah penjanaan imej interaksi manusia sedar semantik meningkatkan kualiti keseluruhan penjanaan imej interaksi manusia dan mengurangkan masalah penjanaan sedia ada daripada kedua-dua postur badan manusia dan semantik interaktif. Dengan menggabungkan kaedah penyongsangan imej, penyongsangan berulang dan proses pembetulan imej dijana, yang secara beransur-ansur boleh membetulkan sendiri imej yang dijana dan meningkatkan kualiti.

Dalam makalah itu, pasukan penyelidik juga mencadangkan penanda aras penjanaan imej interaksi manusia pertama yang meliputi interaksi manusia-objek, manusia-haiwan dan manusia-manusia, dan mereka bentuk penunjuk penilaian disasarkan untuk penjanaan imej interaksi manusia. Eksperimen yang meluas menunjukkan bahawa kaedah ini mengatasi kaedah penjanaan imej berasaskan resapan sedia ada di bawah kedua-dua metrik penilaian untuk penjanaan imej interaksi manusia dan penjanaan imej konvensional.

Pengenalan Kaedah

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架

                                                                                                                                                                                                                                                                                                      Pengenalan kaedah Panduan postur dan interaktif(Panduan Pose dan Interaksi, PIG) dan Inversion Inversion and Refinement Pipeline

(Iterative Inversion and Refinement Pipeline, IIR).

Dalam PIG, untuk penerangan teks interaksi watak tertentu ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan hingar ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, model resapan stabil (Resapan Stabil [2]) mula-mula digunakan untuk menjana ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 sebagai imej awal dan pengesan pose [3] digunakan untuk mendapatkan kedudukan sendi badan manusia ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan skor keyakinan yang sepadan ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 , membina topeng pose ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 yang menyerlahkan kawasan pose berkualiti rendah.

Untuk panduan interaktif, model segmentasi digunakan untuk mengesan kawasan sempadan interaksi, mendapatkan mata utama ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan skor keyakinan yang sepadan ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, dan menyerlahkan kawasan interaksi dalam topeng interaksi ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 untuk meningkatkan ekspresi semantik sempadan interaksi. Untuk setiap langkah denoising, ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik dan ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik digunakan sebagai kekangan untuk membetulkan kawasan yang diserlahkan ini, dengan itu mengurangkan masalah penjanaan yang wujud di kawasan ini. Di samping itu, IIR digabungkan dengan model penyongsangan imej N untuk mengekstrak bunyi n dan pembenaman t penerangan teks daripada imej yang memerlukan pembetulan lanjut, dan kemudian menggunakan PIG untuk melakukan pembetulan seterusnya pada imej, dan menggunakan kualiti penilai Q untuk menilai kualiti imej yang diperbetulkan Menilai dan menggunakan operasi untuk meningkatkan kualiti imej secara beransur-ansur. 🎙

Pseudokod persampelan berpandukan pose dan interaksi ditunjukkan dalam Rajah 2. Dalam setiap langkah denoising, kami mula-mula mendapatkan ramalan hingar ϵt dan pembinaan semula perantaraan ϵt seperti yang direka dalam model resapan stabil (Resapan Stabil). Kami kemudian menggunakan Gaussian blur G pada untuk mendapatkan ciri terpendam terdegradasi dan , dan seterusnya memperkenalkan maklumat dalam ciri terpendam yang sepadan ke dalam proses penyahnosan.

ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik dan ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik digunakan untuk menjana ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, dan menyerlahkan kawasan kualiti pose rendah dalam ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik dan ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik untuk membimbing model mengurangkan penjanaan herotan di kawasan ini. Untuk membimbing model untuk menambah baik kawasan berkualiti rendah, kawasan skor pose rendah akan diserlahkan melalui formula berikut:

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架

Di mana ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, x, y ialah koordinat piksel demi piksel bagi imej, H, W ialah saiz imej dan σ ialah varians bagi taburan Gaussian. ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 mewakili perhatian yang tertumpu pada sendi ke-i Dengan menggabungkan perhatian semua sendi, kita boleh membentuk peta perhatian akhir ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan menggunakan ambang untuk menukar ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik menjadi topeng ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik.

di mana ϕt ialah ambang yang menjana topeng pada langkah masa t. Begitu juga, untuk panduan interaktif, pengarang kertas kerja menggunakan model segmentasi untuk mendapatkan titik kontur luar objek O dan titik sendi badan manusia C, mengira matriks jarak D antara orang dan objek, dan sampel titik utama sempadan interaksi ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik daripadanya, dan penggunaan serta panduan postur Kaedah yang sama menjana perhatian interaktif ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan topeng ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik dan digunakan untuk mengira hingar ramalan akhir.

Penyongsangan berulang dan proses pembetulan imej

Untuk mendapatkan penilaian kualiti imej yang dijana dalam masa nyata, pengarang kertas kerja memperkenalkan penilai kualiti Q sebagai panduan untuk operasi berulang. Untuk imej pusingan ke-k ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, penilai Q digunakan untuk mendapatkan skor kualitinya ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, dan kemudian ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik dijana berdasarkan ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架. Untuk mengekalkan kandungan utama ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik selepas pengoptimuman, hingar yang sepadan diperlukan sebagai nilai awal untuk denoising.

Walau bagaimanapun, hingar sedemikian tidak tersedia, jadi kaedah penyongsangan imej ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 diperkenalkan untuk mendapatkan ciri potensi hingar ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架 dan pembenaman teks ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架, sebagai input PIG, untuk menjana hasil yang dioptimumkan ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik.

반복 라운드 전후의 품질 점수를 비교하여 최적화를 계속할지 여부를 판단할 수 있습니다. ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik 사이에 큰 차이가 없는 경우, 즉 임계값 θ 미만인 경우 프로세스가 이미지를 충분히 개선하여 최적화를 종료하고 가장 높은 품질 점수의 이미지를 출력합니다.

캐릭터 상호작용 이미지 생성 벤치마크

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架                                                       >

인간 상호작용 이미지 생성 작업을 위해 설계된 기존 모델 및 벤치마크가 없다는 점을 고려하여, 저자 논문의 150개 인간 상호 작용 카테고리를 포함하는 실제 인간 상호 작용 이미지 데이터 세트와 인간 상호 작용 이미지 생성에 맞춤화된 여러 평가 지표를 포함하여 인간 상호 작용 이미지 생성 벤치마크를 수집하고 통합했습니다.

이 데이터 세트는 오픈 소스 인간 상호 작용 감지 데이터 세트 HICO-DET[5]에서 필터링되어 인간-물체, 인간-동물, 인간-인간의 세 가지 상호 작용 시나리오를 포괄하는 150개의 인간 상호 작용 범주를 얻습니다. 생성된 인간 상호작용 이미지의 품질을 평가하기 위해 본 논문의 참조 데이터 세트로 총 5k개의 인간 상호작용 실제 이미지를 수집했습니다.

생성된 캐릭터 인터랙션 이미지의 품질을 더 잘 평가하기 위해 논문의 저자는 캐릭터 인터랙션 생성에 대한 여러 가지 평가 기준을 신뢰성(Authenticity), 타당성(Plausibility), 충실도(Fidelity) 관점에서 맞춤화했습니다. 종합적인 평가 생성된 이미지의 신뢰성 측면에서, 논문의 저자는 생성된 결과가 실제 이미지에 가까운지 평가하기 위해 포즈 분포 거리와 사람-물체 거리 분포를 도입했습니다. 생성된 결과가 분포 측면에서 실제 이미지에 가까울수록 더 좋습니다. 품질. 타당성 측면에서는 생성된 인간 관절의 신뢰성과 합리성을 측정하기 위해 포즈 신뢰도 점수를 계산합니다. 충실도 측면에서는 인간 상호 작용 감지 작업과 이미지-텍스트 검색 작업을 사용하여 생성된 이미지와 입력 텍스트 간의 의미적 일관성을 평가합니다.

실험 결과

기존 방법과의 비교 실험 결과는 캐릭터 상호작용 이미지 생성 지표와 기존 이미지 생성 지표의 성능을 각각 비교한 Table 1과 Table 2와 같다. ​​​​​​​​​​​​표 2: 기존 이미지 생성 지표에서 기존 방법과의 비교 실험 결과

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架실험 결과는 본 논문의 방법이 인간과 같은 다차원에서 기존 모델보다 우수하다는 것을 보여줍니다. 신체 생성 품질, 상호 작용 의미 표현, 인간 상호 작용 거리, 인간 자세 분포 및 전반적인 이미지 품질.

또한 논문의 저자는 주관적인 평가를 실시하여 많은 사용자를 대상으로 인체 품질, 사물 외관, 대화형 의미 및 전반적인 품질 등 다양한 관점에서 평가하도록 했습니다. 실험 결과는 SA-HOI 방법이 우수함을 입증합니다. 모든 각도에서 인간의 미학과 더 일치합니다.

                                                                            표 3: 기존 방법을 사용한 주관적 평가 결과

정성적 실험에서 아래 그림은 동일한 캐릭터 상호작용 카테고리 설명에 대해 다양한 방법으로 생성된 결과를 비교한 것입니다. 위의 사진 그룹에서 새로운 방법을 사용한 모델은 "키스"의 의미를 정확하게 표현하고 생성된 인체 자세도 더욱 합리적입니다. 아래 사진 그룹에서 논문의 방법은 다른 방법에 존재하는 인체의 왜곡과 뒤틀림을 성공적으로 완화하고 손이 닿는 부분에 여행 가방의 레버를 생성하여 "여행 가방 가져가기"의 상호 작용을 향상시킵니다. 의미론적 표현을 통해 인체 자세와 상호작용 의미론 모두에서 다른 방법보다 우수한 결과를 얻습니다. ㅋㅋㅋ ~          .

ICML 2024 | 人物交互图像,现在更懂你的提示词了,北大推出基于语义感知的人物交互图像生成框架참고 자료:

[1] Rombach, R., Blattmann, A., Lorenz, D., Esser, P. 및 Ommer, B. Proceedings에서 잠재 확산 모델을 사용한 고해상도 이미지 합성. IEEE/CVF

컴퓨터 비전 및 패턴 인식(CVPR) 컨퍼런스, 페이지 10684–10695, 2022년 6월

[2] HuggingFace, 2022. URL https://huggingface . co/CompVis/stable-diffusion-v1-4.

[3] Chen, K., Wang, J., Pang, J., Cao, Y., Xiong, Y., Li, X . , Sun, S., Feng, W., Liu, Z., Xu, J., Zhang, Z., Cheng, D., Zhu, C

., Cheng, T., Zhao, Q., Li, B., Lu, X., Zhu, R., Wu, Y., Dai, J., Wang, J., Shi, J., Ouyang, W., Loy, C. C. 및 Lin, D. MM감지: 공개 mmlab 감지 도구 상자 및 벤치마크 arXiv:1906.07155, 2019.

[4] Ron Mokady, Amir Hertz, Kfir Aberman, Yael Pritch 및 Daniel Cohen-Or Null-

텍스트 arXiv preprint

arXiv:2211.09794, 2022.

[5] Yu-Wei Chao, Zhan Wang, Yugeng He, Jiaxuan Wang 및 Jia Deng HICO: 이미지에서 인간과 사물의 상호 작용을 인식하기 위한 벤치마크, 컴퓨터 비전에 관한 IEEE 국제 컨퍼런스 진행, 2015.

Atas ialah kandungan terperinci ICML 2024 |. Imej interaksi watak, kini saya memahami kata-kata segera anda dengan lebih baik, Universiti Peking melancarkan rangka kerja penjanaan imej interaksi watak berdasarkan persepsi semantik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Label berkaitan:
sumber:jiqizhixin.com
Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn
Tutorial Popular
Lagi>
Muat turun terkini
Lagi>
kesan web
Kod sumber laman web
Bahan laman web
Templat hujung hadapan
Tentang kita Penafian Sitemap
Laman web PHP Cina:Latihan PHP dalam talian kebajikan awam,Bantu pelajar PHP berkembang dengan cepat!