목차
Experiments
기술 주변기기 일체 포함 동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

May 20, 2023 pm 05:16 PM
동영상 개발하다

텍스트를 입력하면 AI가 영상을 생성해 줍니다. 이전에는 사람들의 상상 속에서만 보였던 이 기능이 이제는 기술의 발전으로 실현되었습니다.

최근 몇 년간 생성 인공지능(Genetive Artificial Intelligence)은 컴퓨터 비전 분야에서 큰 주목을 받고 있습니다. 확산 모델의 출현으로 텍스트 프롬프트에서 고품질 이미지를 생성하는 것, 즉 텍스트-이미지 합성이 매우 대중화되고 성공적이 되었습니다.

최근 연구에서는 텍스트-이미지 확산 모델을 비디오 영역에서 재사용하여 텍스트-비디오 생성 및 편집 작업으로 성공적으로 확장하려는 시도가 있습니다. 이러한 방법은 유망한 결과를 얻었지만 대부분은 많은 양의 레이블이 지정된 데이터를 사용하여 광범위한 교육이 필요하므로 많은 사용자에게 너무 비쌀 수 있습니다.

비디오 생성 비용을 저렴하게 만들기 위해 지난해 Jay Zhangjie Wu 등이 제안한 Tune-A-Video에서는 SD(Stable Diffusion) 모델을 비디오 분야에 적용하는 메커니즘을 도입했습니다. 비디오 하나만 조정하면 되므로 교육 작업량을 크게 줄일 수 있습니다. 이는 이전 방법보다 훨씬 효율적이지만 여전히 최적화가 필요합니다. 또한 Tune-A-Video의 생성 기능은 텍스트 안내 비디오 편집 응용 프로그램으로 제한되며 처음부터 비디오를 합성하는 것은 그 기능을 넘어서는 수준입니다.

이 기사에서 Picsart AI Resarch(PAIR), University of Texas at Austin 및 기타 기관의 연구원들은 제로샷 및 훈련 없이 텍스트-비디오 합성이라는 새로운 문제에서 한 걸음 더 나아갔습니다. 최적화나 미세 조정 없이 텍스트 프롬프트를 기반으로 비디오를 생성합니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

  • 논문 주소: https://arxiv.org/pdf/2303.13439.pdf
  • 프로젝트 주소: https://github.com/Picsart-AI- Research/Text2Video-Zero
  • 시험 주소: https://huggingface.co/spaces/PAIR/Text2Video-Zero

어떻게 작동하는지 살펴보겠습니다. 예를 들어, 팬더는 서핑을 하고 있고, 곰은 타임스퀘어에서 춤을 추고 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

연구에서는 대상을 기반으로 작업을 생성할 수도 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

이 백서에서 제안된 접근 방식의 핵심 개념은 사전 학습된 텍스트-이미지 모델(예: Stable Diffusion)을 수정하여 시간 일치 생성으로 이를 강화하는 것입니다. . 이미 훈련된 텍스트-이미지 모델을 기반으로 하는 우리의 접근 방식은 탁월한 이미지 생성 품질을 활용하여 추가 교육 없이도 비디오 도메인에 대한 적용성을 향상시킵니다.

시간적 일관성을 높이기 위해 이 논문에서는 두 가지 혁신적인 수정 사항을 제안합니다. (1) 먼저 생성된 프레임의 잠재 인코딩을 모션 정보로 풍부하게 하여 전역 장면과 배경을 시간적으로 일관되게 유지합니다. (2) 그런 다음 교차를 사용합니다. - 시퀀스 전반에 걸쳐 전경 개체의 컨텍스트, 모양 및 ID를 보존하는 프레임 주의 메커니즘. 실험에 따르면 이러한 간단한 수정으로 고품질의 시간적으로 일관된 비디오를 생성할 수 있습니다(그림 1 참조).

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

다른 사람들의 작업은 대규모 비디오 데이터에 대해 훈련된 반면, 우리의 접근 방식은 유사하고 때로는 더 나은 성능을 달성합니다(그림 8, 9 참조).

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

본 논문의 방법은 텍스트-비디오 합성에만 국한되지 않고 조건부(그림 6, 5 참조) 및 특수 비디오에도 적합합니다. 생성(그림 7 참조), Instruct-Pix2Pix에 의해 구동되는 Video Instruct-Pix2Pix라고 할 수 있는 지침 기반 비디오 편집(그림 9 참조)이 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

본 논문에서는 SD(Stable Diffusion)의 텍스트-이미지 합성 기능을 활용하여 텍스트-비디오 작업을 제로에서 처리합니다. - 총격 상황. 이미지 생성보다는 비디오 생성 요구에 따라 SD는 기본 코드 시퀀스의 작동에 중점을 두어야 합니다. 순진한 접근 방식은 표준 가우스 분포(예:

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

N (0, I) )에서 m개의 잠재적 코드를 독립적으로 샘플링하고 DDIM 샘플링을 적용하여 해당 텐서를 얻습니다

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

, 여기서 k = 1,…,m은 생성된 비디오 시퀀스

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

을 얻기 위해 디코딩됩니다. 그러나 그림 10의 첫 번째 행에 표시된 것처럼 이는 완전히 무작위 이미지 생성으로 이어지며, 객체 모양이나 동작의 일관성 없이

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

에서 설명하는 의미만 공유합니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

이 논문에서는 다음 두 가지 방법을 제안합니다. (i) 잠재 인코딩 간의 모션 역학을 도입

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

(ii) 전역 장면의 시간적 일관성을 유지합니다. 전경 개체의 모양과 정체성을 보존하기 위한 프레임 주의 메커니즘. 본 문서에 사용된 방법의 각 구성 요소는 아래에 자세히 설명되어 있으며 방법의 개요는 그림 2에서 확인할 수 있습니다.

표기를 단순화하기 위해 이 문서에서는 전체 잠재적 코드 시퀀스를 다음과 같이 나타냅니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

Experiments

정성적 결과

Text2Video-Zero의 모든 애플리케이션은 성공적으로 비디오를 생성함을 보여줍니다. , 전체 장면과 배경이 시간적으로 일관되고 전경 개체의 컨텍스트, 모양 및 ID가 시퀀스 전체에서 유지됩니다.

텍스트-투-비디오의 경우 텍스트 프롬프트와 잘 어울리는 고품질 비디오를 생성하는 것을 관찰할 수 있습니다(그림 3 참조). 예를 들어, 팬더는 거리를 자연스럽게 걷는 모습이 그려져 있습니다. 마찬가지로 추가 가장자리 또는 포즈 지침(그림 5, 그림 6 및 그림 7 참조)을 사용하여 프롬프트 및 지침과 일치하는 고품질 비디오가 생성되어 우수한 시간적 일관성과 ID 보존을 보여줍니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

Video Instruct-Pix2Pix(그림 1 참조)의 경우 생성된 비디오는 지침을 엄격히 따르면서 입력 비디오와 관련하여 높은 충실도를 갖습니다.

기준선과의 비교

이 문서에서는 해당 방법을 공개적으로 사용 가능한 두 가지 기준선인 CogVideo 및 Tune-A-Video와 비교합니다. CogVideo는 텍스트-비디오 방식이므로 이 기사에서는 Tune-A-Video와 비교하기 위해 Video Instruct-Pix2Pix를 사용하여 일반 텍스트 기반 비디오 합성 시나리오에서 이를 비교합니다.

정량적 비교를 위해 이 기사에서는 CLIP 점수를 사용하여 모델을 평가합니다. CLIP 점수는 비디오 텍스트 정렬 정도를 나타냅니다. CogVideo에서 생성된 25개의 비디오를 무작위로 획득하고 이 기사의 방법에 따라 동일한 팁을 사용하여 해당 비디오를 합성합니다. 우리 방법과 CogVideo의 CLIP 점수는 각각 31.19와 29.63입니다. 따라서 우리의 방법은 CogVideo보다 약간 더 낫습니다. 단, 후자는 94억 개의 매개변수를 갖고 있으며 비디오에 대한 대규모 교육이 필요합니다.

그림 8은 본 논문에서 제안한 방법의 여러 결과를 보여주며 CogVideo와의 정성적 비교를 제공합니다. 두 방법 모두 시퀀스 전반에 걸쳐 좋은 시간적 일관성을 보여 개체의 정체성과 해당 컨텍스트를 보존합니다. 우리의 방법은 더 나은 텍스트-비디오 정렬 기능을 보여줍니다. 예를 들어, 우리의 방법은 그림 8(b)에서 태양 아래에서 자전거를 타는 사람의 비디오를 올바르게 생성하는 반면 CogVideo는 배경을 달빛으로 설정합니다. 또한 그림 8(a)에서 우리의 방법은 눈 속에서 달리는 사람을 정확하게 보여주지만, CogVideo에서 생성된 비디오에서는 눈과 달리는 사람이 명확하게 보이지 않습니다.

Video Instruct-Pix2Pix의 정성적 결과와 프레임별 Instruct-Pix2Pix 및 Tune-AVideo와의 시각적 비교는 그림 9에 나와 있습니다. Instruct-Pix2Pix는 프레임당 우수한 편집 성능을 보여주지만 시간적 일관성이 부족합니다. 이는 다양한 스타일과 색상을 사용하여 눈과 하늘을 그리는 스키어를 묘사하는 비디오에서 특히 두드러집니다. 이러한 문제는 Video Instruct-Pix2Pix 방법을 사용하여 해결되었으며, 그 결과 시퀀스 전체에서 일시적으로 일관된 비디오 편집이 가능해졌습니다.

Tune-A-Video는 시간 일관성이 있는 비디오 생성을 생성하지만 이 기사의 접근 방식에 비해 지침 지침의 일관성이 떨어지고 로컬 편집을 만드는 데 어려움이 있으며 입력 시퀀스의 세부 정보가 손실됩니다. 이는 그림 9(왼쪽)에 묘사된 댄서의 비디오 편집을 보면 분명해집니다. Tune-A-Video와 비교하여 우리의 방법은 댄서 뒤의 벽이 거의 변하지 않는 등 배경을 더 잘 보존하면서 전체 의상을 더 밝게 칠합니다. Tune-A-Video는 심하게 변형된 벽을 그렸습니다. 또한 우리의 방법은 입력 세부 사항에 더 충실합니다. 예를 들어 Tune-A-Video에 비해 Video Instruction-Pix2Pix는 제공된 포즈를 사용하여 댄서를 그리고(그림 9 왼쪽) 입력 비디오에 나타나는 모든 스키어를 표시합니다(그림 9 왼쪽). 그림 9의 오른쪽 마지막 프레임에 표시됨). 위에서 언급한 Tune-A-Video의 모든 약점은 그림 23, 24에서도 확인할 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.

위 내용은 동영상을 생성하는 것은 매우 쉽습니다. 힌트만 제공하고 온라인에서도 시도해 볼 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 채팅 명령 및 사용 방법
1 몇 달 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Douyin에 다른 사람의 동영상을 게시하는 것이 침해인가요? 침해 없이 동영상을 편집하려면 어떻게 해야 하나요? Douyin에 다른 사람의 동영상을 게시하는 것이 침해인가요? 침해 없이 동영상을 편집하려면 어떻게 해야 하나요? Mar 21, 2024 pm 05:57 PM

단편 동영상 플랫폼의 등장으로 Douyin은 모든 사람의 일상생활에 없어서는 안 될 부분이 되었습니다. TikTok에서는 전 세계의 흥미로운 동영상을 볼 수 있습니다. 어떤 사람들은 다른 사람의 동영상을 게시하는 것을 좋아하는데, 이는 다음과 같은 질문을 제기합니다. Douyin이 다른 사람의 동영상을 게시하면 저작권을 침해합니까? 이 글에서는 이 문제에 대해 논의하고 침해 없이 동영상을 편집하는 방법과 침해 문제를 방지하는 방법을 알려드립니다. 1. Douyin이 타인의 영상을 게시하는 것에 대한 침해인가요? 우리나라 저작권법 조항에 따르면, 저작권 소유자의 허락 없이 저작권 소유자의 저작물을 무단으로 사용하는 것은 침해입니다. 따라서 원저작자나 저작권 소유자의 허락 없이 Douyin에 다른 사람의 동영상을 게시하는 것은 침해입니다. 2. 침해 없이 동영상을 편집하는 방법은 무엇입니까? 1. 공개 도메인 또는 라이센스 콘텐츠의 사용: 공개

Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 초보자가 Douyin으로 어떻게 돈을 벌 수 있나요? Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 초보자가 Douyin으로 어떻게 돈을 벌 수 있나요? Mar 21, 2024 pm 08:17 PM

국민 단편 영상 플랫폼인 Douyin은 우리가 여가 시간에 재미있고 참신한 다양한 단편 영상을 즐길 수 있게 해줄 뿐만 아니라, 우리 자신을 보여주고 우리의 가치를 실현할 수 있는 무대를 제공합니다. 그렇다면 Douyin에 동영상을 게시하여 돈을 버는 방법은 무엇입니까? 이 글은 이 질문에 대해 자세히 답변하고 TikTok에서 더 많은 수익을 창출하는 데 도움이 될 것입니다. 1. Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 동영상을 게시하고 Douyin에서 일정 조회수를 얻은 후 광고 공유 계획에 참여할 수 있는 기회를 얻게 됩니다. 이 수입 방식은 Douyin 사용자들에게 가장 친숙한 방법 중 하나이며, 많은 창작자들의 주요 수입원이기도 합니다. Douyin은 계정 가중치, 영상 콘텐츠, 시청자 피드백 등 다양한 요소를 바탕으로 광고 공유 기회 제공 여부를 결정합니다. TikTok 플랫폼을 통해 시청자는 선물을 보내 좋아하는 크리에이터를 지원할 수 있습니다.

권장되는 AI 지원 프로그래밍 도구 4가지 권장되는 AI 지원 프로그래밍 도구 4가지 Apr 22, 2024 pm 05:34 PM

이 AI 지원 프로그래밍 도구는 급속한 AI 개발 단계에서 유용한 AI 지원 프로그래밍 도구를 많이 발굴했습니다. AI 지원 프로그래밍 도구는 개발 효율성을 높이고, 코드 품질을 향상시키며, 버그 발생률을 줄일 수 있습니다. 이는 현대 소프트웨어 개발 프로세스에서 중요한 보조자입니다. 오늘 Dayao는 4가지 AI 지원 프로그래밍 도구(모두 C# 언어 지원)를 공유하겠습니다. 이 도구가 모든 사람에게 도움이 되기를 바랍니다. https://github.com/YSGStudyHards/DotNetGuide1.GitHubCopilotGitHubCopilot은 더 빠르고 적은 노력으로 코드를 작성하는 데 도움이 되는 AI 코딩 도우미이므로 문제 해결과 협업에 더 집중할 수 있습니다. 힘내

Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 영상을 올릴 때 주의할 점은 무엇인가요? Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 영상을 올릴 때 주의할 점은 무엇인가요? Mar 23, 2024 pm 08:50 PM

단편 동영상 플랫폼의 등장으로 Xiaohongshu는 많은 사람들이 자신의 삶을 공유하고 자신을 표현하며 트래픽을 얻는 플랫폼이 되었습니다. 이 플랫폼에서는 비디오 작품을 출판하는 것이 매우 인기 있는 상호 작용 방식입니다. 그렇다면 Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 1. 샤오홍슈 영상 작품은 어떻게 출판하나요? 먼저, 공유할 비디오 콘텐츠가 준비되어 있는지 확인하세요. 휴대폰이나 기타 카메라 장비를 사용해 촬영할 수 있지만 화질과 사운드 선명도에 주의해야 합니다. 2. 영상 편집 : 작품을 더욱 돋보이게 하기 위해 영상을 편집할 수 있습니다. Douyin, Kuaishou 등과 같은 전문 비디오 편집 소프트웨어를 사용하여 필터, 음악, 자막 및 기타 요소를 추가할 수 있습니다. 3. 표지를 선택하세요. 표지는 사용자의 클릭을 유도하는 핵심 요소입니다. 사용자의 클릭을 유도할 수 있는 명확하고 흥미로운 그림을 표지로 선택하세요.

이미지 품질을 압축하지 않고 웨이보에 동영상을 게시하는 방법_화질을 압축하지 않고 웨이보에 동영상을 게시하는 방법 이미지 품질을 압축하지 않고 웨이보에 동영상을 게시하는 방법_화질을 압축하지 않고 웨이보에 동영상을 게시하는 방법 Mar 30, 2024 pm 12:26 PM

1. 먼저 휴대폰에서 웨이보를 열고 오른쪽 하단의 [나]를 클릭하세요(그림 참조). 2. 그런 다음 오른쪽 상단에 있는 [기어]를 클릭하여 설정을 엽니다(그림 참조). 3. 그런 다음 [일반 설정]을 찾아 엽니다(그림 참조). 4. 그런 다음 [동영상 팔로우] 옵션을 입력하세요(그림 참조). 5. 그런 다음 [동영상 업로드 해상도] 설정을 엽니다(그림 참조). 6. 마지막으로 [원본 화질]을 선택하여 압축을 방지합니다(그림 참조).

최고의 AI 프로그래머는 누구일까요? Devin, Tongyi Lingma 및 SWE 에이전트의 잠재력을 살펴보세요. 최고의 AI 프로그래머는 누구일까요? Devin, Tongyi Lingma 및 SWE 에이전트의 잠재력을 살펴보세요. Apr 07, 2024 am 09:10 AM

세계 최초의 AI 프로그래머 데빈(Devin)이 태어난 지 한 달도 채 안 된 2022년 3월 3일, 프린스턴 대학의 NLP팀은 오픈소스 AI 프로그래머 SWE-에이전트를 개발했습니다. GPT-4 모델을 활용하여 GitHub 리포지토리의 문제를 자동으로 해결합니다. SWE-bench 테스트 세트에서 SWE-agent의 성능은 Devin과 유사하며 평균 93초가 걸리고 문제의 12.29%를 해결합니다. SWE-agent는 전용 터미널과 상호 작용하여 파일 내용을 열고 검색하고, 자동 구문 검사를 사용하고, 특정 줄을 편집하고, 테스트를 작성 및 실행할 수 있습니다. (참고: 위 내용은 원문 내용을 약간 조정한 것이지만 원문의 핵심 정보는 그대로 유지되며 지정된 단어 수 제한을 초과하지 않습니다.) SWE-A

소리 없이 엣지 브라우저 웹 비디오를 공유하는 두 가지 솔루션 소리 없이 엣지 브라우저 웹 비디오를 공유하는 두 가지 솔루션 Mar 14, 2024 pm 02:22 PM

많은 사용자가 브라우저에서 동영상을 시청하는 것을 좋아합니다. 엣지 브라우저에서 웹 동영상을 시청할 때 소리가 들리지 않는 경우 문제를 해결하는 방법은 무엇입니까? 이 문제는 어렵지 않습니다. 다음으로 엣지 브라우저 웹 영상에서 소리가 나지 않는 문제를 해결하는 방법을 알려드리겠습니다. 엣지 브라우저 웹 영상에서 소리가 나지 않나요? 방법 1: 1. 먼저 엣지 브라우저 상단 탭을 확인하세요. 2. 탭 왼쪽에 "소리 버튼"이 있습니다. 음소거되어 있지 않은지 확인하세요. 방법 2: 1. 소리가 음소거되지 않은 것으로 확인되면 소리 설정 문제일 수 있습니다. 2. 오른쪽 하단에 있는 사운드 장치를 마우스 오른쪽 버튼으로 클릭하고 "볼륨 신디사이저 열기"를 선택하세요.

도음 15초는 너무 짧은데 연장하고 싶은데 어떻게 해야 하나요? 15초보다 긴 동영상을 만드는 방법은 무엇입니까? 도음 15초는 너무 짧은데 연장하고 싶은데 어떻게 해야 하나요? 15초보다 긴 동영상을 만드는 방법은 무엇입니까? Mar 22, 2024 pm 08:11 PM

Douyin의 인기로 인해 점점 더 많은 사람들이 이 플랫폼에서 자신의 삶과 재능, 창의성을 공유하고 싶어합니다. Douyin의 15초 제한으로 인해 많은 사용자는 그것이 충분히 즐겁지 않다고 느끼고 비디오 지속 시간을 연장하기를 희망합니다. 그렇다면 Douyin의 비디오 지속 시간을 어떻게 연장할 수 있습니까? 1. 도음 15초는 너무 짧습니다. 연장하고 싶다면 어떻게 연장할 수 있나요? 1. 여러 개의 동영상을 촬영하고 이어붙이는 가장 편리한 방법은 15초짜리 동영상을 여러 개 녹화한 후 Douyin의 편집 기능을 사용하여 하나로 합치는 것입니다. 녹화할 때 나중에 연결할 수 있도록 각 비디오의 시작과 끝 부분에 약간의 공백을 남겨 두십시오. 이어진 영상의 길이는 몇 분이 될 수 있지만 이로 인해 영상 화면이 너무 자주 전환되어 시청 환경에 영향을 미칠 수 있습니다. 2. Douyin 특수 효과 및 스티커 사용 Douyin은 일련의 특수 효과를 제공합니다.

See all articles