백엔드 개발 Golang Golang 및 FFmpeg: 비디오 프레임 가로채기 및 크기 조정 구현 방법

Golang 및 FFmpeg: 비디오 프레임 가로채기 및 크기 조정 구현 방법

Sep 27, 2023 am 09:34 AM
동영상 성취하다 golanggolang ffmpegffmpeg

Golang与FFmpeg: 如何实现视频帧截取和缩放

Golang 및 FFmpeg: 비디오 프레임 가로채기 및 크기 조정을 구현하는 방법, 구체적인 코드 예제가 필요합니다.

개요:
비디오 처리 요구 사항이 증가함에 따라 사람들은 Golang을 비디오 처리용 프로그래밍 언어로 사용하려는 경향이 점점 더 커지고 있습니다. 업계에서 가장 널리 사용되는 오픈 소스 멀티미디어 처리 프레임워크인 FFmpeg는 오디오 및 비디오 데이터를 처리하는 풍부한 기능을 제공합니다. 이 기사에서는 Golang을 사용하여 FFmpeg를 호출하여 비디오 프레임 가로채기 및 크기 조정 기능을 구현하는 방법을 소개하고 해당 코드 예제를 제공합니다.

전제 조건:
시작하기 전에 FFmpeg가 컴퓨터에 설치되어 있고 올바른 환경 변수가 구성되어 있는지 확인해야 합니다.

비디오 프레임 가로채기:
먼저, 비디오 프레임 가로채기를 구현하는 방법을 살펴보겠습니다. FFmpeg에서는 "avformat" 모듈을 사용하여 비디오 파일을 읽고 "avcodec" 모듈을 사용하여 비디오 프레임을 디코딩할 수 있습니다. 다음은 간단한 샘플 코드입니다.

package main

import (
    "fmt"
    "log"

    "github.com/giorgisio/goav/avcodec"
    "github.com/giorgisio/goav/avformat"
)

func main() {
    // 打开视频文件
    formatContext := avformat.AvformatAllocContext()
    if err := avformat.AvformatOpenInput(&formatContext, "/path/to/video.mp4", nil, nil); err != nil {
        log.Fatal("无法打开视频文件:", err)
    }
    defer avformat.AvformatFreeContext(formatContext)

    // 查找视频流
    if err := formatContext.AvformatFindStreamInfo(nil); err != nil {
        log.Fatal("无法查找视频流:", err)
    }

    var videoStreamIndex int32 = -1
    for i, stream := range formatContext.Streams() {
        if stream.CodecParameters().CodecType() == avformat.AVMEDIA_TYPE_VIDEO {
            videoStreamIndex = int32(i)
            break
        }
    }

    if videoStreamIndex == -1 {
        log.Fatal("找不到视频流")
    }

    // 找到视频解码器
    videoDecoder := avcodec.AvcodecFindDecoder(avcodec.CodecId(formatContext.Streams()[videoStreamIndex].CodecParameters().CodecId()))
    if videoDecoder == nil {
        log.Fatal("无法找到视频解码器")
    }

    // 打开解码器上下文
    videoCodecContext := avcodec.AvcodecAllocContext3(videoDecoder)
    if err := avcodec.AvcodecParametersToContext(videoCodecContext, formatContext.Streams()[videoStreamIndex].CodecParameters()); err != nil {
        log.Fatal("无法打开解码器上下文:", err)
    }

    if err := videoCodecContext.AvcodecOpen2(videoDecoder, nil); err != nil {
        log.Fatal("无法打开解码器:", err)
    }
    defer avcodec.AvcodecFreeContext(videoCodecContext)

    // 读取视频帧
    packet := avcodec.AvPacketAlloc()
    defer avcodec.AvPacketFree(packet)

    for formatContext.AvReadFrame(packet) >= 0 {
        if packet.StreamIndex() == videoStreamIndex {
            frame := avutil.AvFrameAlloc()
            defer avutil.AvFrameFree(frame)

            if err := videoCodecContext.AvcodecSendPacket(packet); err == nil {
                for videoCodecContext.AvcodecReceiveFrame(frame) == nil {
                    // 处理视频帧
                    fmt.Printf("视频帧:%d
", frame.Pts())
                }
            }
        }
    }
}
로그인 후 복사

위 코드에서는 먼저 avformat.AvformatAllocContext()를 사용하여 형식 컨텍스트 개체를 할당하고 avformat.AvformatOpenInput()을 사용합니다. code >동영상 파일이 열립니다. 그런 다음 avformat.AvformatFindStreamInfo()를 사용하여 비디오 스트림을 찾은 다음 avformat.AVMEDIA_TYPE_VIDEO를 사용하여 비디오 스트림인지 확인합니다. avformat.AvformatAllocContext()来分配一个格式上下文对象,并使用avformat.AvformatOpenInput()打开了一个视频文件。然后,我们使用avformat.AvformatFindStreamInfo()找到了视频流,再使用avformat.AVMEDIA_TYPE_VIDEO来判断是否为视频流。

接下来,我们使用avcodec.AvcodecFindDecoder()来查找适合的解码器,并使用avcodec.AvcodecParametersToContext()avcodec.AvcodecOpen2()打开了解码器上下文。

最后,我们使用formatContext.AvReadFrame()来读取视频帧,并在videoCodecContext.AvcodecReceiveFrame()中处理每一帧。在这个示例中,我们只是简单地打印每一帧的PTS值。

视频缩放:
接下来,我们来看一下如何实现视频帧的缩放。在FFmpeg中,可以使用"swscale"模块来进行视频帧的缩放。以下是一个简单的示例代码:

package main

import (
    "fmt"
    "image"
    "log"
    "os"

    "github.com/giorgisio/goav/avcodec"
    "github.com/giorgisio/goav/avformat"
    "github.com/giorgisio/goav/swscale"
    "github.com/nfnt/resize"
)

func main() {
    // 打开视频文件
    formatContext := avformat.AvformatAllocContext()
    if err := avformat.AvformatOpenInput(&formatContext, "/path/to/video.mp4", nil, nil); err != nil {
        log.Fatal("无法打开视频文件:", err)
    }
    defer avformat.AvformatFreeContext(formatContext)

    // 查找视频流
    if err := formatContext.AvformatFindStreamInfo(nil); err != nil {
        log.Fatal("无法查找视频流:", err)
    }

    var videoStreamIndex int32 = -1
    for i, stream := range formatContext.Streams() {
        if stream.CodecParameters().CodecType() == avformat.AVMEDIA_TYPE_VIDEO {
            videoStreamIndex = int32(i)
            break
        }
    }

    if videoStreamIndex == -1 {
        log.Fatal("找不到视频流")
    }

    // 找到视频解码器
    videoDecoder := avcodec.AvcodecFindDecoder(avcodec.CodecId(formatContext.Streams()[videoStreamIndex].CodecParameters().CodecId()))
    if videoDecoder == nil {
        log.Fatal("无法找到视频解码器")
    }

    // 打开解码器上下文
    videoCodecContext := avcodec.AvcodecAllocContext3(videoDecoder)
    if err := avcodec.AvcodecParametersToContext(videoCodecContext, formatContext.Streams()[videoStreamIndex].CodecParameters()); err != nil {
        log.Fatal("无法打开解码器上下文:", err)
    }

    if err := videoCodecContext.AvcodecOpen2(videoDecoder, nil); err != nil {
        log.Fatal("无法打开解码器:", err)
    }
    defer avcodec.AvcodecFreeContext(videoCodecContext)

    // 创建视频缩放上下文
    swscaleContext := swscale.SwsGetContext(
        videoCodecContext.Width(), videoCodecContext.Height(), videoCodecContext.PixFmt(),
        videoCodecContext.Width()/2, videoCodecContext.Height()/2, avcodec.AV_PIX_FMT_RGB24,
        0, nil, nil, nil,
    )
    defer swscale.SwsFreeContext(swscaleContext)

    // 创建输出视频文件
    outfile, err := os.Create("/path/to/output.mp4")
    if err != nil {
        log.Fatal("无法创建输出视频文件:", err)
    }
    defer outfile.Close()

    // 创建视频编码器
    videoEncoder := avcodec.AvcodecFindEncoder(avcodec.AV_CODEC_ID_MPEG4)
    if videoEncoder == nil {
        log.Fatal("无法找到视频编码器")
    }

    // 创建编码器上下文
    videoCodecCtx := avcodec.AvcodecAllocContext3(videoEncoder)
    videoCodecCtx.SetBitRate(400000)
    videoCodecCtx.SetWidth(videoCodecContext.Width() / 2)
    videoCodecCtx.SetHeight(videoCodecContext.Height() / 2)
    videoCodecCtx.SetTimeBase(avformat.AVR{Num: 1, Den: 25})
    videoCodecCtx.SetPixFmt(avcodec.AV_PIX_FMT_YUV420P)

    // 打开编码器上下文
    if err := videoCodecCtx.AvcodecOpen2(videoEncoder, nil); err != nil {
        log.Fatal("无法打开编码器上下文:", err)
    }
    defer avcodec.AvcodecFreeContext(videoCodecCtx)

    // 写入视频文件头
    formatContext.SetOutput(outfile)
    if err := formatContext.AvformatWriteHeader(nil); err != nil {
        log.Fatal("无法写入视频文件头:", err)
    }
    defer formatContext.AvformatFreeOutputContext()

    // 准备编码帧和缩放帧
    encodeFrame := avutil.AvFrameAlloc()
    defer avutil.AvFrameFree(encodeFrame)

    encodeFrame.SetWidth(videoCodecCtx.Width())
    encodeFrame.SetHeight(videoCodecCtx.Height())
    encodeFrame.SetFormat(int32(videoCodecCtx.PixFmt()))

    frameSize := avcodec.AvpixelAvImageGetBufferSize(avcodec.AV_PIX_FMT_RGB24, videoCodecCtx.Width()/2, videoCodecCtx.Height()/2, 1)
    encodeFrameBuffer := avutil.AvMalloc(frameSize)
    defer avutil.AvFree(encodeFrameBuffer)

    encodeFrame.AvpixelAvImageFillArrays(encodeFrameBuffer, 1)

    for formatContext.AvReadFrame(packet) >= 0 {
        if packet.StreamIndex() == videoStreamIndex {
            frame := avutil.AvFrameAlloc()
            defer avutil.AvFrameFree(frame)

            if err := videoCodecContext.AvcodecSendPacket(packet); err != nil {
                log.Fatal("无法发送视频包:", err)
            }

            for videoCodecContext.AvcodecReceiveFrame(frame) == nil {
                // 缩放视频帧
                swscale.SwsScale(
                    swscaleContext,
                    frame.Data(), frame.Linesize(),
                    0, frame.Height(),
                    encodeFrame.Data(), encodeFrame.Linesize(),
                )

                // 编码视频帧
                encodeFrame.SetPts(frame.Pts())
                packet := avcodec.AvPacketAlloc()
                if err := avcodec.AvcodecSendFrame(videoCodecCtx, encodeFrame); err != nil {
                    log.Fatal("无法发送编码帧:", err)
                }

                if err := avcodec.AvcodecReceivePacket(videoCodecCtx, packet); err != nil {
                    log.Fatal("无法接收编码包:", err)
                }
                defer avcodec.AvPacketFree(packet)

                // 写入编码后的帧到文件
                if err := formatContext.AvWriteFrame(packet); err != nil {
                    log.Fatal("无法写入帧到文件:", err)
                }
            }
        }
    }

    // 写入视频文件尾
    if err := formatContext.AvWriteTrailer(); err != nil {
        log.Fatal("无法写入视频文件尾:", err)
    }
}
로그인 후 복사

以上代码中,我们创建了一个视频缩放上下文swscaleContext,它的输入是原始视频帧的大小,输出是缩放后的视频帧的大小。我们还创建了一个新的编码器上下文videoCodecCtx,它的大小为原始视频帧大小的一半,并将其设置为YUV420P像素格式。

在读取到每一帧视频后,我们使用swscale.SwsScale()

다음으로 avcodec.AvcodecFindDecoder()를 사용하여 적합한 디코더를 찾고 avcodec.AvcodecParametersToContext()avcodec.AvcodecOpen2() 디코더 컨텍스트를 엽니다. <p><br>마지막으로 <code>formatContext.AvReadFrame()을 사용하여 비디오 프레임을 읽고 videoCodecContext.AvcodecReceiveFrame()에서 각 프레임을 처리합니다. 이 예에서는 단순히 각 프레임의 PTS 값을 인쇄합니다.

🎜비디오 스케일링: 🎜다음으로 비디오 프레임 스케일링을 달성하는 방법을 살펴보겠습니다. FFmpeg에서는 "swscale" 모듈을 사용하여 비디오 프레임의 크기를 조정할 수 있습니다. 다음은 간단한 샘플 코드입니다. 🎜rrreee🎜위 코드에서는 비디오 스케일링 컨텍스트 swscaleContext를 생성합니다. 이 컨텍스트의 입력은 원본 비디오 프레임의 크기이고 출력은 swscaleContext의 크기입니다. 확장된 비디오 프레임. 또한 원본 비디오 프레임 크기의 절반인 새로운 인코더 컨텍스트 videoCodecCtx를 생성하고 이를 YUV420P 픽셀 형식으로 설정합니다. 🎜🎜비디오의 각 프레임을 읽은 후 swscale.SwsScale() 함수를 사용하여 지정된 크기로 크기를 조정하고 크기가 조정된 비디오 프레임을 인코더로 전송하여 인코딩합니다. 그런 다음 인코딩된 프레임을 출력 비디오 파일에 씁니다. 🎜🎜요약: 🎜Golang과 FFmpeg의 결합은 개발자에게 강력한 비디오 처리 도구를 제공합니다. 이 기사에서는 Golang을 사용하여 FFmpeg를 호출하여 비디오 프레임 가로채기 및 크기 조정 기능을 구현하는 방법을 소개하고 해당 코드 예제를 제공합니다. 이 예제가 Golang 및 FFmpeg를 사용하여 비디오 데이터를 처리하는 방법을 더 잘 이해하는 데 도움이 되기를 바랍니다. 🎜

위 내용은 Golang 및 FFmpeg: 비디오 프레임 가로채기 및 크기 조정 구현 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Douyin에 다른 사람의 동영상을 게시하는 것이 침해인가요? 침해 없이 동영상을 편집하려면 어떻게 해야 하나요? Douyin에 다른 사람의 동영상을 게시하는 것이 침해인가요? 침해 없이 동영상을 편집하려면 어떻게 해야 하나요? Mar 21, 2024 pm 05:57 PM

단편 동영상 플랫폼의 등장으로 Douyin은 모든 사람의 일상생활에 없어서는 안 될 부분이 되었습니다. TikTok에서는 전 세계의 흥미로운 동영상을 볼 수 있습니다. 어떤 사람들은 다른 사람의 동영상을 게시하는 것을 좋아하는데, 이는 다음과 같은 질문을 제기합니다. Douyin이 다른 사람의 동영상을 게시하면 저작권을 침해합니까? 이 글에서는 이 문제에 대해 논의하고 침해 없이 동영상을 편집하는 방법과 침해 문제를 방지하는 방법을 알려드립니다. 1. Douyin이 타인의 영상을 게시하는 것에 대한 침해인가요? 우리나라 저작권법 조항에 따르면, 저작권 소유자의 허락 없이 저작권 소유자의 저작물을 무단으로 사용하는 것은 침해입니다. 따라서 원저작자나 저작권 소유자의 허락 없이 Douyin에 다른 사람의 동영상을 게시하는 것은 침해입니다. 2. 침해 없이 동영상을 편집하는 방법은 무엇입니까? 1. 공개 도메인 또는 라이센스 콘텐츠의 사용: 공개

Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 초보자가 Douyin으로 어떻게 돈을 벌 수 있나요? Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 초보자가 Douyin으로 어떻게 돈을 벌 수 있나요? Mar 21, 2024 pm 08:17 PM

국민 단편 영상 플랫폼인 Douyin은 우리가 여가 시간에 재미있고 참신한 다양한 단편 영상을 즐길 수 있게 해줄 뿐만 아니라, 우리 자신을 보여주고 우리의 가치를 실현할 수 있는 무대를 제공합니다. 그렇다면 Douyin에 동영상을 게시하여 돈을 버는 방법은 무엇입니까? 이 글은 이 질문에 대해 자세히 답변하고 TikTok에서 더 많은 수익을 창출하는 데 도움이 될 것입니다. 1. Douyin에 동영상을 게시하여 수익을 창출하는 방법은 무엇입니까? 동영상을 게시하고 Douyin에서 일정 조회수를 얻은 후 광고 공유 계획에 참여할 수 있는 기회를 얻게 됩니다. 이 수입 방식은 Douyin 사용자들에게 가장 친숙한 방법 중 하나이며, 많은 창작자들의 주요 수입원이기도 합니다. Douyin은 계정 가중치, 영상 콘텐츠, 시청자 피드백 등 다양한 요소를 바탕으로 광고 공유 기회 제공 여부를 결정합니다. TikTok 플랫폼을 통해 시청자는 선물을 보내 좋아하는 크리에이터를 지원할 수 있습니다.

Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 영상을 올릴 때 주의할 점은 무엇인가요? Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 영상을 올릴 때 주의할 점은 무엇인가요? Mar 23, 2024 pm 08:50 PM

단편 동영상 플랫폼의 등장으로 Xiaohongshu는 많은 사람들이 자신의 삶을 공유하고 자신을 표현하며 트래픽을 얻는 플랫폼이 되었습니다. 이 플랫폼에서는 비디오 작품을 출판하는 것이 매우 인기 있는 상호 작용 방식입니다. 그렇다면 Xiaohongshu 비디오 작품을 출판하는 방법은 무엇입니까? 1. 샤오홍슈 영상 작품은 어떻게 출판하나요? 먼저, 공유할 비디오 콘텐츠가 준비되어 있는지 확인하세요. 휴대폰이나 기타 카메라 장비를 사용해 촬영할 수 있지만 화질과 사운드 선명도에 주의해야 합니다. 2. 영상 편집 : 작품을 더욱 돋보이게 하기 위해 영상을 편집할 수 있습니다. Douyin, Kuaishou 등과 같은 전문 비디오 편집 소프트웨어를 사용하여 필터, 음악, 자막 및 기타 요소를 추가할 수 있습니다. 3. 표지를 선택하세요. 표지는 사용자의 클릭을 유도하는 핵심 요소입니다. 사용자의 클릭을 유도할 수 있는 명확하고 흥미로운 그림을 표지로 선택하세요.

Huawei 휴대폰에서 이중 WeChat 로그인을 구현하는 방법은 무엇입니까? Huawei 휴대폰에서 이중 WeChat 로그인을 구현하는 방법은 무엇입니까? Mar 24, 2024 am 11:27 AM

Huawei 휴대폰에서 이중 WeChat 로그인을 구현하는 방법은 무엇입니까? 소셜 미디어의 등장으로 WeChat은 사람들의 일상 생활에 없어서는 안될 커뮤니케이션 도구 중 하나가 되었습니다. 그러나 많은 사람들이 동일한 휴대폰에서 동시에 여러 WeChat 계정에 로그인하는 문제에 직면할 수 있습니다. Huawei 휴대폰 사용자의 경우 듀얼 WeChat 로그인을 달성하는 것은 어렵지 않습니다. 이 기사에서는 Huawei 휴대폰에서 듀얼 WeChat 로그인을 달성하는 방법을 소개합니다. 우선, 화웨이 휴대폰과 함께 제공되는 EMUI 시스템은 듀얼 애플리케이션 열기라는 매우 편리한 기능을 제공합니다. 앱 듀얼 오픈 기능을 통해 사용자는 동시에

이미지 품질을 압축하지 않고 웨이보에 동영상을 게시하는 방법_화질을 압축하지 않고 웨이보에 동영상을 게시하는 방법 이미지 품질을 압축하지 않고 웨이보에 동영상을 게시하는 방법_화질을 압축하지 않고 웨이보에 동영상을 게시하는 방법 Mar 30, 2024 pm 12:26 PM

1. 먼저 휴대폰에서 웨이보를 열고 오른쪽 하단의 [나]를 클릭하세요(그림 참조). 2. 그런 다음 오른쪽 상단에 있는 [기어]를 클릭하여 설정을 엽니다(그림 참조). 3. 그런 다음 [일반 설정]을 찾아 엽니다(그림 참조). 4. 그런 다음 [동영상 팔로우] 옵션을 입력하세요(그림 참조). 5. 그런 다음 [동영상 업로드 해상도] 설정을 엽니다(그림 참조). 6. 마지막으로 [원본 화질]을 선택하여 압축을 방지합니다(그림 참조).

PHP 프로그래밍 가이드: 피보나치 수열을 구현하는 방법 PHP 프로그래밍 가이드: 피보나치 수열을 구현하는 방법 Mar 20, 2024 pm 04:54 PM

프로그래밍 언어 PHP는 다양한 프로그래밍 논리와 알고리즘을 지원할 수 있는 강력한 웹 개발 도구입니다. 그중 피보나치 수열을 구현하는 것은 일반적이고 고전적인 프로그래밍 문제입니다. 이 기사에서는 PHP 프로그래밍 언어를 사용하여 피보나치 수열을 구현하는 방법을 소개하고 구체적인 코드 예제를 첨부합니다. 피보나치 수열은 다음과 같이 정의되는 수학적 수열입니다. 수열의 첫 번째와 두 번째 요소는 1이고 세 번째 요소부터 시작하여 각 요소의 값은 이전 두 요소의 합과 같습니다. 시퀀스의 처음 몇 가지 요소

소리 없이 엣지 브라우저 웹 비디오를 공유하는 두 가지 솔루션 소리 없이 엣지 브라우저 웹 비디오를 공유하는 두 가지 솔루션 Mar 14, 2024 pm 02:22 PM

많은 사용자가 브라우저에서 동영상을 시청하는 것을 좋아합니다. 엣지 브라우저에서 웹 동영상을 시청할 때 소리가 들리지 않는 경우 문제를 해결하는 방법은 무엇입니까? 이 문제는 어렵지 않습니다. 다음으로 엣지 브라우저 웹 영상에서 소리가 나지 않는 문제를 해결하는 방법을 알려드리겠습니다. 엣지 브라우저 웹 영상에서 소리가 나지 않나요? 방법 1: 1. 먼저 엣지 브라우저 상단 탭을 확인하세요. 2. 탭 왼쪽에 "소리 버튼"이 있습니다. 음소거되어 있지 않은지 확인하세요. 방법 2: 1. 소리가 음소거되지 않은 것으로 확인되면 소리 설정 문제일 수 있습니다. 2. 오른쪽 하단에 있는 사운드 장치를 마우스 오른쪽 버튼으로 클릭하고 "볼륨 신디사이저 열기"를 선택하세요.

도음 15초는 너무 짧은데 연장하고 싶은데 어떻게 해야 하나요? 15초보다 긴 동영상을 만드는 방법은 무엇입니까? 도음 15초는 너무 짧은데 연장하고 싶은데 어떻게 해야 하나요? 15초보다 긴 동영상을 만드는 방법은 무엇입니까? Mar 22, 2024 pm 08:11 PM

Douyin의 인기로 인해 점점 더 많은 사람들이 이 플랫폼에서 자신의 삶과 재능, 창의성을 공유하고 싶어합니다. Douyin의 15초 제한으로 인해 많은 사용자는 그것이 충분히 즐겁지 않다고 느끼고 비디오 지속 시간을 연장하기를 희망합니다. 그렇다면 Douyin의 비디오 지속 시간을 어떻게 연장할 수 있습니까? 1. 도음 15초는 너무 짧습니다. 연장하고 싶다면 어떻게 연장할 수 있나요? 1. 여러 개의 동영상을 촬영하고 이어붙이는 가장 편리한 방법은 15초짜리 동영상을 여러 개 녹화한 후 Douyin의 편집 기능을 사용하여 하나로 합치는 것입니다. 녹화할 때 나중에 연결할 수 있도록 각 비디오의 시작과 끝 부분에 약간의 공백을 남겨 두십시오. 이어진 영상의 길이는 몇 분이 될 수 있지만 이로 인해 영상 화면이 너무 자주 전환되어 시청 환경에 영향을 미칠 수 있습니다. 2. Douyin 특수 효과 및 스티커 사용 Douyin은 일련의 특수 효과를 제공합니다.

See all articles