목차
방법 동기
방법 아이디어
내레이터 프레임워크 개요
글로벌 및 로컬 장면 그래프 메커니즘 결합
멀티플레이어 장면 상호 작용(MHSI)
실험 결과
저자 소개
기술 주변기기 일체 포함 '사람과 장면의 대화형 생성'의 새로운 돌파구! Tianda University와 Tsinghua University, 내레이터 출시: 텍스트 기반, 자연스럽게 제어 가능 ICCV 2023 |

'사람과 장면의 대화형 생성'의 새로운 돌파구! Tianda University와 Tsinghua University, 내레이터 출시: 텍스트 기반, 자연스럽게 제어 가능 ICCV 2023 |

Sep 11, 2023 pm 11:13 PM
장면 칭화대학교 narrator

자연스럽고 제어 가능한 HSI(Human Scene Interaction) 생성은 가상현실/증강현실(VR/AR) 콘텐츠 제작, 인간 중심 인공지능 등 다양한 분야에서 중요한 역할을 합니다.

그러나 기존 방법은 제한된 제어 가능성, 제한된 상호 작용 유형 및 부자연스러운 결과 생성으로 인해 실제 생활에서의 적용 시나리오가 심각하게 제한됩니다

ICCV 2023 연구에서 천진대학교와 칭화대학교 팀이 등장했습니다. 내레이터라는 솔루션을 사용하여 이 문제를 탐색합니다. 이 솔루션은 텍스트 설명

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023images

프로젝트 홈페이지 링크: http://cic.tju.edu.cn/faculty/에서 자연스럽고 제어 가능하게 현실적이고 다양한 인간 장면 상호 작용을 생성하는 어려운 작업에 중점을 둡니다. likun/projects/Narrator

다시 작성된 내용은 다음과 같습니다. 코드 링크: https://github.com/HaibiaoXuan/Narrator

인간 인지의 관점에서 이상형 생성 모델은 공간 관계에 대해 올바르게 추론할 수 있어야 합니다. 상호 작용의 자유도를 탐색합니다.

이에 저자는 관계형 추론을 기반으로 한 생성 모델을 제안합니다. 이 모델은 장면 그래프를 통해 장면과 설명의 공간적 관계를 모델링하고 상호 작용 동작을 원자 신체 부분 상태로 나타내는 부분 수준 상호 작용 메커니즘을 도입합니다

특히 저자는 간단하지만 효과적인 다인 세대를 제안합니다. 전략, 이것은 다중 사람 장면의 제어 가능한 대화형 생성에 대한 첫 번째 탐색입니다

마지막으로 광범위한 실험과 사용자 연구를 통해 저자는 내레이터가 제어 가능한 방식으로 다양한 생성을 생성할 수 있음을 입증했습니다. 기존 작업

방법 동기

기존 인간 장면 상호 작용 생성 방법은 대부분 상호 작용의 물리적인 기하학적 관계에 중점을 두지만 생성에 대한 의미론적 제어가 부족하고 또한 싱글 플레이어 생성에 국한됩니다.

따라서 저자는 자연어 설명에서 현실적이고 다양한 인간 장면 상호 작용을 제어 가능하게 생성하는 어려운 작업에 중점을 둡니다. 저자는 인간이 일반적으로 공간 인식과 행동 인식을 사용하여 다양한 위치에서 다양한 상호 작용에 참여하는 사람들을 자연스럽게 설명한다는 것을 관찰했습니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023Picture

다시 작성된 내용은 다음과 같습니다. 그림 1에 따르면 내레이터는 다음 상황에 적용할 수 있는 의미론적으로 일관되고 물리적으로 합리적인 인간-장면 상호 작용을 자연스럽고 제어 가능하게 생성할 수 있습니다. (a) 공간 관계별 -가이드 상호작용, (b) 다중 액션에 의한 상호작용, (c) 다중 사람 장면 상호작용, (d) 위의 상호작용 유형을 결합한 사람-장면 상호작용

구체적으로는 공간적 관계를 사용할 수 있습니다. 장면이나 지역의 다른 개체. 사람의 발이 땅에 닿는 것, 몸통에 기대는 것, 오른손으로 두드리는 것, 머리를 숙이는 것 등 원자적인 신체 부위의 상태에 따라 인터랙티브 액션이 지정됩니다.

이를 출발점으로 하여 저자는 장면 그래프를 사용하여 공간 관계를 표현하고 JGLSG(Joint Global and Local Scene Graph) 메커니즘을 사용하여 후속 세대에 전역 위치 인식을 제공할 것을 제안합니다.

동시에, 신체 부위의 상태가 텍스트와 일치하는 사실적인 상호 작용을 시뮬레이션하는 데 핵심이라는 점을 고려하여 저자는 인체 부위와 동작 간의 대응 관계를 설정하기 위해 PLA(Part-level Action) 메커니즘을 도입했습니다.

제안된 관계형 추론의 효과적인 관찰 인식과 유연성 및 재사용성을 활용하여 저자는 자연적으로 제어 가능하고 사용자 친화적인 최초의 친화적인 다중 인간 장면인 간단하고 효과적인 다중 인간 생성 전략을 제안합니다. 상호작용(MHSI) 생성 솔루션.

방법 아이디어

내레이터 프레임워크 개요

내레이터의 목표는 자연스럽고 제어 가능한 방식으로 캐릭터와 장면 간의 상호 작용을 생성하는 것입니다. 이는 의미상 텍스트 설명과 일치하고 세 가지를 물리적으로 일치시킵니다. -차원 장면

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023 그림

그림 2 내레이터 프레임워크 개요

그림 2에서 볼 수 있듯이 이 방법은 Transformer 기반 cVAE(Conditional Variational Autoencoder)를 사용하며 주로 다음과 같은 여러 부분을 포함합니다. :

기존 연구와 비교하여 복잡한 공간 관계를 추론하고 전역 위치 인식을 달성하기 위해 글로벌 및 로컬 공동 장면 그래프 메커니즘을 설계합니다

2) 동시에 지나갈 사람들을 타겟팅합니다. 인터랙티브 관찰 다양한 신체 부위로 완성된 액션, 구성요소 수준의 액션 메커니즘을 도입하여 현실적이고 다양한 상호작용 구현

장면 인식 최적화 과정에서 더 나은 결과를 얻기 위해 대화형 이분 손실을 추가로 도입하여 생성된 결과

4) 다중 사용자 상호 작용 생성으로 더욱 확장되어 궁극적으로 다중 사용자 장면 상호 작용의 첫 번째 단계를 촉진합니다.

글로벌 및 로컬 장면 그래프 메커니즘 결합

공간 관계의 추론은 모델에 장면별 단서를 제공할 수 있으며, 이는 인간과 장면 상호 작용의 자연스러운 제어 가능성을 달성하는 데 중요한 역할을 합니다.

이 목표를 달성하기 위해 저자는 다음 세 단계를 통해 구현되는 글로벌 및 로컬 장면 그래프 결합 메커니즘을 제안합니다.

1 글로벌 장면 그래프 생성: 장면이 주어지면 사전 훈련된 장면 그래프 모델은 전역 장면 그래프, 즉 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023를 생성합니다. 여기서 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023, 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 범주 레이블이 있는 객체이고, 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023 사이의 관계이고, n은 객체 수, m은 관계 수입니다.

2. 로컬 장면 그래프 생성: 의미론적 분석 도구를 사용하여 설명된 문장 구조를 식별하고 로컬 장면을 추출 및 생성합니다.

여기서

는 주어-술어-객체의 삼중항을 정의합니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

장면 그래프 일치: 동일한 객체를 통해; 시맨틱 태그 모델은 글로벌 씬 그래프와 로컬 씬 그래프의 노드에 대응하고, 에지 관계를 확장하여 가상 휴먼 노드를 추가하여 위치 정보를 제공

PLA(Component Level Action) 메커니즘

저자는 모델이 주어진 상호 작용에서 중요한 신체 부위 상태를 인지하고 관련 없는 부분을 무시할 수 있는 세분화된 부분 수준 동작 메커니즘을 제안합니다. 특히 저자는 풍부하고 다양한 상호 작용 동작을 탐색하고 이를 매핑합니다. 인체의 다섯 가지 주요 부분(머리, 몸통, 왼쪽/오른팔, 왼쪽/오른손, 왼쪽/오른쪽 하체)에 가능한 동작입니다.

이후 코딩에서는 One-Hot을 사용하여 이러한 액션과 신체 부위를 동시에 표현하고 해당 관계에 따라 연결할 수 있습니다.

저자는 멀티 액션의 인터랙티브 세대에 속합니다. 신체 구조의 다양한 부분의 상태를 학습하기 위해 주의 메커니즘이 채택되었습니다

주어진 상호 작용 동작의 조합에서 각 동작에 해당하는 신체 부분과 다른 모든 동작 간의 주의가 자동으로 보호됩니다.

"캐비닛을 사용하여 바닥에 쪼그리고 앉는 사람"을 예로 들면, 쪼그리고 앉는 것은 하체의 상태에 해당하므로 다른 부분으로 표시되는주의가 0으로 차단됩니다. 재작성된 내용: "캐비닛을 사용하여 바닥에 쪼그려 앉은 사람"을 예로 들어보겠습니다. 쪼그리고 앉는 것은 하체의 상태에 해당하므로 다른 신체 부위의 주의가 완전히 차단됩니다

장면 인식 최적화

저자는 장면 인식 최적화를 위해 기하학적 및 물리적 제약 조건을 활용하여 생성 결과를 개선합니다. 최적화 과정 전반에 걸쳐 이 방법은 생성된 포즈가 벗어나지 않도록 보장하면서 장면과의 접촉을 장려하고 신체를 구속하여 장면과의 상호 침투를 방지합니다

3차원 장면 S와 생성된 SMPL-X 매개변수를 고려하여 , 최적화 손실은 다음과 같습니다.

그 중 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 신체 정점이 장면과 접촉하도록 장려합니다. 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 부호 있는 거리를 기반으로 하는 충돌 용어입니다. 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 기존 작업에 추가로 도입된 IBS(Interactive Bipartite Surface) 손실입니다. 장면과 인체 샘플링 포인트 세트 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 초기화에서 벗어나는 매개변수에 페널티를 적용하는 데 사용되는 정규화 요소입니다.

멀티플레이어 장면 상호 작용(MHSI)

실제 장면에서는 많은 경우 장면과 상호 작용하는 사람이 한 명뿐 아니라 여러 사람이 독립적이거나 연관된 방식으로 상호 작용합니다.

그러나 MHSI 데이터 세트가 부족하기 때문에 기존 방법에는 일반적으로 추가 수동 작업이 필요하며 이 작업을 제어 가능하고 자동으로 처리할 수 없습니다.

이를 위해 저자는 기존의 1인 데이터세트만을 활용하고, 다인 세대 방향에 대한 간단하고 효과적인 전략을 제안합니다.

여러 사람과 관련된 텍스트 설명이 주어지면 작성자는 먼저 이를 여러 로컬 장면 그래프「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023 및 대화형 작업「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023으로 구문 분석하고 후보 집합을 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023으로 정의합니다. 여기서 l은 사람 수입니다.

후보 집합의 각 항목에 대해 먼저 장면「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023 및 해당 전역 장면 그래프「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023와 함께 내레이터에 입력된 다음 최적화 프로세스가 수행됩니다.

사람 간의 충돌을 처리하기 위해 최적화 과정에서 추가 손실 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023이 도입됩니다. 여기서 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023는 사람 사이의 부호 있는 거리입니다.

그런 다음 최적화 손실이 실험 경험을 기반으로 결정된 임계값보다 낮으면 생성된 결과가 승인되고 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023 휴먼 노드를 추가하여 업데이트됩니다. 그렇지 않으면 생성된 결과는 신뢰할 수 없는 것으로 간주되어 해당 개체 노드를 보호하여 업데이트됩니다 「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023.

이 업데이트 방법은 각 세대의 결과와 이전 세대의 결과 사이의 관계를 설정하고 어느 정도 혼잡을 피하며 단순한 다중 세대보다 공간 분포가 더 합리적이고 대화형이라는 점에 주목할 가치가 있습니다. .

위 프로세스는 다음과 같이 표현될 수 있습니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

실험 결과

현재 기존 방법으로는 텍스트 설명에서 직접 인간-장면 상호 작용을 자연스럽고 제어 가능하게 생성할 수 없기 때문에 PiGraph [ 1], POSA [2], COINS [3]는 텍스트 설명 작업을 위해 합리적으로 확장되었으며 동일한 데이터 세트를 사용하여 공식 모델을 교육합니다. 수정 후 우리는 이러한 메소드 이름을 PiGraph-Text, POSA-Text 및 COINS-Text

로 지정했습니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023Pictures

그림 3 다양한 방법의 정성적 비교 결과

그림 3은 Narrator와 세 가지 기준선의 정성적 비교 결과를 보여줍니다. PiGraph-Text의 표현 제한으로 인해 더 심각한 침투 문제가 있습니다.

POSA-Text는 최적화 과정에서 로컬 최소값에 빠지는 경우가 많아 상호 작용이 좋지 않습니다. COINS-Text는 액션을 특정 개체에 묶고, 장면에 대한 전체적인 인식이 부족하고, 불특정 개체에 대한 침투로 이어지며, 복잡한 공간 관계를 처리하기 어렵습니다.

반대로 내레이터는 다양한 수준의 텍스트 설명을 기반으로 공간 관계를 올바르게 추론하고 여러 작업에서 신체 상태를 분석하여 더 나은 생성 결과를 얻을 수 있습니다.

정량적 비교 측면에서 표 1에 표시된 것처럼 내레이터는 5가지 지표에서 다른 방법보다 성능이 뛰어나며 이 방법으로 생성된 결과가 더 정확한 텍스트 일관성과 더 나은 물리적 타당성을 가짐을 보여줍니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023표 1 다양한 방법의 정량적 비교 결과

또한 저자는 제안된 MHSI 전략의 효율성을 더 잘 이해할 수 있도록 자세한 비교 및 ​​분석도 제공합니다.

현재 MHSI에 대한 작업이 없다는 점을 고려하여 그들은 COINS를 사용한 순차적 생성 및 최적화라는 간단한 접근 방식을 기준으로 선택했습니다.

공정한 비교를 위해 인위적인 충돌 손실도 도입되었습니다. 그림 4와 표 2는 각각 정성적 결과와 정량적 결과를 보여주며, 두 가지 모두 저자가 제안한 전략이 MHSI에서 의미론적으로 일관되고 물리적으로 합리적이라는 것을 강력하게 입증합니다.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023그림 4 COINS 순차 생성 및 최적화 방법을 이용한 MHSI와의 정성적 비교

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

저자 소개

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

주요 연구 방향 3차원 시각을 포함하고, 컴퓨터 비전 및 인간 장면 상호 작용 생성

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

주요 연구 방향: 3차원 비전, 컴퓨터 비전, 인체 및 의복 재구성

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

연구 방향에는 주로 3차원 비전이 포함됩니다. 비전, 컴퓨터 비전 및 이미지 생성

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

연구 방향은 주로 인간 중심의 컴퓨터 비전과 그래픽

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023

주요 연구 방향: 컴퓨터 그래픽, 3차원 비전 및 컴퓨터 사진

개인 홈페이지 링크 : https://liuyebin.com/

[ 1] Savva M, Chang A M, Ghosh P, Tesch J, et al. 인간-장면 상호 작용을 학습하여 3D 장면 채우기[C] 컴퓨터 비전 및 패턴 인식에 관한 IEEE/CVF 컨퍼런스 진행: 14708- 14718.

「人与场景交互生成」新突破!天大、清华发布Narrator:文本驱动,自然可控|ICCV 2023[3] Zhao K, Wang S, Zhang Y, et al. 의미 제어를 통한 구성적 인간-장면 상호 작용 합성[C]. 컴퓨터 비전에 관한 유럽 회의: Springer Nature Switzerland, 2022: 311-327.

위 내용은 '사람과 장면의 대화형 생성'의 새로운 돌파구! Tianda University와 Tsinghua University, 내레이터 출시: 텍스트 기반, 자연스럽게 제어 가능 ICCV 2023 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 채팅 명령 및 사용 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

Tsinghua Mirror Source에 대한 완벽한 가이드: 소프트웨어 설치를 더욱 원활하게 만드십시오. Tsinghua Mirror Source에 대한 완벽한 가이드: 소프트웨어 설치를 더욱 원활하게 만드십시오. Jan 16, 2024 am 10:08 AM

Tsinghua 이미지 소스 사용 가이드: 소프트웨어를 보다 원활하게 설치하려면 일상적인 컴퓨터 사용 과정에서 다양한 요구 사항을 충족하기 위해 다양한 소프트웨어를 설치해야 하는 경우가 많습니다. 그러나 소프트웨어를 설치할 때 특히 외국 미러 소스를 사용할 때 다운로드 속도가 느리고 연결이 불가능한 등의 문제가 자주 발생합니다. 이 문제를 해결하기 위해 Tsinghua University는 풍부한 소프트웨어 리소스를 제공하고 다운로드 속도가 매우 빠른 미러 소스를 제공합니다. 다음으로 칭화미러소스의 활용전략에 대해 알아보겠습니다. 첫 번째,

Java에서 ClassCastException은 어떤 시나리오에서 발생합니까? Java에서 ClassCastException은 어떤 시나리오에서 발생합니까? Jun 25, 2023 pm 09:19 PM

Java는 런타임 시 데이터 유형 일치가 필요한 강력한 유형의 언어입니다. Java의 엄격한 유형 변환 메커니즘으로 인해 코드에 데이터 유형 불일치가 있는 경우 ClassCastException이 발생합니다. ClassCastException은 Java 언어에서 매우 일반적인 예외 중 하나입니다. 이 기사에서는 ClassCastException의 원인과 이를 방지하는 방법을 소개합니다. ClassCastException이란 무엇입니까?

Linux 시스템용 스트레스 테스트 도구를 사용해 보셨나요? Linux 시스템용 스트레스 테스트 도구를 사용해 보셨나요? Mar 21, 2024 pm 04:12 PM

운영 및 유지 관리 담당자로서 이러한 시나리오를 접한 적이 있습니까? 높은 시스템 CPU 또는 메모리 사용량을 테스트하여 경보를 트리거하거나 스트레스 테스트를 통해 서비스의 동시성 기능을 테스트하는 도구를 사용해야 합니다. 운영 및 유지 관리 엔지니어는 이러한 명령을 사용하여 오류 시나리오를 재현할 수도 있습니다. 그렇다면 이 문서는 일반적으로 사용되는 테스트 명령과 도구를 익히는 데 도움이 될 수 있습니다. 1. 서론 어떤 경우에는 프로젝트에서 문제를 찾아 재현하기 위해 도구를 사용하여 체계적인 스트레스 테스트를 수행하여 실패 시나리오를 시뮬레이션하고 복원해야 합니다. 현재 테스트 또는 스트레스 테스트 도구가 특히 중요해졌습니다. 다음으로 다양한 시나리오에 따라 이러한 도구를 사용하는 방법을 살펴보겠습니다. 2. 테스트 도구 2.1 네트워크 속도 제한 도구 tctc는 Linux에서 네트워크 매개변수를 조정하는 데 사용되는 명령줄 도구이며 다양한 네트워크를 시뮬레이션하는 데 사용할 수 있습니다.

두 문장으로 AI가 VR 장면을 생성하게 해주세요! 아니면 일종의 3D나 HDR 파노라마인가요? 두 문장으로 AI가 VR 장면을 생성하게 해주세요! 아니면 일종의 3D나 HDR 파노라마인가요? Apr 12, 2023 am 09:46 AM

​빅데이터 다이제스트 제작: Caleb 최근 ChatGPT가 엄청난 인기를 끌고 있다고 할 수 있습니다. OpenAI는 11월 30일 채팅 로봇 ChatGPT를 출시하고 테스트를 위해 대중에게 무료로 공개했습니다. 로봇과 대화한다는 것은 키워드를 입력하고 AI가 해당 그림을 생성하게 하는 등 특정 명령을 로봇에게 실행하도록 요청하는 것입니다. OpenAI도 4월에 DALL-E의 새 버전을 업데이트하지 않았나요? 오픈AI, 당신은 몇 살인가요? (왜 항상 당신인가요?) 생성된 이미지가 3D 이미지, HDR 파노라마, VR 기반 이미지 콘텐츠라고 다이제스트가 말한다면 어떨까요? 최근에는 싱가포르

칭화옵틱스 AI가 자연에 등장! 물리적 신경망, 역전파는 더 이상 필요하지 않습니다. 칭화옵틱스 AI가 자연에 등장! 물리적 신경망, 역전파는 더 이상 필요하지 않습니다. Aug 10, 2024 pm 10:15 PM

빛을 사용하여 신경망을 훈련시킨 Tsinghua University의 결과가 최근 Nature에 게재되었습니다! 역전파 알고리즘을 적용할 수 없으면 어떻게 해야 합니까? 그들은 기존 디지털 컴퓨터 시뮬레이션의 한계를 극복하고 물리적 광학 시스템에서 직접 훈련 과정을 수행하는 FFM(Fully Forward Mode) 훈련 방법을 제안했습니다. 간단히 말해서, 예전에는 물리적 시스템을 세부적으로 모델링한 다음 이러한 모델을 컴퓨터에서 시뮬레이션하여 네트워크를 훈련시키는 것이 필요했습니다. FFM 방법은 모델링 프로세스를 제거하고 시스템이 학습 및 최적화를 위해 실험 데이터를 직접 사용할 수 있도록 합니다. 이는 또한 훈련이 더 이상 각 계층을 뒤에서 앞으로 확인할 필요가 없지만(역전파) 네트워크의 매개변수를 앞에서 뒤로 직접 업데이트할 수 있음을 의미합니다. 퍼즐, 역전파와 같은 비유를 사용하려면

일반적인 Kafka 명령을 사용하고 다양한 시나리오에 유연하게 대응하는 방법을 알아보세요. 일반적인 Kafka 명령을 사용하고 다양한 시나리오에 유연하게 대응하는 방법을 알아보세요. Jan 31, 2024 pm 09:22 PM

Kafka 학습 필수 사항: 공통 명령어를 숙지하고 다양한 시나리오에 쉽게 대처 1. Topicbin/kafka-topics.sh--create--topicmy-topic--partitions3--replication-factor22 목록 Topicbin/kafka-topics.sh를 생성합니다. -list3.주제 세부정보 보기 bin/kafka-to

대형 모델의 모델 융합 방법에 대해 이야기해보겠습니다. 대형 모델의 모델 융합 방법에 대해 이야기해보겠습니다. Mar 11, 2024 pm 01:10 PM

이전 사례에서는 모델 융합이 널리 사용되었으며, 특히 판별 모델에서는 꾸준히 성능을 향상시킬 수 있는 방법으로 간주됩니다. 그러나 생성 언어 모델의 경우 작동 방식은 관련 디코딩 프로세스로 인해 판별 모델만큼 간단하지 않습니다. 또한, 대형 모델의 매개변수 수가 증가함에 따라 매개변수 규모가 더 큰 시나리오에서는 단순 앙상블 학습으로 고려할 수 있는 방법이 클래식 스태킹, 부스팅 및 저 매개변수 기계학습보다 제한적입니다. 다른 방법은 스태킹 모델이기 때문에 매개변수 문제는 쉽게 확장될 수 없습니다. 따라서 대형 모델의 앙상블 학습에는 세심한 고려가 필요합니다. 아래에서는 모델 통합, 확률적 통합, 접목 학습, 크라우드소싱 투표, MOE 등 5가지 기본 통합 방법을 설명합니다.

See all articles