동적 프로토타입 확장 기능을 갖춘 자체 학습 방법을 사용하여 오픈 월드 테스트 세그먼트에 대한 학습 기술을 살펴보세요.
모델의 일반화 능력을 향상시키는 것은 비전 기반 인식 방법의 구현을 촉진하는 중요한 기반입니다. 테스트 시간 훈련/적응은 테스트 섹션 데이터 배포 세그먼트에서 모델 매개변수 가중치를 조정하여 알 수 없는 대상 도메인에 모델을 일반화합니다. . 기존 TTT/TTA 방법은 일반적으로 폐쇄 루프 세계의 대상 도메인 데이터에서 테스트 세그먼트 훈련 성능을 향상시키는 데 중점을 둡니다.
그러나 많은 응용 시나리오에서 대상 도메인은 의미 범주와 관련 없는 데이터와 같은 강력한 도메인 외부 데이터(Strong OOD)로 쉽게 오염됩니다. 이 시나리오는 OWTTT(Open World Test Segment Training)라고도 합니다. 이 경우 기존 TTT/TTA는 일반적으로 강력한 도메인 외부 데이터를 알려진 카테고리로 강제로 분류함으로써 궁극적으로 간섭을 받는 이미지와 같은 약한 도메인 외부 데이터(Weak OOD)를 해결하는 기능을 방해합니다. by Noise
최근 남중국 공과대학과 A*STAR 팀은 처음으로 개방형 테스트 세그먼트 훈련 설정을 제안하고 해당 훈련 방법을 출시했습니다
- 문서: https //arxiv.org/abs/2308.09942
- Code: https://github.com/Yushu-Li/OWTTT
본 논문은 먼저 강력한 도메인 외부 데이터 샘플 필터링 방법을 제안합니다. 견고성의 개방형 세계에서 자가 훈련 TTT 방법을 개선하기 위한 적응형 임계값입니다. 이 방법은 약한/강한 도메인 외부 데이터 분리 효과를 향상시키기 위해 동적으로 확장된 프로토타입을 기반으로 강한 도메인 외부 샘플을 특성화하는 방법을 추가로 제안합니다. 마지막으로, self-training은 분포 정렬에 의해 제한됩니다
이 연구의 방법은 5개의 서로 다른 OWTTT 벤치마크에서 최고의 성능을 달성했으며 TTT에 대한 후속 연구를 위한 보다 강력한 TTT 방법에 대한 새로운 방향을 열었습니다. 본 연구는 ICCV 2023에서 구두 발표 논문으로 채택되었습니다.
소개
테스트 세그먼트 트레이닝(TTT)은 추론 단계에서만 대상 도메인 데이터에 접근하고 분포 이동에 대한 즉석 추론을 수행할 수 있습니다. 테스트 데이터. TTT의 성공은 인위적으로 선택된 다수의 합성 손상된 대상 도메인 데이터에서 입증되었습니다. 그러나 기존 TTT 방법의 기능 경계는 완전히 탐색되지 않았습니다.
개방형 시나리오에서 TTT 애플리케이션을 홍보하기 위해 연구의 초점은 TTT 방법이 실패할 수 있는 시나리오 조사로 옮겨졌습니다. 보다 현실적인 개방형 환경에서 안정적이고 강력한 TTT 방법을 개발하기 위해 많은 노력이 이루어졌습니다. 이 작업에서 우리는 일반적이지만 간과되는 개방형 시나리오를 조사합니다. 여기서 대상 도메인에는 소스 도메인과 다른 의미 범주 또는 단순히 무작위 노이즈와 같이 상당히 다른 환경에서 가져온 테스트 데이터 분포가 포함될 수 있습니다.
위의 테스트 데이터를 Strong Out-of-Distribution Data(강한 OOD)라고 부릅니다. 본 연구에서 약한 OOD 데이터라고 불리는 것은 일반적인 합성 손상과 같은 분포 변화가 있는 테스트 데이터입니다. 따라서 이 실제 환경에 대한 기존 작업이 부족하기 때문에 테스트 데이터가 강력한 OOD 샘플로 오염되는 OWTTT(Open World Test Segment Training)의 견고성을 향상시키는 방법을 모색하게 됩니다.
그림 1: OWTTT 설정 하에서 기존 TTT 방법의 평가 결과
그림 1과 같이 먼저 OWTTT 설정 하에서 기존 TTT 방법을 평가한 결과 두 TTT 방법 모두 자체를 통해 - 훈련 및 분포 정렬은 강력한 OOD 샘플에 의해 영향을 받습니다. 이러한 결과는 기존 TTT 기술을 적용하면 개방형 환경에서 안전한 테스트 시간 훈련을 달성할 수 없음을 보여줍니다. 우리는 그들의 실패 원인을 다음 두 가지로 봅니다.
- 자체 학습 기반 TTT는 테스트 샘플을 알려진 카테고리에 할당해야 하기 때문에 강력한 OOD 샘플을 처리하는 데 어려움이 있습니다. 준지도 학습에 사용된 임계값을 적용하여 일부 신뢰도가 낮은 샘플을 필터링할 수 있지만 모든 강력한 OOD 샘플이 필터링된다는 보장은 없습니다.
- 대상 도메인 분포를 추정하기 위해 강력한 OOD 샘플을 계산할 때 분포 정렬 기반 방법이 영향을 받습니다. 전역 분포 정렬 [1]과 클래스 분포 정렬 [2] 모두 영향을 받을 수 있으며 특성 분포 정렬이 부정확해질 수 있습니다.
기존 TTT 방법의 잠재적인 실패 원인을 해결하기 위해 두 가지 기술을 결합하여 자체 학습 프레임워크 하에서 오픈 월드 TTT의 견고성을 향상시키는 방법을 제안합니다
먼저 자체 훈련된 변형, 즉 소스 도메인 프로토타입을 클러스터 중심으로 대상 도메인에 클러스터링하는 TTT의 기준선을 구축합니다. 잘못된 의사 레이블이 있는 강력한 OOD에 대한 자체 학습의 영향을 완화하기 위해 강력한 OOD 샘플을 거부하는 하이퍼파라미터 없는 방법을 설계합니다.
약한 OOD 샘플과 강한 OOD 샘플의 특성을 더욱 분리하기 위해 격리된 강한 OOD 샘플을 선택하여 프로토타입 풀을 확장할 수 있습니다. 따라서 자체 훈련을 통해 강력한 OOD 샘플이 새로 확장된 강력한 OOD 프로토타입 주위에 긴밀한 클러스터를 형성할 수 있습니다. 이렇게 하면 소스 도메인과 대상 도메인 간의 배포 조정이 용이해집니다. 우리는 확증 편향의 위험을 줄이기 위해 글로벌 분포 정렬을 통해 자체 훈련을 정규화할 것을 제안합니다.
마지막으로 오픈 월드 TTT 시나리오를 합성하기 위해 CIFAR10-C, CIFAR100-C, ImageNet-C, VisDA-C, ImageNet-R, Tiny-ImageNet, MNIST 및 SVHN 데이터 세트를 채택하고 세트는 약한 OOD이고 나머지는 강한 OOD로 벤치마크 데이터 세트를 설정합니다. 우리는 이 벤치마크를 오픈 월드 테스트 세그먼트 트레이닝 벤치마크라고 부르며, 이를 통해 향후 더 많은 작업이 보다 현실적인 시나리오에서 테스트 세그먼트 트레이닝의 견고성에 초점을 맞추도록 장려할 수 있기를 바랍니다.
Method
이 논문에서는 제안된 방법을 네 부분으로 나누어
1) 오픈 월드에서 테스트 세그먼트 training task 설정 개요를 소개합니다.
2) 콘텐츠를 다음으로 다시 작성: 클러스터 분석 을 통해 TTT를 구현하는 방법과 오픈 월드 테스트 시간 교육을 위해 프로토타입을 확장하는 방법을 설명합니다.
3) 동적 프로토타입 확장을 위해 대상 도메인 데이터를 사용하는 방법을 소개합니다.
4) 재작성된 콘텐츠와 결합된 Distribution Alignment를 소개합니다. 클러스터 분석을 통해 강력한 오픈 월드 테스트 시간 교육을 달성합니다.
그림 2: 방법 개요
작업 설정
TTT의 목적은 소스 도메인 사전 훈련된 모델을 대상 도메인에 적용하는 것입니다. 여기서 대상 도메인은 차이가 있을 수 있습니다. 원본 도메인과 관련된 배포 마이그레이션입니다. 표준 폐쇄형 TTT에서는 소스 도메인과 대상 도메인의 레이블 공간이 동일합니다. 그러나 오픈 월드 TTT에서는 대상 도메인의 레이블 공간에 원본 도메인의 대상 공간이 포함되어 있습니다. 이는 대상 도메인에 보이지 않는 새로운 의미 범주가 있음을 의미합니다
TTT 정의 간의 혼란을 피하기 위해 다음을 채택합니다. TTAC [2]에서 제안한 sTTT(순차적 테스트 시간 훈련) 프로토콜을 평가합니다. sTTT 프로토콜에 따라 테스트 샘플은 순차적으로 테스트되고 작은 배치의 테스트 샘플을 관찰한 후 모델 업데이트가 수행됩니다. 타임스탬프 t에 도착하는 테스트 샘플에 대한 예측은 t+k(k가 0보다 큼)에 도착하는 테스트 샘플의 영향을 받지 않습니다.
콘텐츠를 다음과 같이 다시 작성했습니다. 클러스터 분석
도메인 적응 작업[3,4]에서 클러스터링을 사용하는 작업에서 영감을 받아 테스트 세그먼트 교육을 대상 도메인 데이터에서 클러스터 구조를 발견하는 것으로 처리합니다. 대표 프로토타입을 클러스터 중심으로 식별함으로써 클러스터 구조가 대상 도메인에서 식별되고 테스트 샘플이 프로토타입 중 하나 근처에 포함되도록 권장됩니다. 다시 작성한 내용은 다음과 같습니다. 군집 분석의 목표는 다음 수식과 같이 표본과 군집 중심 사이의 코사인 유사성의 음의 로그 우도 손실을 최소화하는 것으로 정의됩니다.
모델 가중치 조정의 부정적인 영향을 피하기 위해 강력한 OOD 샘플을 필터링하는 초매개변수 없는 방법을 개발합니다. 구체적으로 다음 방정식에 표시된 것처럼 각 테스트 샘플에 대한 강력한 OOD 점수 os를 소스 도메인 프로토타입과의 가장 높은 유사성으로 정의합니다.
그림 3 이상치는 이봉 분포를 보여줍니다
그림 3과 같이 이상값이 이봉 분포를 따르는 것을 관찰했습니다. 따라서 고정된 임계값을 지정하는 대신 두 분포를 구분하는 가장 좋은 값으로 최적 임계값을 정의합니다. 구체적으로 문제는 이상값을 두 개의 클러스터로 나누는 것으로 공식화될 수 있으며 최적의 임계값은 에서 클러스터 내 분산을 최소화합니다. 다음 방정식의 최적화는 0.01 단계에서 0부터 1까지 가능한 모든 임계값을 철저하게 검색하여 효율적으로 달성할 수 있습니다.
Dynamic Prototype Extension
Strong OOD 프로토타입 풀을 확장하려면 테스트 샘플을 평가하기 위해 소스 도메인과 Strong OOD 프로토타입을 모두 고려해야 합니다. 데이터로부터 클러스터 수를 동적으로 추정하기 위해 이전 연구에서도 유사한 문제를 조사했습니다. 결정론적 하드 클러스터링 알고리즘 DP-평균[5]은 알려진 클러스터 중심까지 데이터 포인트의 거리를 측정하여 개발되었으며, 거리가 임계값을 초과하면 새로운 클러스터가 초기화됩니다. DP-평균은 K-평균 목표를 최적화하는 것과 동일하지만 클러스터 수에 대한 추가 페널티가 있어 동적 프로토타입 확장을 위한 실행 가능한 솔루션을 제공하는 것으로 나타났습니다.
추가 하이퍼파라미터 추정의 어려움을 완화하기 위해 먼저 기존 소스 도메인 프로토타입과 강한 OOD 프로토타입에 가장 가까운 거리로 확장된 강한 OOD 점수를 갖는 테스트 샘플을 다음과 같이 정의합니다. 따라서 이 임계값을 초과하는 샘플을 테스트하면 새로운 프로토타입이 구축됩니다. 근처에 테스트 샘플을 추가하지 않기 위해 이 프로토타입 확장 프로세스를 점진적으로 반복합니다.
다른 강력한 OOD 프로토타입이 식별됨에 따라 우리는 두 가지 요소를 고려하여 클러스터 분석 손실로 테스트 샘플의 재작성을 정의했습니다. 첫째, 알려진 클래스로 분류된 테스트 샘플은 프로토타입에 더 가깝고 다른 프로토타입과는 멀리 떨어져 있어야 하며, 이는 K-클래스 분류 작업을 정의합니다. 둘째, 강력한 OOD 프로토타입으로 분류된 테스트 샘플은 K+1 클래스 분류 작업을 정의하는 소스 도메인 프로토타입과 멀리 떨어져 있어야 합니다. 이러한 목표를 염두에 두고 내용을 다음과 같이 다시 작성하겠습니다. 클러스터 분석 손실은 다음과 같이 정의됩니다.
분산 정렬 제약 조건은 디자인이나 레이아웃에서 요소를 특정 방식으로 배열하고 정렬해야 함을 의미합니다. 이 제약 조건은 웹 디자인, 그래픽 디자인, 공간 레이아웃 등 다양한 시나리오에 적용될 수 있습니다. 분산 정렬 제약 조건을 사용하면 요소 간의 관계가 더 명확하고 통일될 수 있어 전체 디자인의 미학과 가독성이 향상됩니다.
자가 학습은 잘못된 의사 레이블에 취약하다는 것은 잘 알려져 있습니다. 대상 도메인이 OOD 샘플로 구성되면 상황은 더욱 악화됩니다. 실패 위험을 줄이기 위해 다음과 같이 자가 훈련을 위한 정규화로 분포 정렬 [1]을 추가로 사용합니다.
Experiments
저희는 손상된 합성 데이터세트와 스타일이 다양한 데이터세트를 포함하여 5개의 서로 다른 OWTTT 벤치마크 데이터세트를 테스트했습니다. 실험에서는 주로 약한 OOD 분류 정확도 ACCS, 강한 OOD 분류 정확도 ACCN 및 두 가지의 조화 평균 ACCH의 세 가지 평가 지표를 사용합니다. 다시 작성해야 하는 내용은 Cifar10-C 데이터 세트가 다릅니다. 방법의 성능은 다음과 같습니다. 아래 표에 표시됨
다시 작성해야 하는 내용은 다음과 같습니다. Cifar100-C 데이터 세트의 다양한 방법의 성능은 아래 표에 표시됩니다.
내용은 다음과 같습니다. 다시 작성해야 하는 내용은 다음과 같습니다. ImageNet-C 데이터 세트에서 다양한 방법의 성능은 아래 표에 나와 있습니다
표 4 ImageNet-R 데이터 세트에 대한 다양한 방법의 성능
표 5 VisDA-C 데이터 세트에 대한 다양한 방법의 성능
우리 방법은 거의 모든 데이터에서 일관됩니다. 현재의 최선의 방법과 비교하면 위의 표에서 볼 수 있듯이 상당한 개선이 이루어졌습니다. 강한 OOD 샘플을 효과적으로 식별하고 약한 OOD 샘플 분류에 미치는 영향을 줄일 수 있습니다. 따라서 오픈 월드 시나리오에서 우리의 방법은 보다 강력한 TTT를 달성할 수 있습니다
Summary
본 논문에서는 먼저 OWTTT(Open World Test Segment Training)의 문제와 설정을 제안하고 기존 이 방법이 위의 문제를 해결하기 위해 동적 프로토타입 확장을 기반으로 한 자체 학습 방법이 제안되었습니다. 우리는 이 작업이 TTT에 대한 후속 연구에 새로운 방향을 제공하여 보다 강력한 TTT 방법을 탐색할 수 있기를 바랍니다
위 내용은 동적 프로토타입 확장 기능을 갖춘 자체 학습 방법을 사용하여 오픈 월드 테스트 세그먼트에 대한 학습 기술을 살펴보세요.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











0. 이 글은 어떤 내용을 담고 있나요? 우리는 다재다능하고 빠른 최첨단 생성 단안 깊이 추정 모델인 DepthFM을 제안합니다. DepthFM은 전통적인 깊이 추정 작업 외에도 깊이 인페인팅과 같은 다운스트림 작업에서 최첨단 기능을 보여줍니다. DepthFM은 효율적이며 몇 가지 추론 단계 내에서 깊이 맵을 합성할 수 있습니다. 이 작품을 함께 읽어보아요~ 1. 논문 정보 제목: DepthFM: FastMoncularDepthEstimationwithFlowMatching 저자: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

Furmark에 대해 어떻게 생각하시나요? 1. 메인 인터페이스에서 "실행 모드"와 "디스플레이 모드"를 설정하고 "테스트 모드"도 조정한 후 "시작" 버튼을 클릭하세요. 2. 잠시 기다리면 그래픽 카드의 다양한 매개변수를 포함한 테스트 결과가 표시됩니다. Furmark는 어떻게 자격을 갖추었나요? 1. 푸르마크 베이킹 머신을 사용하여 약 30분 동안 결과를 확인합니다. 기본적으로 85도 정도, 최고 온도는 87도, 실내 온도는 19도입니다. 대형 섀시에 섀시 팬 포트 5개 전면 2개, 상단 2개, 후면 1개로 구성됐으나 팬은 1개만 설치됐다. 모든 액세서리는 오버클럭되지 않습니다. 2. 정상적인 상황에서 그래픽 카드의 정상 온도는 "30-85℃" 사이여야 합니다. 3. 주변온도가 너무 높은 여름에도 정상온도는 "50~85℃"

세상은 미친 듯이 큰 모델을 만들고 있습니다. 인터넷의 데이터만으로는 충분하지 않습니다. 훈련 모델은 '헝거게임'처럼 생겼고, 전 세계 AI 연구자들은 이러한 데이터를 탐식하는 사람들에게 어떻게 먹이를 줄지 고민하고 있습니다. 이 문제는 다중 모드 작업에서 특히 두드러집니다. 아무것도 할 수 없던 시기에, 중국 인민대학교 학과의 스타트업 팀은 자체 새로운 모델을 사용하여 중국 최초로 '모델 생성 데이터 피드 자체'를 현실화했습니다. 또한 이해 측면과 생성 측면의 두 가지 접근 방식으로 양측 모두 고품질의 다중 모드 새로운 데이터를 생성하고 모델 자체에 데이터 피드백을 제공할 수 있습니다. 모델이란 무엇입니까? Awaker 1.0은 중관촌 포럼에 최근 등장한 대형 멀티모달 모델입니다. 팀은 누구입니까? 소폰 엔진. 런민대학교 힐하우스 인공지능대학원 박사과정 학생인 Gao Yizhao가 설립했습니다.

무엇? 주토피아는 국내 AI로 현실이 되는 걸까? 영상과 함께 노출된 것은 '켈링'이라는 국산 대형 영상세대 신형 모델이다. Sora는 유사한 기술 경로를 사용하고 자체 개발한 여러 기술 혁신을 결합하여 크고 합리적인 움직임뿐만 아니라 물리적 세계의 특성을 시뮬레이션하고 강력한 개념적 결합 능력과 상상력을 갖춘 비디오를 제작합니다. 데이터에 따르면 Keling은 최대 1080p의 해상도로 30fps에서 최대 2분의 초장 영상 생성을 지원하며 다양한 화면비를 지원합니다. 또 다른 중요한 점은 Keling이 실험실에서 공개한 데모나 비디오 결과 시연이 아니라 단편 비디오 분야의 선두주자인 Kuaishou가 출시한 제품 수준 애플리케이션이라는 점입니다. 더욱이 백지 작성이 아닌 실용성에 중점을 두고, 출시되자마자 온라인에 진출하는 데 중점을 두고 있다. 콰이잉에서는 커링의 대형 모델이 출시됐다.

최근 군계는 미군 전투기가 이제 AI를 활용해 완전 자동 공중전을 완수할 수 있다는 소식에 충격을 받았다. 네, 얼마 전 미군의 AI 전투기가 최초로 공개되면서 그 미스터리가 드러났습니다. 이 전투기의 정식 명칭은 VISTA(Variable Stability Flight Simulator Test Aircraft)로 미 공군 장관이 직접 조종해 일대일 공중전을 모의 실험한 것이다. 5월 2일, 미 공군 장관 프랭크 켄달(Frank Kendall)이 X-62AVISTA를 타고 에드워드 공군 기지에서 이륙했습니다. 1시간의 비행 동안 모든 비행 작업은 AI에 의해 자동으로 완료되었습니다. Kendall은 "지난 수십 년 동안 우리는 자율 공대공 전투의 무한한 잠재력에 대해 생각해 왔지만 항상 도달할 수 없는 것처럼 보였습니다."라고 말했습니다. 그러나 지금은,

Meta가 출시한 Llama3, MistralAI가 출시한 Mistral 및 Mixtral 모델, AI21 Lab이 출시한 Jamba 등 친숙한 오픈소스 대형 언어 모델이 OpenAI의 경쟁자가 되었습니다. 대부분의 경우 사용자는 모델의 잠재력을 완전히 활용하기 위해 자신의 데이터를 기반으로 이러한 오픈 소스 모델을 미세 조정해야 합니다. 단일 GPU에서 Q-Learning을 사용하여 작은 언어 모델에 비해 대규모 언어 모델(예: Mistral)을 미세 조정하는 것은 어렵지 않지만 Llama370b 또는 Mixtral과 같은 대규모 모델의 효율적인 미세 조정은 지금까지 과제로 남아 있습니다. . 그래서 HuggingFace의 기술 이사인 Philipp Sch는

대규모 언어 모델(LLM)을 인간의 가치와 의도에 맞추려면 인간의 피드백을 학습하여 유용하고 정직하며 무해한지 확인하는 것이 중요합니다. LLM 정렬 측면에서 효과적인 방법은 인간 피드백 기반 강화 학습(RLHF)입니다. RLHF 방법의 결과는 훌륭하지만 몇 가지 최적화 문제가 있습니다. 여기에는 보상 모델을 훈련한 다음 해당 보상을 극대화하기 위해 정책 모델을 최적화하는 것이 포함됩니다. 최근 일부 연구자들은 더 간단한 오프라인 알고리즘을 탐구했는데, 그 중 하나가 직접 선호 최적화(DPO)입니다. DPO는 RLHF의 보상 기능을 매개변수화하여 선호도 데이터를 기반으로 직접 정책 모델을 학습하므로 명시적인 보상 모델이 필요하지 않습니다. 이 방법은 간단하고 안정적입니다.
