목차
알고리즘은 복제가 보장됩니다
모델 다운로드 및 변환
Prediction
Training COCO2017 데이터 세트
권장 자료 수렴이 빠르기 때문에 사전 훈련된 COCO 가중치를 훈련에 사용합니다.
명령어 및 구체적인 매개변수는 다음과 같습니다.
기술 주변기기 일체 포함 GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

Apr 09, 2023 pm 06:41 PM
github 연산 오픈 소스

객체 감지는 컴퓨터 비전 분야의 기본 작업입니다. 좋은 Model Zoo 없이 어떻게 할 수 있나요?

오늘은 간단하고 사용하기 쉬운 표적 탐지 알고리즘 모델 라이브러리 miemiedetection을 소개하겠습니다. 현재 GitHub

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

코드 링크: https://github.com/miemie2013/miemiedetection에서 별 130개 이상을 얻었습니다.

miemiedetection YOLOX를 기반으로 개발된 개인 탐지 라이브러리로, PPYOLO, PPYOLOv2, PPYOLOE, FCOS 등의 알고리즘도 지원합니다.

YOLOX의 우수한 아키텍처 덕분에 miemiedection의 알고리즘 훈련 속도는 매우 빠르며 데이터 읽기는 더 이상 훈련 속도의 병목 현상이 아닙니다.

코드 개발에 사용되는 딥 러닝 프레임워크는 변형 가능한 컨볼루션 DCNv2, Matrix NMS 및 기타 어려운 연산자를 구현하고 단일 머신 단일 카드, 단일 머신 멀티 카드 및 다중 머신 멀티 카드를 지원하는 pyTorch입니다. 훈련 모드(Linux 시스템을 사용하는 멀티 카드 훈련 모드 권장)는 Windows 및 Linux 시스템을 지원합니다.

그리고 miemiedetection은 설치가 필요 없는 탐지 라이브러리이기 때문에 사용자가 직접 코드를 변경하여 실행 로직을 변경할 수 있어 라이브러리에 새로운 알고리즘을 추가하는 것도 쉽습니다.

저자는 앞으로 더 많은 알고리즘 지원(및 여성 의류)이 추가될 것이라고 밝혔습니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

알고리즘은 복제가 보장됩니다

. 가장 중요한 것은 정확도가 기본적으로 원본과 동일해야 한다는 것입니다.

먼저 PPYOLO, PPYOLOv2, PPYOLOE의 세 가지 모델을 살펴보겠습니다. 저자는 모두 손실 정렬과 그래디언트 정렬에 대한 실험을 거쳤습니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

증거 보존을 위해 소스 코드에서 *.npz 부분을 주석 처리하여 읽고 쓰는 모습도 볼 수 있는데, 이는 모두 정렬 실험에서 남은 코드입니다.

그리고 저자는 연주 정렬 과정도 자세히 기록했습니다. 초보자에게는 이 경로를 따르는 것도 좋은 학습 과정입니다!

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

모든 훈련 로그도 기록되어 창고에 보관되는데, 이는 PPYOLO 시리즈 알고리즘 재현의 정확성을 입증하기에 충분합니다!

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

최종 훈련 결과는 재현된 PPYOLO 알고리즘이 원래 창고와 동일한 손실 및 기울기를 갖는 것으로 나타났습니다.

또한 저자는 원본 창고 및 miemiedection 전이 학습 voc2012 데이터 세트를 사용하려고 시도했으며 동일한 정확도를 얻었습니다(동일한 하이퍼 매개 변수 사용).

원래 구현과 동일, 동일한 학습률, 동일한 학습률 감소 전략 Warm_piecewisedecay(PPYOLO 및 PPYOLOv2에서 사용) 및 Warm_cosinedecay(PPYOLOE에서 사용), 동일한 지수 이동 평균 EMA, 동일한 데이터 전처리 동일한 매개변수 L2 가중치 감쇠, 동일한 손실, 동일한 기울기 및 동일한 사전 훈련된 모델을 사용하여 전이 학습은 동일한 정확도를 달성했습니다.

모두가 멋진 경험을 할 수 있도록 충분한 실험과 테스트를 거쳤습니다!

No 998, no 98, 별표를 클릭하고 모든 표적 탐지 알고리즘을 무료로 집에 가져가세요!

모델 다운로드 및 변환

모델을 실행하려면 매개변수가 매우 중요합니다. 저자는 Baidu Netdisk를 통해 직접 다운로드할 수 있는 변환된 사전 훈련 pth 가중치 파일을 제공합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

링크: https://pan.baidu.com/s/1ehEqnNYKb9Nz0XNeqAcwDw

추출 코드: qe3i

또는 아래 단계에 따라 다운로드하세요.

1단계, 웨이트 파일을 다운로드하세요. , 프로젝트 루트 디렉터리에서 실행합니다(즉, 파일을 다운로드합니다. Windows 사용자는 Thunder 또는 브라우저를 사용하여 wget 뒤의 링크를 다운로드할 수 있습니다. 아름다움을 보여주기 위해 ppyoloe_crn_l_300e_coco만 예로 사용됩니다):

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

pretrained라는 단어가 있는 모델은 ImageNet에서 사전 학습된 백본 네트워크입니다. PPYOLO, PPYOLOv2 및 PPYOLOE는 COCO 데이터 세트를 학습하기 위해 이러한 가중치를 로드합니다. 나머지는 COCO에서 사전 훈련된 모델입니다.

두 번째 단계에서는 가중치를 변환하고 프로젝트 루트 디렉터리에서 실행합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

각 매개변수의 의미는 다음과 같습니다.

- -f는 사용된 구성 파일을 나타냅니다.

- -c는 읽은 소스 가중치 파일을 나타냅니다. (저장됨) pytorch 가중치 파일;

- -nc는 데이터 세트의 범주 수를 나타냅니다.

- --only_backbone은 True인 경우에만 백본 네트워크의 가중치를 변환하는 것을 의미합니다. 실행 후 변환된 *.pth 가중치 파일은 프로젝트 루트 디렉터리에 저장됩니다.

단계별 튜토리얼

다음 명령에서는 대부분 모델의 구성 파일을 사용하므로 처음에 구성 파일에 대해 자세히 설명해야 합니다.

mmdet.exp.base_exp.BaseExp는 구성 파일 기본 클래스입니다. 모델을 얻는 방법을 나타내는 get_model(), 얻는 방법을 나타내는 get_data_loader()와 같은 여러 추상 메서드를 선언하는 추상 클래스입니다. 훈련된 데이터로더인 get_optimizer()는 최적화 프로그램을 얻는 방법 등을 나타냅니다.

mmdet.exp.datasets.coco_base.COCOBaseExp는 데이터 세트의 구성이며 BaseExp를 상속합니다. 데이터 세트의 구성만 제공합니다. 이 웨어하우스는 COCO 주석 형식의 데이터 세트 교육만 지원합니다!

다른 주석 형식의 데이터 세트는 훈련 전에 COCO 주석 형식으로 변환해야 합니다(너무 많은 주석 형식이 지원되면 작업량이 너무 커집니다). 맞춤형 데이터 세트는 miemieLabels를 통해 COCO 라벨 형식으로 변환될 수 있습니다. 모든 감지 알고리즘 구성 클래스는 COCOBaseExp를 상속합니다. 이는 모든 감지 알고리즘이 동일한 데이터 세트 구성을 공유한다는 것을 의미합니다.

COCOBaseExp의 구성 항목은 다음과 같습니다.

그중

- self.num_classes는 데이터 세트의 범주 수를 나타냅니다. GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

- self.data_dir은 숫자를 나타냅니다. 데이터 세트 루트 디렉토리의 카테고리

- self.cls_names는 데이터 세트의 카테고리 이름 파일 경로를 나타내며, 한 줄은 카테고리 이름을 나타냅니다. 사용자 정의 데이터 세트인 경우 새 txt 파일을 생성하고 카테고리 이름을 편집한 다음 이를 가리키도록 self.cls_names를 수정해야 합니다.

- self.ann_folder는 주석 파일의 루트 디렉터리를 나타냅니다. 데이터 세트는 self.data_dir 디렉토리에 있어야 합니다.

- self.train_ann은 self.ann_folder 디렉토리에 있어야 하는 데이터 세트의 훈련 세트의 주석 파일 이름을 나타냅니다.

- self.val_ann은 데이터 세트의 검증 세트에 대한 주석을 나타냅니다. 파일 이름은 self.ann_folder 디렉토리에 있어야 합니다.

- self.train_image_folder는 데이터 세트의 훈련 세트의 이미지 폴더 이름을 나타냅니다. 데이터 세트이며 self.data_dir 디렉토리에 있어야 합니다.

- self.val_image_folder는 self.data_dir 디렉토리에 있어야 하는 데이터 세트의 검증 세트의 이미지 폴더 이름입니다.

VOC 2012 데이터 세트의 경우 데이터 세트 구성을 다음과 같이 수정해야 합니다.

또한 다음에서 self.num_classes 및 self.data_dir의 구성을 수정할 수도 있습니다. exps/ppyoloe/ppyoloe_crn_l_voc2012.py와 같은 서브클래스이므로 COCOBaseExp의 구성을 덮어쓰게 됩니다(잘못됨).

앞서 언급한 모델을 다운로드한 후 VOC2012 데이터 세트의 self.data_dir 디렉터리에 새로운 폴더 annotes2를 생성하고 이 폴더에 voc2012_train.json 및 voc2012_val.json을 넣습니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

마지막으로 COCO 데이터 세트, VOC2012 데이터 세트 및 이 프로젝트의 배치 위치는 다음과 같아야 합니다.

데이터 세트의 루트 디렉터리와 miemiedetection-master는 동일한 레벨 디렉터리입니다. . 저는 개인적으로 miemiedetection-master에 데이터 세트를 넣는 것을 권장하지 않습니다. 그렇지 않으면 PyCharm을 열 때 용량이 커질 것입니다. 게다가 여러 프로젝트(예: mmDetection, PaddleDetection, AdelaiDet)가 데이터 세트를 공유하는 경우 데이터 세트 경로와 프로젝트를 설정할 수 있습니다. 이름은 중요하지 않습니다.

mmdet.exp.ppyolo.ppyolo_method_base.PPYOLO_Method_Exp는 특정 알고리즘의 모든 추상 메소드를 구현하는 클래스입니다. 모든 추상 메소드를 구현하는 COCOBaseExp를 상속합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

exp.ppyolo.ppyolo_r50vd_2x.Exp는 PPYOLO_Method_Exp를 상속하는 PPYOLO 알고리즘의 Resnet50Vd 모델의 최종 구성 클래스입니다.

PPYOLOE의 구성 파일도 이 구조와 유사합니다.

Prediction

먼저 입력 데이터가 그림이면 프로젝트 루트 디렉터리에서 실행합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

각 매개 변수의 의미는 다음과 같습니다.

- -f는 사용되는 내용을 의미합니다. 구성 파일 ;

- -c는 읽은 가중치 파일을 나타냅니다.

- --path는 이미지의 경로를 나타냅니다.

- --conf는 점수 임계값을 나타냅니다. 이보다 높은 예측 상자만 그립니다.

- --tsize는 예측 중에 이미지 크기를 --tsize로 조정하는 해상도를 나타냅니다.

예측이 완료된 후 콘솔은 결과 이미지의 저장 경로를 인쇄하고 사용자는 그것을 보세요. 예측을 위해 훈련 사용자 정의 데이터 세트에 저장된 모델을 사용하는 경우 -c를 모델 경로로 수정하면 됩니다.

폴더의 모든 사진을 예측하는 경우 프로젝트 루트 디렉터리에서 실행하세요.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

Change --path를 해당 사진 폴더의 경로로 변경하세요.

Training COCO2017 데이터 세트

ImageNet 사전 교육 백본 네트워크 교육 COCO 데이터 세트를 읽는 경우 프로젝트 루트 디렉터리에서 실행하세요.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

한 명령으로 단일 머신 8- 물론, 전제는 실제로 독립형 8카드 슈퍼컴퓨터를 가지고 있다는 것입니다.

각 매개변수의 의미는 다음과 같습니다.

-f는 사용된 구성 파일을 나타냅니다.

-d는 그래픽 카드 수를 나타냅니다.

-b는 훈련 중 배치를 나타냅니다. 모든 카드);

-eb는 평가 중 배치 크기를 나타냅니다(모든 카드에 대해).

-c는 읽기 가중치 파일을 나타냅니다.

--fp16, 자동 혼합 정밀도 훈련; --num_machines, 단일 머신에서 여러 카드를 사용하여 훈련하는 것이 좋습니다.

--resume은 복구 훈련인지 여부를 나타냅니다.

맞춤 데이터 세트 훈련

권장 자료 수렴이 빠르기 때문에 사전 훈련된 COCO 가중치를 훈련에 사용합니다.

위의 VOC2012 데이터 세트를 예로 들어 보겠습니다. ppyolo_r50vd 모델의 경우 머신 1개와 카드 1개인 경우 다음 명령을 입력하여 학습을 시작합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.일부 학습이 중단되는 경우 이전에 저장한 모델의 학습을 재개하려면 모델을 읽으려는 경로에 -c를 수정하고 --resume 매개변수를 추가하면 됩니다.

머신이 2대이고 카드가 2개인 경우, 즉 각 머신에 카드가 1장인 경우 머신 0에 다음 명령을 입력하세요.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다. 머신 1에 다음 명령을 입력하세요.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다. 위 두 명령의 192.168.0.107을 머신 0의 LAN IP로 변경하면 됩니다.

머신 1개와 카드 2개인 경우 다음 명령을 입력하여 훈련을 시작합니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다. 전이 학습 VOC2012 데이터 세트, ppyolo_r50vd_2x(0.50:0.95)의 측정된 AP는 0.59+에 도달할 수 있습니다. AP(0.50)는 0.82+에 도달할 수 있고, AP(소형)는 0.18+에 도달할 수 있습니다. 단일 카드이든 여러 장의 카드이든 관계없이 이 결과를 얻을 수 있습니다.

전이 학습 중에는 PaddleDetection과 동일한 정확도와 수렴 속도를 갖습니다. 두 가지의 훈련 로그는 train_ppyolo_in_voc2012 폴더에 있습니다.

ppyoloe_l 모델인 경우 단일 머신에서 다음 명령을 입력하여 학습을 시작합니다(백본 네트워크 동결)

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다. 전송 학습 VOC2012 데이터 세트, ppyoloe_l의 측정된 AP(0.50:0.95 )는 0.66+에 도달할 수 있고, AP(0.50)는 0.85+에 도달할 수 있으며, AP(소)는 0.28+에 도달할 수 있습니다.

평가

명령어 및 구체적인 매개변수는 다음과 같습니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

프로젝트 루트 디렉터리에서 실행한 결과는 다음과 같습니다.

GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.

가중치 변환 후 약 0.4% 정도 정확도가 약간 손실됩니다.

위 내용은 GitHub 오픈 소스 130+Stars: PPYOLO 시리즈를 기반으로 표적 탐지 알고리즘을 재현하는 방법을 단계별로 가르쳐줍니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

10가지 권장 오픈 소스 무료 텍스트 주석 도구 10가지 권장 오픈 소스 무료 텍스트 주석 도구 Mar 26, 2024 pm 08:20 PM

텍스트 주석은 텍스트의 특정 내용에 해당하는 레이블이나 태그를 추가하는 작업입니다. 주요 목적은 특히 인공 지능 분야에서 더 심층적인 분석 및 처리를 위해 텍스트에 추가 정보를 제공하는 것입니다. 텍스트 주석은 인공 지능 애플리케이션의 지도형 기계 학습 작업에 매우 중요합니다. 자연어 텍스트 정보를 보다 정확하게 이해하고 텍스트 분류, 감정 분석, 언어 번역 등의 작업 성능을 향상시키기 위해 AI 모델을 훈련하는 데 사용됩니다. 텍스트 주석을 통해 우리는 AI 모델이 텍스트의 개체를 인식하고, 맥락을 이해하고, 새로운 유사한 데이터가 나타날 때 정확한 예측을 하도록 가르칠 수 있습니다. 이 기사에서는 주로 더 나은 오픈 소스 텍스트 주석 도구를 권장합니다. 1.라벨스튜디오https://github.com/Hu

15가지 추천 오픈 소스 무료 이미지 주석 도구 15가지 추천 오픈 소스 무료 이미지 주석 도구 Mar 28, 2024 pm 01:21 PM

이미지 주석은 이미지 콘텐츠에 더 깊은 의미와 설명을 제공하기 위해 이미지에 레이블이나 설명 정보를 연결하는 프로세스입니다. 이 프로세스는 비전 모델을 훈련하여 이미지의 개별 요소를 보다 정확하게 식별하는 데 도움이 되는 기계 학습에 매우 중요합니다. 이미지에 주석을 추가함으로써 컴퓨터는 이미지 뒤의 의미와 맥락을 이해할 수 있으므로 이미지 내용을 이해하고 분석하는 능력이 향상됩니다. 이미지 주석은 컴퓨터 비전, 자연어 처리, 그래프 비전 모델 등 다양한 분야를 포괄하여 차량이 도로의 장애물을 식별하도록 지원하는 등 광범위한 애플리케이션을 보유하고 있습니다. 의료영상인식을 통한 질병진단. 이 기사에서는 주로 더 나은 오픈 소스 및 무료 이미지 주석 도구를 권장합니다. 1.마케센스

CLIP-BEVFormer: BEVFormer 구조를 명시적으로 감독하여 롱테일 감지 성능을 향상시킵니다. CLIP-BEVFormer: BEVFormer 구조를 명시적으로 감독하여 롱테일 감지 성능을 향상시킵니다. Mar 26, 2024 pm 12:41 PM

위에 작성 및 저자의 개인적인 이해: 현재 전체 자율주행 시스템에서 인식 모듈은 중요한 역할을 합니다. 자율주행 시스템의 제어 모듈은 적시에 올바른 판단과 행동 결정을 내립니다. 현재 자율주행 기능을 갖춘 자동차에는 일반적으로 서라운드 뷰 카메라 센서, 라이더 센서, 밀리미터파 레이더 센서 등 다양한 데이터 정보 센서가 장착되어 다양한 방식으로 정보를 수집하여 정확한 인식 작업을 수행합니다. 순수 비전을 기반으로 한 BEV 인식 알고리즘은 하드웨어 비용이 저렴하고 배포가 용이하며, 출력 결과를 다양한 다운스트림 작업에 쉽게 적용할 수 있어 업계에서 선호됩니다.

C++에서 기계 학습 알고리즘 구현: 일반적인 과제 및 솔루션 C++에서 기계 학습 알고리즘 구현: 일반적인 과제 및 솔루션 Jun 03, 2024 pm 01:25 PM

C++의 기계 학습 알고리즘이 직면하는 일반적인 과제에는 메모리 관리, 멀티스레딩, 성능 최적화 및 유지 관리 가능성이 포함됩니다. 솔루션에는 스마트 포인터, 최신 스레딩 라이브러리, SIMD 지침 및 타사 라이브러리 사용은 물론 코딩 스타일 지침 준수 및 자동화 도구 사용이 포함됩니다. 실제 사례에서는 Eigen 라이브러리를 사용하여 선형 회귀 알고리즘을 구현하고 메모리를 효과적으로 관리하며 고성능 행렬 연산을 사용하는 방법을 보여줍니다.

권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 Apr 03, 2024 am 11:55 AM

얼굴 검출 및 인식 기술은 이미 상대적으로 성숙하고 널리 사용되는 기술입니다. 현재 가장 널리 사용되는 인터넷 응용 언어는 JS입니다. 웹 프런트엔드에서 얼굴 감지 및 인식을 구현하는 것은 백엔드 얼굴 인식에 비해 장점과 단점이 있습니다. 장점에는 네트워크 상호 작용 및 실시간 인식이 줄어 사용자 대기 시간이 크게 단축되고 사용자 경험이 향상된다는 단점이 있습니다. 모델 크기에 따라 제한되고 정확도도 제한됩니다. js를 사용하여 웹에서 얼굴 인식을 구현하는 방법은 무엇입니까? 웹에서 얼굴 인식을 구현하려면 JavaScript, HTML, CSS, WebRTC 등 관련 프로그래밍 언어 및 기술에 익숙해야 합니다. 동시에 관련 컴퓨터 비전 및 인공지능 기술도 마스터해야 합니다. 웹 측면의 디자인으로 인해 주목할 가치가 있습니다.

대형 모델을 이해하는 Alibaba 7B 다중 모드 문서, 새로운 SOTA 획득 대형 모델을 이해하는 Alibaba 7B 다중 모드 문서, 새로운 SOTA 획득 Apr 02, 2024 am 11:31 AM

다중 모드 문서 이해 기능을 위한 새로운 SOTA! Alibaba mPLUG 팀은 최신 오픈 소스 작업인 mPLUG-DocOwl1.5를 출시했습니다. 이 작품은 고해상도 이미지 텍스트 인식, 일반 문서 구조 이해, 지침 따르기, 외부 지식 도입이라는 4가지 주요 과제를 해결하기 위한 일련의 솔루션을 제안했습니다. 더 이상 고민하지 말고 먼저 효과를 살펴보겠습니다. 복잡한 구조의 차트도 한 번의 클릭으로 인식하고 마크다운 형식으로 변환 가능: 다양한 스타일의 차트 사용 가능: 보다 자세한 텍스트 인식 및 위치 지정도 쉽게 처리 가능: 문서 이해에 대한 자세한 설명도 제공 가능: 아시다시피, " 문서 이해"는 현재 대규모 언어 모델 구현을 위한 중요한 시나리오입니다. 시장에는 문서 읽기를 지원하는 많은 제품이 있습니다. 그 중 일부는 주로 텍스트 인식을 위해 OCR 시스템을 사용하고 텍스트 처리를 위해 LLM을 사용합니다.

방금 출시되었습니다! 한 번의 클릭으로 애니메이션 스타일의 이미지를 생성할 수 있는 오픈 소스 모델 방금 출시되었습니다! 한 번의 클릭으로 애니메이션 스타일의 이미지를 생성할 수 있는 오픈 소스 모델 Apr 08, 2024 pm 06:01 PM

최신 AIGC 오픈소스 프로젝트인 AnimagineXL3.1을 소개하겠습니다. 이 프로젝트는 사용자에게 더욱 최적화되고 강력한 애니메이션 이미지 생성 경험을 제공하는 것을 목표로 하는 애니메이션 테마의 텍스트-이미지 모델의 최신 버전입니다. AnimagineXL3.1에서 개발 팀은 모델이 성능과 기능 면에서 새로운 수준에 도달할 수 있도록 여러 주요 측면을 최적화하는 데 중점을 두었습니다. 첫째, 이전 버전의 게임 캐릭터 데이터뿐만 아니라 다른 많은 유명 애니메이션 시리즈의 데이터도 훈련 세트에 포함하도록 훈련 데이터를 확장했습니다. 이러한 움직임은 모델의 지식 기반을 풍부하게 하여 다양한 애니메이션 스타일과 캐릭터를 더 완벽하게 이해할 수 있게 해줍니다. AnimagineXL3.1은 새로운 특수 태그 및 미학 세트를 소개합니다.

단일 카드는 듀얼 카드보다 Llama를 70B 더 빠르게 실행합니다. Microsoft는 A100에 FP6을 넣었습니다 | 단일 카드는 듀얼 카드보다 Llama를 70B 더 빠르게 실행합니다. Microsoft는 A100에 FP6을 넣었습니다 | Apr 29, 2024 pm 04:55 PM

FP8 이하의 부동 소수점 수량화 정밀도는 더 이상 H100의 "특허"가 아닙니다! Lao Huang은 모든 사람이 INT8/INT4를 사용하기를 원했고 Microsoft DeepSpeed ​​팀은 NVIDIA의 공식 지원 없이 A100에서 FP6을 실행하기 시작했습니다. 테스트 결과에 따르면 A100에 대한 새로운 방법 TC-FPx의 FP6 양자화는 INT4에 가깝거나 때로는 더 빠르며 후자보다 정확도가 더 높은 것으로 나타났습니다. 또한 오픈 소스로 제공되고 DeepSpeed와 같은 딥 러닝 추론 프레임워크에 통합된 엔드투엔드 대규모 모델 지원도 있습니다. 이 결과는 대형 모델 가속화에도 즉각적인 영향을 미칩니다. 이 프레임워크에서는 단일 카드를 사용하여 Llama를 실행하면 처리량이 듀얼 카드보다 2.65배 더 높습니다. 하나

See all articles