이 튜토리얼은 정신 건강 감정 분석을위한 LLAMA 3.1-8B-IT 모델을 미세 조정하는 것을 보여줍니다. 텍스트 데이터에서 환자의 정신 건강 상태를 예측하고 어댑터를 기본 모델과 병합하고 Hugging Face Hub에 전체 모델을 배포하기 위해 모델을 사용자 정의합니다. 결정적으로, 의료에서 AI를 사용할 때 윤리적 고려 사항이 가장 중요하다는 것을 기억하십시오. 이 예는 예시적인 목적으로 만 사용됩니다
우리는 추론을 위해 변압기 라이브러리를 사용하여 Kaggle을 통해 LLAMA 3.1 모델에 액세스하는 것을 다룰 것입니다. LLM 미세 조정에 대한 사전 이해 ( "미세 조정에 대한 입문 안내서"참조)는 유리합니다.
저자에 의한 이미지
Llama 3.1 이해
Meta AI의 다국어 대형 언어 모델 (LLM)은 언어 이해와 세대에 탁월합니다. 8b, 70b 및 405b 매개 변수 버전으로 제공되는이 제품은 최적화 된 변압기를 갖춘 자동 재조정 아키텍처를 기반으로합니다. 다양한 공개 데이터에 대해 교육을받은 8 개 언어를 지원하며 128K 컨텍스트 길이를 자랑합니다. 상업용 라이센스는 쉽게 액세스 할 수 있으며 다양한 벤치 마크에서 여러 경쟁 업체를 능가합니다.
출처 : llama 3.1 (meta.com)
Kaggle에서 llama 3.1에 액세스하고 사용하는
우리는 Kaggle의 무료 gpus/tpus를 활용합니다. 다음 단계를 따르십시오 :
Meta.com에 등록 (Kaggle 이메일 사용)
LLAMA 3.1 KAGGLE 저장소 및 요청 모델 액세스에 액세스하십시오.
제공된 "코드"버튼을 사용하여 Kaggle 노트북을 시작하십시오
선호하는 모델 버전을 선택하여 노트북에 추가하십시오.
필요한 패키지를 설치하십시오 ()
모델과 토큰 화기를로드하십시오 :
프롬프트 생성 및 실행 추론 :
정신 건강 분류를위한 미세 조정 llama 3.1
설정 : llama 3.1로 새로운 Kaggle 노트북을 시작하고 필수 패키지를 설치하고 (, , ,
, )를 설치하고 "정신 건강에 대한 감정 분석"데이터 세트를 추가하십시오. 가중치 및 바이어스 (API 키 사용)를 구성하십시오
데이터 처리 : 데이터 세트를로드하고 데이터 세트를로드하고 정리하십시오 (모호한 범주 제거 : "자살,"스트레스 ","성격 장애 "), 셔플 및 훈련, 평가 및 테스트 세트로 분할 (효율성을 위해 3000 샘플 사용). 진술과 레이블을 통합 한 프롬프트를 만듭니다
모델 로딩 : 메모리 효율을 위해 4 비트 양자화를 사용하여 LLAMA-3.1-8B 비 구역 모델을로드하십시오. 토큰 화기를로드하고 패드 토큰 ID를 설정하십시오
사전 결절 평가 : 라벨을 예측하고 모델 성능을 평가하기위한 기능을 작성합니다 (정확도, 분류 보고서, 혼동 매트릭스). 미세 조정 전에 모델의 기준 성능을 평가하십시오
미세 조정 :
적절한 매개 변수를 사용하여 LORA를 구성합니다. 교육 인수를 설정하십시오 (환경에 필요한 경우 조정). 를 사용하여 모델을 훈련시킵니다. 가중치 및 바이어스를 사용하여 진행 상황을 모니터링하십시오
사후 조정 평가 : 미세 조정 후 모델의 성능을 재평가하십시오
병합 및 저장 : 새로운 Kaggle 노트북에서 미세 조정 된 어댑터를 및 를 사용하여 기본 모델과 병합하십시오. 병합 된 모델을 테스트하십시오. 최종 모델을 저장하고 밀고 토큰 화기를 포옹 페이스 허브로 밀어 넣으십시오.
와 같은 자리 표시자를 실제 파일 경로로 바꾸는 것을 잊지 마십시오. 전체 코드와 자세한 설명은 원래의 더 긴 응답으로 제공됩니다. 이 응축 버전은 높은 수준의 개요 및 키 코드 스 니펫을 제공합니다. 민감한 데이터로 작업 할 때 항상 윤리적 고려 사항을 우선시하십시오
위 내용은 텍스트 분류를위한 미세 조정 라마 3.1의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!