노트북에서 실행할 수 있는 ChatGPT를 대체할 수 있는 기술 보고서가 첨부되어 있습니다.
GPT4All은 대량의 깔끔한 보조 데이터(코드, 스토리 및 대화 포함)를 기반으로 훈련된 챗봇입니다. 데이터에는 약 800,000개의 GPT-3.5-Turbo 생성 데이터가 포함되어 있으며 M1에서 실행될 수 있습니다. Mac, Windows 및 기타 환경. 아마도 이름에서 알 수 있듯이 누구나 개인 GPT를 사용할 수 있는 시대가 온 것 같습니다.
OpenAI가 ChatGPT를 출시한 이후 최근 몇 달 동안 챗봇의 인기가 점점 높아지고 있습니다.
ChatGPT는 강력하지만 OpenAI가 이를 오픈 소스로 만드는 것은 거의 불가능합니다. 얼마 전 Meta에서 오픈소스로 공개했던 LLaMA 등 많은 사람들이 오픈소스 작업을 하고 있습니다. 이는 70억에서 650억에 이르는 매개변수 수량을 갖는 일련의 모델에 대한 일반적인 용어입니다. 그 중 130억 개의 매개변수 LLaMA 모델은 "대부분의 벤치마크에서" 1,750억 개의 매개변수 GPT-3보다 성능이 뛰어납니다.
LLaMA의 오픈 소스는 많은 연구자들에게 도움이 되었습니다. 예를 들어 Stanford는 LLaMA에 명령 조정을 추가하고 Alpaca(LLaMA 7B 기반)라는 새로운 70억 개의 매개변수 모델을 훈련했습니다. 결과는 7B 매개변수만으로 구성된 경량 모델인 Alpaca의 성능이 GPT-3.5와 같은 초대형 언어 모델과 비슷하다는 것을 보여줍니다.
또 다른 예로, 다음에 소개할 모델인 GPT4All 역시 LLaMA를 기반으로 한 새로운 7B 언어 모델입니다. 프로젝트가 시작된 지 이틀 만에 스타 수가 7.8,000개를 넘어섰습니다.
프로젝트 주소: https://github.com/nomic-ai/gpt4all
간단히 말하면 GPT4All은 텍스트 질문, 스토리 설명 등을 포함하여 GPT-3.5-Turbo의 800,000개 데이터로 훈련되었습니다. 대화와 코드를 켜십시오.
프로젝트에 따르면 M1은 Mac, Windows 및 기타 환경에서 실행될 수 있습니다.
먼저 효과부터 살펴볼까요? 아래 그림에 표시된 것처럼 사용자는 모델에게 "노트북에서 대규모 언어 모델을 실행할 수 있습니까?"라고 묻는 등 아무런 장벽 없이 GPT4All과 통신할 수 있습니다. GPT4All의 대답은 "예, 노트북을 사용하여 훈련하고 신경망 또는 다른 자연어(예: 영어 또는 중국어)에 대한 기계 학습 모델을 테스트합니다. 중요한 것은 이러한 모델의 크기를 수용할 수 있는 충분한 사용 가능한 메모리(RAM)가 필요하다는 것입니다..."
다음으로, 필요한 메모리 양을 정확히 알지 못하는 경우 GPT4All에 계속 문의하면 답변을 얻을 수도 있습니다. 결과로 볼 때 GPT4All의 여러 라운드 대화 수행 능력은 여전히 매우 강력합니다.
M1 Mac의 실시간 샘플링
어떤 사람들은 이 연구를 "게임 체인저"라고 부릅니다. GPT4All의 축복으로 이제 MacBook에서 로컬로 GPT를 실행할 수 있습니다.
Similar GPT-4에 GPT4All은 "기술 보고서"도 제공합니다.
기술 보고서 주소: https://s3.amazonaws.com/static.nomic.ai/gpt4all/2023_GPT4All_Technical_Report.pdf
이 예비 기술 보고서는 GPT4All의 구성 세부 사항을 간략하게 설명합니다. 연구원들은 공개 연구와 재현성을 촉진하기 위해 수집된 데이터, 데이터 랭글링 절차, 훈련 코드 및 최종 모델 가중치를 공개했습니다. 또한 모델의 양자화된 4비트 버전을 출시했습니다. 이는 거의 누구나 CPU에서 모델을 실행할 수 있음을 의미합니다.
다음으로, 이 보고서에는 어떤 내용이 적혀 있는지 살펴보겠습니다.
GPT4All 기술 보고서
1. 데이터 수집 및 정렬
연구원들은 2023년 3월 20일부터 2023년 3월 26일까지 GPT-3.5-Turbo OpenAI API를 사용하여 약 100만 쌍의 프롬프트 답변을 수집했습니다.
먼저 연구원들은 공개적으로 사용 가능한 세 가지 데이터 세트를 활용하여 다양한 질문/프롬프트 샘플을 수집했습니다.
- LAION OIG의 통합 Chip2 하위 집합
- Stackoverflow 질문 코딩 질문의 무작위 하위 샘플 세트
- 교육 튜닝을 위한 Bigscience/P3 하위 샘플 세트
Stanford University Alpaca 프로젝트(Taori et al., 2023) 참조, 연구원들은 상당한 비용을 지불함 데이터 준비 및 큐레이션에 주의를 기울입니다. 프롬프트에서 생성된 쌍의 초기 데이터세트를 수집한 후 데이터를 Atlas에 로드하여 정리하고 정리했으며, GPT-3.5-Turbo가 프롬프트에 응답하지 못하고 잘못된 형식의 출력을 생성한 샘플을 모두 제거했습니다. 이렇게 하면 총 샘플 수가 806199개의 고품질 프롬프트 생성 쌍으로 줄어듭니다. 다음으로, 출력 다양성이 매우 낮았기 때문에 최종 훈련 데이터 세트에서 전체 Bigscience/P3 하위 집합을 제거했습니다. P3에는 GPT-3.5-Turbo에서 짧고 균일한 응답을 생성하는 많은 균일한 프롬프트가 포함되어 있습니다.
이 제거 방법으로 그림 2에 표시된 대로 437,605개의 프롬프트 생성 쌍의 최종 하위 집합이 생성되었습니다.
모델 훈련
연구원들은 LLaMA 7B 인스턴스에서 여러 모델을 미세 조정했습니다(Touvron et al., 2023). 원래 공개 릴리스 관련 모델은 LoRA(Hu et al., 2021)를 통해 4개 에포크 동안 437,605개의 후처리 사례에 대해 학습되었습니다. 자세한 모델 하이퍼파라미터 및 학습 코드는 관련 리소스 라이브러리 및 모델 학습 로그에서 확인할 수 있습니다.
재현성
연구원들은 커뮤니티가 재현할 수 있도록 모든 데이터(미사용 P3 세대 포함), 학습 코드 및 모델 가중치를 공개했습니다. 관심 있는 연구자는 Git 저장소에서 최신 데이터, 교육 세부 정보 및 체크포인트를 찾을 수 있습니다.
비용
연구원들이 이러한 모델을 구축하는 데 약 4일이 걸렸으며 GPU 비용은 800달러(몇 가지 실패한 교육을 포함하여 Lambda Labs 및 Paperspace에서 임대)였으며 추가로 500달러의 OpenAI API 비용이 발생했습니다.
최종 출시 모델 gpt4all-lora는 총 $100의 비용으로 Lambda Labs의 DGX A100 8x 80GB에서 약 8시간 동안 학습할 수 있습니다.
이 모델은 일반 노트북에서도 구동이 가능하다는 네티즌의 말처럼 "전기세 외에는 비용이 들지 않습니다."
평가
연구원은 SelfInstruct 논문을 사용했습니다(Wang et al., 2022). 모델의 예비 평가는 인간 평가 데이터를 대상으로 수행되었습니다. 보고서는 또한 이 모델의 실제 난처함을 가장 잘 알려진 공개 알파카-로라 모델(huggingface 사용자 chainyo 제공)과 비교합니다. 그들은 모든 모델이 소수의 작업에 대해 매우 큰 혼란을 가지고 있음을 발견했으며 최대 100까지 보고했습니다. 이렇게 수집된 데이터 세트에 대해 미세 조정된 모델은 Alpaca에 비해 Self-Instruct 평가에서 낮은 복잡성을 보여주었습니다. 연구원들은 이 평가가 완전하지 않으며 추가 평가의 여지가 여전히 있다고 말합니다. 독자들이 로컬 CPU(Github에서 사용 가능한 문서)에서 모델을 실행하고 해당 기능에 대한 정성적인 감각을 얻는 것을 환영합니다.
마지막으로, 특히 정렬 및 해석 가능성 분야에서 공개 LLM 연구를 가속화하기 위해 저자가 데이터 및 교육 세부 정보를 게시했다는 점에 유의하는 것이 중요합니다. GPT4모든 모델 중량 및 데이터는 연구 목적으로만 사용되며 상업적 용도로 사용이 허가됩니다. GPT4All은 비상업적 라이선스를 보유한 LLaMA를 기반으로 합니다. 보조 데이터는 OpenAI와 상업적으로 경쟁하는 모델 개발을 금지하는 OpenAI의 GPT-3.5-Turbo에서 수집되었습니다.
위 내용은 노트북에서 실행할 수 있는 ChatGPT를 대체할 수 있는 기술 보고서가 첨부되어 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











2024CSRankings 전국 컴퓨터 공학 전공 순위가 방금 발표되었습니다! 올해 미국 최고의 CS 대학 순위에서는 카네기멜론대학교(CMU)가 CS 분야 전국 최고에 올랐고, 일리노이대학교 어바나-샴페인 캠퍼스(UIUC)가 1위를 차지했다. 6년 연속 2위를 기록했다. 조지아공대(Georgia Tech)가 3위를 차지했습니다. 이어 스탠퍼드대, 캘리포니아대 샌디에이고대, 미시간대, 워싱턴대가 공동 4위를 차지했다. MIT의 순위가 하락해 상위 5위권 밖으로 떨어졌다는 점은 주목할 만하다. CSRankings는 매사추세츠 대학교 Amherst 컴퓨터 및 정보 과학부의 Emery Berger 교수가 시작한 컴퓨터 과학 분야의 글로벌 대학 순위 프로젝트입니다. 순위는 객관적인 기준에 따라 결정됩니다.

Windows 원격 데스크톱 서비스를 사용하면 사용자가 원격으로 컴퓨터에 액세스할 수 있으므로 원격으로 작업해야 하는 사람들에게 매우 편리합니다. 그러나 사용자가 원격 컴퓨터에 연결할 수 없거나 원격 데스크톱이 컴퓨터의 ID를 인증할 수 없는 경우 문제가 발생할 수 있습니다. 이는 네트워크 연결 문제 또는 인증서 확인 실패로 인해 발생할 수 있습니다. 이 경우 사용자는 네트워크 연결을 확인하고 원격 컴퓨터가 온라인인지 확인한 후 다시 연결을 시도해야 할 수 있습니다. 또한 원격 컴퓨터의 인증 옵션이 올바르게 구성되었는지 확인하는 것이 문제 해결의 핵심입니다. Windows 원격 데스크톱 서비스와 관련된 이러한 문제는 일반적으로 설정을 주의 깊게 확인하고 조정하여 해결할 수 있습니다. 원격 데스크톱은 시간 또는 날짜 차이로 인해 원격 컴퓨터의 ID를 확인할 수 없습니다. 계산을 확실히 해주세요

봄 축제에 맞춰 Tongyi Qianwen Large Model(Qwen) 버전 1.5가 온라인에 출시되었습니다. 오늘 아침, 새 버전 소식이 AI 커뮤니티의 이목을 끌었습니다. 대형 모델의 새 버전에는 0.5B, 1.8B, 4B, 7B, 14B 및 72B의 6가지 모델 크기가 포함됩니다. 그 중 가장 강력한 버전의 성능은 GPT3.5와 Mistral-Medium을 능가합니다. 이 버전에는 기본 모델과 채팅 모델이 포함되어 있으며 다국어 지원을 제공합니다. Alibaba의 Tongyi Qianwen 팀은 관련 기술이 Tongyi Qianwen 공식 웹사이트와 Tongyi Qianwen 앱에도 출시되었다고 밝혔습니다. 또한 오늘의 Qwen 1.5 릴리스에는 다음과 같은 주요 기능이 있습니다. 32K 컨텍스트 길이를 지원하고 Base+Chat 모델의 체크포인트를 엽니다.

0. 이 글은 어떤 내용을 담고 있나요? 우리는 다재다능하고 빠른 최첨단 생성 단안 깊이 추정 모델인 DepthFM을 제안합니다. DepthFM은 전통적인 깊이 추정 작업 외에도 깊이 인페인팅과 같은 다운스트림 작업에서 최첨단 기능을 보여줍니다. DepthFM은 효율적이며 몇 가지 추론 단계 내에서 깊이 맵을 합성할 수 있습니다. 이 작품을 함께 읽어보아요~ 1. 논문 정보 제목: DepthFM: FastMoncularDepthEstimationwithFlowMatching 저자: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

현재 딥 에지 감지 네트워크는 일반적으로 다중 레벨 기능을 더 잘 추출하기 위해 업 및 다운 샘플링 모듈을 포함하는 인코더-디코더 아키텍처를 채택합니다. 그러나 이 구조는 정확하고 상세한 에지 감지 결과를 출력하기 위해 네트워크를 제한합니다. 이 문제에 대한 대응으로 AAAI2024에 대한 논문이 새로운 솔루션을 제공합니다. 논문 제목: DiffusionEdge:DiffusionProbabilisticModelforCrispEdgeDetection 저자: Ye Yunfan(국방기술대학교), Xu Kai(국립국방기술대학교), Huang Yuxing(국립국방기술대학교), Yi Renjiao(국립국방기술대학교), Cai Zhiping (국방기술대학교) 논문링크 : https://ar

LLM(대형 언어 모델)은 일반적으로 수십억 개의 매개변수를 가지며 수조 개의 토큰에 대해 훈련됩니다. 그러나 이러한 모델은 훈련하고 배포하는 데 비용이 매우 많이 듭니다. 계산 요구 사항을 줄이기 위해 다양한 모델 압축 기술이 종종 사용됩니다. 이러한 모델 압축 기술은 일반적으로 증류, 텐서 분해(낮은 순위 인수분해 포함), 가지치기 및 양자화의 네 가지 범주로 나눌 수 있습니다. 가지치기 방법은 한동안 사용되어 왔지만 성능을 유지하기 위해 가지치기 후 RFT(복구 미세 조정)가 필요한 경우가 많아 전체 프로세스에 비용이 많이 들고 확장이 어렵습니다. ETH Zurich와 Microsoft의 연구원들은 SliceGPT라는 이 문제에 대한 솔루션을 제안했습니다. 이 방법의 핵심 아이디어는 가중치 행렬에서 행과 열을 삭제하여 네트워크의 임베딩을 줄이는 것입니다.

컴퓨터를 사용할 때 운영체제가 오작동하는 경우가 가끔 있습니다. 오늘 제가 겪은 문제는 gpedit.msc에 액세스할 때 올바른 권한이 부족할 수 있기 때문에 그룹 정책 개체를 열 수 없다는 메시지가 시스템에 표시된다는 것입니다. 이 컴퓨터의 그룹 정책 개체를 열 수 없습니다. 해결 방법: 1. gpedit.msc에 액세스할 때 시스템은 권한 부족으로 인해 이 컴퓨터의 그룹 정책 개체를 열 수 없다는 메시지를 표시합니다. 세부 정보: 시스템이 지정된 경로를 찾을 수 없습니다. 2. 사용자가 닫기 버튼을 클릭하면 다음과 같은 오류 창이 나타납니다. 3. 로그 기록을 즉시 확인하고 기록된 정보를 결합하여 C:\Windows\System32\GroupPolicy\Machine\registry.pol 파일에 문제가 있는지 확인합니다.

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다
