알파카 패밀리의 대형 모델이 일괄 진화! 32k 컨텍스트는 Tian Yuandong 팀이 제작한 GPT-4와 동일합니다.
오픈소스 알파카 대형 모델 LLaMA 컨텍스트는 GPT-4와 동일하며 단 한 번의 간단한 변경만 가능합니다!
Meta AI가 방금 제출한 이 논문에서는 LLaMA 컨텍스트 창을 2k에서 32k로 확장한 후 1000단계 미만의 미세 조정 단계가 필요함을 보여줍니다.
사전 훈련에 비해 비용은 미미합니다.
컨텍스트 창을 확장한다는 것은 AI의 "작업 기억" 용량이 증가한다는 것을 의미합니다. 구체적으로 다음과 같은 일이 가능합니다.
- 보다 안정적인 역할극과 같이 더 많은 대화 라운드를 지원하고 망각을 줄입니다. 데이터는 더 긴 문서나 여러 문서를 한 번에 처리하는 등 더 복잡한 작업을 완료할 수 있습니다
- 더 중요한 의미는 LLaMA를 기반으로 하는 모든 대형 알파카 모델 제품군이 이 방법을 저렴한 비용으로 채택하고 집단적으로 발전할 수 있다는 것입니다.
Alpaca는 현재 가장 포괄적인 오픈 소스 기본 모델이며, 상업적으로 이용 가능한 많은 완전 오픈 소스 대형 모델과 수직 산업 모델을 파생했습니다.
논문의 교신저자인 Tian Yuandong도 이 새로운 발전을 친구들과 신나게 공유했습니다.
RoPE 기반의 모든 대형 모델 사용 가능
새로운 방법은 위치 보간(Position Interpolation)이라고 하며 RoPE(회전 위치 인코딩)를 사용하는 대형 모델에 적합합니다.
RoPE는 이르면 2021년 초 Zhuiyi Technology 팀에서 제안되었으며 현재 대형 모델의 가장 일반적인 위치 인코딩 방법 중 하나가 되었습니다.
그러나 이 아키텍처에서 컨텍스트 창을 확장하기 위해 외삽법을 직접 사용하면 self-attention 메커니즘이 완전히 파괴됩니다.
구체적으로, 사전 훈련된 컨텍스트의 길이를 벗어나는 부분은 모델 당혹감을 훈련되지 않은 모델과 같은 수준으로 치솟게 만듭니다.
위치 지수를 선형적으로 줄이고 전후 위치 지수와 상대 거리의 범위 정렬을 확장하는 방식으로 새로운 방식이 변경되었습니다.
둘의 차이를 표현하려면 그림을 사용하는 것이 더 직관적입니다.
실험 결과, 새로운 방식은 7B부터 65B까지의 LLaMA 대형 모델에 효과적인 것으로 나타났습니다.
Long Sequence Language Modeling, Passkey Retrieval, Long Document Summarization에서는 성능이 크게 저하되지 않습니다.
실험 외에도 새로운 방법에 대한 자세한 증명도 논문의 부록에 나와 있습니다.
Three More Thing
컨텍스트 창은 오픈 소스 대형 모델과 상업용 대형 모델 사이의 중요한 간격이었습니다.
예를 들어 OpenAI의 GPT-3.5는 최대 16k를 지원하고 GPT-4는 32k를 지원하며 AnthropicAI의 Claude는 최대 100k를 지원합니다.
동시에 LLaMA, Falcon 등 많은 오픈소스 대형 모델이 여전히 2k에 머물고 있습니다.
이제 Meta AI의 새로운 결과는 이러한 격차를 직접적으로 해소했습니다.
컨텍스트 창을 확장하는 것도 최근 대형 모델 연구의 초점 중 하나입니다. 위치 보간 방법 외에도 업계의 관심을 끌기 위한 많은 시도가 있습니다.
1. 개발자 kaiokendev는 기술 블로그에서 LLaMa 컨텍스트 창을 8k로 확장하는 방법을 탐색했습니다.
2. 데이터 보안 회사 Soveren의 기계 학습 책임자인 Galina Alperovich는 기사에서 컨텍스트 창을 확장하기 위한 6가지 팁을 요약했습니다.
3. Mila, IBM 및 기타 기관의 팀도 논문에서 Transformer의 위치 인코딩을 완전히 제거하려고 시도했습니다.伴 필요하신 분들은 아래 링크를 클릭하시면 보실 수 있어요~
메타 논문: Https://www.php.cn/link/0BDF2C1F05365071F0C725D754B96
ht TPS:/ /www.php.cn/link/9659078925b57e621eb3f9ef19773ac3
LLM의 100K 컨텍스트 창 뒤에 숨겨진 비밀 소스https://www.php.cn/link/09a630e07af043e4cae879dd60db1cac
None 위치 코딩 페이퍼https:/ /www.php.cn/link/fb6c84779f12283a81d739d8f088fc12
위 내용은 알파카 패밀리의 대형 모델이 일괄 진화! 32k 컨텍스트는 Tian Yuandong 팀이 제작한 GPT-4와 동일합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제









5월 30일, Tencent는 Hunyuan 모델의 포괄적인 업그레이드를 발표했습니다. Hunyuan 모델을 기반으로 하는 앱 "Tencent Yuanbao"가 공식 출시되었으며 Apple 및 Android 앱 스토어에서 다운로드할 수 있습니다. 이전 테스트 단계의 Hunyuan 애플릿 버전과 비교하여 Tencent Yuanbao는 일상 생활 시나리오를 위한 작업 효율성 시나리오를 위한 AI 검색, AI 요약 및 AI 작성과 같은 핵심 기능을 제공하며 Yuanbao의 게임 플레이도 더욱 풍부해지고 다양한 기능을 제공합니다. , 개인 에이전트 생성과 같은 새로운 게임 플레이 방법이 추가됩니다. Tencent Cloud 부사장이자 Tencent Hunyuan 대형 모델 책임자인 Liu Yuhong은 "Tencent는 먼저 대형 모델을 만들기 위해 노력하지 않을 것입니다."라고 말했습니다. Tencent Hunyuan 대형 모델 비즈니스 시나리오에서 풍부하고 방대한 폴란드 기술을 활용하면서 사용자의 실제 요구 사항에 대한 통찰력을 얻습니다.

Volcano Engine의 Tan Dai 사장은 대형 모델을 구현하려는 기업은 모델 효율성, 추론 비용, 구현 어려움이라는 세 가지 주요 과제에 직면하게 된다고 말했습니다. 복잡한 문제를 해결하기 위한 지원으로 좋은 기본 대형 모델이 있어야 하며, 서비스를 통해 대규모 모델을 널리 사용할 수 있으며 기업이 시나리오를 구현하는 데 더 많은 도구, 플랫폼 및 애플리케이션이 필요합니다. ——Tan Dai, Huoshan Engine 01 사장. 대형 빈백 모델이 출시되어 많이 사용되고 있습니다. 모델 효과를 연마하는 것은 AI 구현에 있어 가장 중요한 과제입니다. Tan Dai는 좋은 모델은 많은 양의 사용을 통해서만 연마될 수 있다고 지적했습니다. 현재 Doubao 모델은 매일 1,200억 개의 텍스트 토큰을 처리하고 3,000만 개의 이미지를 생성합니다. 기업이 대규모 모델 시나리오를 구현하는 데 도움을 주기 위해 ByteDance가 독자적으로 개발한 beanbao 대규모 모델이 화산을 통해 출시됩니다.

1. TensorRT-LLM의 제품 포지셔닝 TensorRT-LLM은 NVIDIA에서 LLM(대형 언어 모델)을 위해 개발한 확장 가능한 추론 솔루션입니다. TensorRT 딥 러닝 컴파일 프레임워크를 기반으로 계산 그래프를 구축, 컴파일 및 실행하고 FastTransformer의 효율적인 커널 구현을 활용합니다. 또한 장치 간 통신에는 NCCL을 활용합니다. 개발자는 커틀라스를 기반으로 한 맞춤형 GEMM을 개발하는 등 기술 개발 및 수요 차이를 기반으로 특정 요구 사항을 충족하도록 운영자를 맞춤화할 수 있습니다. TensorRT-LLM은 고성능을 제공하고 실용성을 지속적으로 개선하기 위해 노력하는 NVIDIA의 공식 추론 솔루션입니다. 텐서RT-LL

4월 4일 뉴스에 따르면 중국 사이버공간국은 최근 등록된 대형 모델 목록을 공개했는데, 여기에 차이나 모바일의 'Jiutian Natural Language Interaction Large Model'이 포함돼 있어 차이나 모바일의 Jiutian AI 대형 모델이 공식적으로 생성 인공 지능을 제공할 수 있음을 알렸다. 외부 세계에 대한 정보 서비스. 차이나 모바일은 이 모델이 중앙 기업이 개발한 최초의 대규모 모델로 국가 '생성 인공 지능 서비스 등록'과 '국내 심층 합성 서비스 알고리즘 등록' 이중 등록을 모두 통과했다고 밝혔습니다. 보고서에 따르면 Jiutian의 자연어 상호 작용 대형 모델은 향상된 산업 역량, 보안 및 신뢰성을 갖추고 있으며 풀 스택 현지화를 지원하며 90억, 139억, 570억, 1000억 등 다양한 매개변수 버전을 형성했습니다. 클라우드에 유연하게 배포할 수 있으며 엣지와 엔드는 상황이 다릅니다.

시험 문제가 너무 단순하면 상위권 학생과 하위 학생 모두 90점을 받을 수 있어 격차가 더 벌어질 수 없다… 클로드3, 라마3, 심지어 GPT-5 등 더욱 강력한 모델이 출시되면서 업계는 보다 어렵고 차별화된 모델 벤치마크가 시급히 필요합니다. 대형 모델 아레나를 운영하는 조직인 LMSYS가 차세대 벤치마크인 Arena-Hard를 출시해 큰 관심을 끌었습니다. Llama3 명령의 두 가지 미세 조정 버전의 강점에 대한 최신 참조도 있습니다. 이전에 비슷한 점수를 받았던 MTBench와 비교하면 Arena-Hard 판별력이 22.6%에서 87.4%로 증가해 한눈에 봐도 강하고 약해졌습니다. Arena-Hard는 경기장의 실시간 인간 데이터를 사용하여 구축되었으며 인간 선호도와 89.1%의 일치율을 가지고 있습니다.

"높은 복잡성, 높은 단편화 및 교차 도메인"은 항상 운송 산업의 디지털 및 지능적 업그레이드로 가는 길의 주요 문제점이었습니다. 최근에는 China Vision, Xi'an Yanta District Government, Xi'an Future Artificial Intelligence Computing Center가 공동으로 구축한 매개변수 규모 1,000억 규모의 '친링·친추안 교통 모델'이 스마트 교통 및 스마트 교통 분야를 지향하고 있습니다. 시안과 그 주변 지역에 서비스를 제공하여 스마트 교통 혁신의 거점을 만들 것입니다. '친링·친추안 교통 모델'은 개방형 시나리오의 시안의 대규모 지역 교통 생태 데이터, China Vision이 독자적으로 개발한 독창적인 고급 알고리즘, 시안 미래 인공 지능 컴퓨팅 센터의 Shengteng AI의 강력한 컴퓨팅 성능을 결합하여 도로를 제공합니다. 네트워크 모니터링, 비상 명령, 유지 관리, 대중 교통 등 스마트 교통 시나리오는 디지털 및 지능적 변화를 가져옵니다. 교통 관리는 도시마다 특성이 다르며 도로 교통도 다릅니다.

1. 배경 소개 먼저 Yunwen Technology의 발전 역사를 소개하겠습니다. Yunwen Technology Company...2023년은 대형 모델이 유행하는 시기입니다. 많은 기업에서는 대형 모델 이후 그래프의 중요성이 크게 감소했으며 이전에 연구된 사전 설정 정보 시스템이 더 이상 중요하지 않다고 생각합니다. 그러나 RAG의 홍보와 데이터 거버넌스의 확산으로 우리는 보다 효율적인 데이터 거버넌스와 고품질 데이터가 민영화된 대형 모델의 효율성을 향상시키는 중요한 전제 조건이라는 것을 알게 되었습니다. 따라서 점점 더 많은 기업이 주목하기 시작했습니다. 지식 구축 관련 콘텐츠에 이는 또한 탐구할 수 있는 많은 기술과 방법이 있는 더 높은 수준으로 지식의 구성 및 처리를 촉진합니다. 신기술의 출현이 기존 기술을 모두 패배시키는 것이 아니라, 신기술과 기존 기술을 통합할 수도 있음을 알 수 있습니다.

6월 13일 뉴스에 따르면 Byte의 'Volcano Engine' 공개 계정에 따르면 Xiaomi의 인공 지능 비서인 'Xiao Ai'가 Volcano Engine과 협력을 이루었습니다. 두 당사자는 beanbao 대형 모델을 기반으로 보다 지능적인 AI 상호 작용 경험을 달성할 것입니다. . ByteDance가 만든 대형 빈바오 모델은 매일 최대 1,200억 개의 텍스트 토큰을 효율적으로 처리하고 3,000만 개의 콘텐츠를 생성할 수 있는 것으로 알려졌습니다. Xiaomi는 Doubao 대형 모델을 사용하여 자체 모델의 학습 및 추론 능력을 향상시키고 사용자 요구를 보다 정확하게 파악할 뿐만 아니라 보다 빠른 응답 속도와 보다 포괄적인 콘텐츠 서비스를 제공하는 새로운 "Xiao Ai Classmate"를 만들었습니다. 예를 들어, 사용자가 복잡한 과학 개념에 대해 질문하면 &ldq
