AI대형 모델 기술은 고품질 생산성 개발을 촉진하는 핵심 원동력이 되고 있으며 수천 개의 산업과의 통합에서 중요한 역할을 하고 있습니다. Tencent의 Hunyuan 대형 모델은 하이브리드 전문가 모델 (MoE) 구조를 채택하여 모델을 수조 개의 매개변수 규모로 확장하여 "brain" 용량을 늘리는 동시에 예측 성능을 개선하고 홍보하는 데 드는 비용 추론이 감소합니다. 일반 모델로서 Tencent Hunyuan은 중국어 성능, 특히 텍스트 생성, 수학적 논리 및 다중 회전 대화 분야에서 업계를 선도하고 있습니다.
최근 Tencent Hunyuan Large Model은 256k긴 텍스트 모델을 공식 출시했으며, 이는 Tencent Cloud를 통해 대다수 기업과 개인 개발자에게 공개되어 광범위한 혁신과 애플리케이션을 지원합니다. Tencent Hunyuan 256k 모델 버전은 380000자를 초과하는 매우 긴 텍스트를 처리할 수 있습니다. 대화 응용 시나리오에서 이 모델은 " 기억 " 더 많은 대화 내용을 제공하여 " 잊어버리기 " 정보 및 기타 문제를 효과적으로 방지할 수 있습니다. 또한 뛰어난 상황별 분석 기능을 갖추고 있어 대화 참가자에게 더욱 정확하고 관련성이 높은 피드백을 제공하여 정보에 입각한 결정을 내릴 수 있도록 돕습니다.
또한, 이 모델 버전은 긴 문서의 독해와 대규모 데이터 분석에서도 강력한 성능을 보여줍니다. 금융, 의료, 교육, 여행 및 기타 산업 분야의 전문가에게 강력한 업무 지원을 제공하여 업무 효율성을 크게 향상시킬 수 있습니다. 또한 이 모델은 추론 성능 측면에서 심층적으로 최적화되어 사용자가 Tencent Cloud와 같은 플랫폼의 실제 애플리케이션에서 더 원활하고 효율적인 경험을 즐길 수 있도록 보장합니다.
"망각"을 줄이고 대형 모델을 더욱 스마트하게 만들기
대형 모델 제품에서는 대화 요구 사항을 처리하는 것이 핵심 기능입니다. 그러나 긴 텍스트 처리 기능의 한계로 인해 기존 대형 모델은 대화 중에 "방향 상실"하거나 "기억 누락"이 나타나는 경향이 있습니다. 대화량이 늘어나고, 잊어버린 정보의 양도 늘어납니다.
Tencent Hunyuan256k 모델은 이 챌린지에 특별히 최적화되었습니다. 그것은 고급 the "expert hybrid" (moe) 아키텍처를 채택하고 rope-ntk 및 flash주의 v2와 같은 혁신적인 기술을 통합합니다. 일반적인 짧은 텍스트(4,000자 미만)를 효율적으로 처리하는 동시에 긴 텍스트 처리의 깊이와 폭을 획기적으로 개선했습니다. 현재 Tencent Hunyuan의 대형 모델은 이미 256k
의 매우 긴 상황 이해 기능을 갖추고 있으며, 한 번에 처리되는 문자 수가38백만 개를 초과합니다." 건초 더미에서 바늘 찾기”작업 테스트 후 긴 텍스트 처리에서 모델의 정확도가 99.99%에 도달했으며 이는 국제적으로도 선두 위치에 있습니다. 지속적이고 안정적인 반복, 대형 모델 적용 효율성 향상
MoE ) 구조를 갖추고 있으며, 이 과정에서 자체 개발한 많은 기술을 축적해 왔습니다. 이전 버전인
32K에서 이 모델은 시중의 유사한 오픈 소스 모델을 크게 능가했으며 다양한 애플리케이션 시나리오에서 뛰어난 성능을 보여주었습니다. 새로운 반복 후 Tencent Hunyuan 256k일반 분야의
GSB평가에서 이전 버전과 비교하여 승률은 50.72%입니다. 동시에 Tencent Hunyuan 256k의 훈련 세트는 의료, 금융 분야 등 여러 분야의 긴 텍스트 데이터, 번역 데이터, 다중 문서 Q&A 등 주석이 달린 고품질 데이터를 통합하여 모델을 만듭니다. 특히, 대량의 장문 데이터를 빈번하게 분석하고 처리해야 하는 의료, 금융 산업 등 실무에 활용하면 더욱 정확하고 효율적인 업무 지원이 가능합니다. 예를 들어, 중앙 은행에서 발행한 재무 보고서가 Tencent Hunyuan 256k 모델에 입력되면 이 모델은 보고서의 핵심 사항을 빠르게 구체화하고 요약하여 인상적인 처리 속도와 정확성을 달성할 수 있습니다. 만족스러운 수준입니다.
추론 성능 최적화, 더 강력한 대형 모델 이해 기능 제공
동시에 Tencent Hunyuan 256k은 추론 성능을 심층적으로 최적화했습니다. INT8정밀도 모드에서는 FP16정밀도와 비교하여 모델의 QPM(초당 쿼리 속도)이 23.9%의 상당한 개선을 달성했습니다. 5.7% 증가했습니다. 이러한 개선 사항은 실제 응용 프로그램에서 모델의 반응성과 전반적인 효율성을 크게 향상시킵니다.
"삼국지연의" 분석을 예로 들어보겠습니다. Tencent Hunyuan 256k은 수십만 단어로 구성된 이 고전 소설을 빠르게 읽고 검색할 수 있으며 핵심을 정확하게 식별할 수 없습니다. 소설 속 인물과 사건, 날씨, 인물 복장 등에 대한 상세한 설명까지 포함하면 정확한 정보를 제공할 수 있습니다.
AI대형 모델은 새로운 생산성의 핵심 구성 요소로서 산업 업그레이드를 촉진하고 고품질 발전을 달성하는 데 중요한 역할을 합니다. Tencent Hunyuan 256k 모델의 출시는 전체 산업에 새로운 활력을 불어넣고 더 넓은 적용 가능성을 열었습니다.
현재 Tencent Hunyuan 256k장문 모델은 Tencent Cloud를 통해 대부분의 기업 및 개인 개발자에게 공개되었습니다. 사용자는 hunyuan-standardversion256k장문에 액세스할 수 있습니다. 모델입장. 이를 통해 더 많은 개발자와 사용자가 Tencent Hunyuan 모델의 강력한 기능에 쉽게 액세스하고 사용할 수 있게 되어 각계각층에 지능형 솔루션을 제공하고 보다 혁신적인 애플리케이션 시나리오의 실현을 촉진할 수 있습니다.
위 내용은 38만 단어 동시 입력 지원! Tencent Hunyuan은 Tencent Cloud를 통해 기업 및 개인 개발자에게 공개되는 256,000개의 긴 기사 모델을 출시합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!