3년 동안 16개의 기사, 전 구글 연구 과학자 Yi Tay가 Gemini Pro에 필적하는 새로운 모델인 21B, GPT-3.5를 공식 발표했습니다.

王林
풀어 주다: 2024-02-15 18:45:28
앞으로
1061명이 탐색했습니다.
팀의 새로운 모델은 여러 벤치마크에서 Gemini Pro 및 GPT-3.5와 비슷합니다.

대형 AI 모델에 대한 논문을 자주 읽는다면 이태이는 친숙한 이름일 것입니다. Google Brain의 전 수석 연구 과학자인 Yi Tay는 PaLM, UL2, Flan-U-PaLM, LaMDA/Bard, ViT-22B, PaLI를 포함하여 잘 알려진 많은 대규모 언어 모델 및 다중 모드 모델에 기여했습니다. , 엄마 등.

Yi Tay의 프로필 통계에 따르면, 그는 Google Brain에서 3년 넘게 근무하면서 총 45편 정도의 논문 집필에 참여했으며 그 중 16편의 공동 저자입니다. 저자 논문에는 UL2, U-PaLM, DSI, Synthesizer, Charformer 및 Long Range Arena 등이 포함됩니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
자신의 사업을 시작하기 위해 Google을 떠난 대부분의 Transformer 작가들과 마찬가지로 Yi Tay는 작년 3월 Google 퇴사를 발표하고 Reka라는 회사를 공동 창립했으며 회사의 수석 과학자로 활동하고 있습니다. -규모 언어 모델.

시간이 지남에 따라 Yi Tay는 새로운 모델을 출시했다고 방금 발표했습니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
"SOTA 성능을 갖춘 새로운 21B 멀티 모드인 Reka Flash를 여러분과 공유하게 되어 기쁩니다. 역동적인 모델 이는 언어 및 시각적 벤치마크에서 Gemini Pro 및 GPT 3.5와 비슷합니다. 상대적으로 제한된 리소스로 이 모델을 처음부터 훈련했습니다... 한편, 가장 크고 강력한 모델인 Reka-Core도 곧 완성될 예정입니다. "

Reka Flash: 효율적인 다중 모달 언어 모델

Reka Flash의 매개변수 크기는 21B이며 완전히 처음부터 시작됩니다. 훈련 성능은 더 큰 것과 비슷합니다. 모델이며 Reka Flash는 수많은 언어 및 비전 벤치마크에서 Gemini Pro 및 GPT-3.5와 경쟁적입니다.

또한 Reka 팀은 매개변수가 7B에 불과하고 더 효율적이어서 리소스 제약 조건(예: 장치에서 로컬에서도 실행) 시나리오.

이 두 모델은 공개 테스트 단계에 있으며 관심 있는 독자들은 가서 시험해 볼 수 있다는 점을 언급할 가치가 있습니다.

평가판 주소: https://chat.reka.ai/auth/login

동시에 Reka 팀은 가장 크고 강력한 Reka Core 모델을 대중에게 공개할 것이라고 발표했습니다. 앞으로 몇 주 안에 출시될 예정입니다.

오픈소스 문제에 대해서는 아직 검토 중이라고 팀에서 밝혔습니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
평가: 언어 ​​

평가 벤치마크에는 MMLU(지식 기반 질문 답변), GSM8K(추론 및 수학), HumanEval(코드 생성) 및 GPQA(Google 인증 대학원 수준)가 포함됩니다. 질문 답변) .

결과에 따르면 Reka Flash는 MMLU 및 GPQA에서 Gemini Pro를 능가하고 GSM8K 및 HumanEval에서 경쟁력 있는 결과를 달성하는 등 벤치마크에서 매우 좋은 결과를 얻었습니다. 또한 이러한 평가에서 Reka Flash는 많은 대형 모델(예: Llama 2 70B, Grok-1, GPT-3.5)보다 훨씬 뛰어난 성능을 발휘합니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
평가: 다국어 추론

Reka 32개 이상의 언어로 제공되는 플래시 텍스트(영어, 독일어, 중국어, 일본어, 프랑스어, 한국어, 스페인어, 이탈리아어, 아랍어 등 포함) Reka Flash에서는 Reka Flash가 강력한 다중 언어 모델로 간주될 수 있습니다. 연구원들은 다국어 상식 추론, 인과 추론, 질문 답변을 포함한 다국어 벤치마크에서 다양한 모델의 성능을 비교했습니다. 결과에 따르면 Reka Flash는 이러한 모든 작업에서 Llama-2 70B 및 Mixtral보다 성능이 뛰어납니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
평가: 비전 및 비디오

또한 이 연구에서는 시각적 질문 답변(MMMU, VQA-v2), 비디오 자막(VATEX) 및 영상 질문과 답변(인식 테스트). 결과는 Reka Flash가 네 가지 벤치마크 모두에서 Gemini Pro와 경쟁력이 있음을 보여줍니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
이 연구에서는 Reka Flash 기반 채팅 모델을 평가하기 위해 일련의 인간 평가도 수행했습니다. 연구원들은 1) 텍스트 전용 채팅 모델과 2) 다중 모드 채팅 모델이라는 두 가지 설정을 고려했습니다. 평가 과정에서 Askell et al.의 방법에 따라 ELO 점수와 전체 승률을 계산했습니다.

일반 텍스트 채팅: 연구원들은 GPT-4, Claude 2.1 및 Gemini Pro(API 버전)와 같은 주요 모델을 벤치마킹했습니다. 또한 연구원들은 Reka Edge, Mistral 7B 및 Llama 2 7B 채팅 모델의 성능도 비교했습니다.

인간 평가 결과 Reka Flash는 GPT-3.5 Turbo, Claude, Mixtral 및 Gemini Pro를 능가하는 경쟁력 있는 결과를 달성한 것으로 나타났습니다. Reka Edge는 다른 두 7B 모델보다 앞서 Claude Instant 1.2의 성능에 접근합니다. 🎙 비교해보세요. 결과는 Reka Flash가 GPT4-V를 제외한 모든 모델보다 성능이 우수하다는 것을 보여줍니다. Reka Edge도 Mistral 7B 기반 Llava 1.6 7B를 제치고 Gemini Pro의 성능에 근접하는 등 좋은 순위를 달성했습니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
7B 매개변수가 포함된 Reka Edge 모델

Reka Edge는 온프레미스 배포 및 대기 시간에 민감한 애플리케이션을 위해 설계된 보다 컴팩트한 7B 모델입니다. 언어 평가 작업에서 이 연구는 비슷한 크기의 모델(예: Mistral 7B 및 Llama-2 7B)과의 비교를 보고합니다. 결과에 따르면 Reka Edge는 표준 언어 벤치마크에서 Llama 2 7B 및 Mistral 7B보다 성능이 뛰어납니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
요약

Reka 팀은 가장 진보된 다중 모달 언어 모델을 구축하는 것을 목표로 하고 있으며 Reka Flash 및 Reka Edge의 출시로 AI 로드맵의 초기 이정표는 다음과 같습니다. 달성. 누구나 다음 연구를 기대할 수 있습니다.
三年16篇一作,前谷歌研究科学家Yi Tay官宣新模型,21B媲美Gemini Pro、GPT-3.5
참조 링크: https://reka.ai/reka-flash-an-efficient-and-capable-multimodal-언어-model/

위 내용은 3년 동안 16개의 기사, 전 구글 연구 과학자 Yi Tay가 Gemini Pro에 필적하는 새로운 모델인 21B, GPT-3.5를 공식 발표했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:jiqizhixin.com
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
최신 이슈
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿
회사 소개 부인 성명 Sitemap
PHP 중국어 웹사이트:공공복지 온라인 PHP 교육,PHP 학습자의 빠른 성장을 도와주세요!