AI 모델 제품군에 최근 추가된 Gemini 1.5 Flash-8B가 이제 일반 생산용으로 제공됩니다.
Google은 Google I/O에서 발표되었으며 현재 프로덕션 용도로 일반 공급되는 Gemini 1.5 Flash AI 모델의 더 작고 빠른 버전을 출시했습니다. Gemini 1.5 Flash-8B라고 하는 더 작은 모델은 빠른 속도와 매우 낮은 추론 지연 시간 덕분에 출력 생성에 더 효율적으로 설계되었습니다.
Google에 따르면 Flash-8B AI 모델은 Gemini 모델 중 지능당 비용이 가장 낮습니다. 이 회사는 이전에 Gemini 1.5 Flash AI 모델을 더 빠른 처리와 보다 효율적인 출력 생성을 목표로 하는 더 작은 Gemini 1.5 Flash-8B로 분류했습니다. 이제 Google은 이 작은 버전의 AI 모델이 Google DeepMind에서 몇 달 전에 개발되었음을 공개합니다.
크기가 더 작음에도 불구하고 거대 기술 기업은 새 모델이 간단한 채팅부터 전사 및 긴 상황에 맞는 언어 번역에 이르는 여러 벤치마크에서 1.5 Flash 모델과 거의 일치한다고 말합니다.
AI 모델의 가장 큰 장점은 비용 효율성입니다. Google은 Gemini 1.5 Flash-8B가 Gemini 제품군 중 토큰 가격이 가장 낮을 것이라고 밝혔습니다. 개발자에게는 출력 토큰 100만 개당 0.15달러(약 12.5루피), 입력 토큰 100만 개당 0.0375달러(약 3루피), 캐시된 프롬프트의 토큰 100만 개당 0.01달러(약 0.8루피)가 부과됩니다.
게다가 Google은 1.5 Flash-8B AI 모델의 속도 제한을 두 배로 늘리고 있습니다. 이제 개발자는 이 모델을 사용하는 동안 분당 최대 4,000개의 요청(RPM)을 보낼 수 있습니다. 거대 기술 기업에 따르면 이 모델은 단순하고 대용량 작업에 이상적입니다. 개발자는 Google AI Studio 및 Gemini API를 통해 무료로 모델을 시험해 볼 수 있습니다.
위 내용은 Gemini 1.5 Flash-8B AI 모델 이제 일반적으로 사용 가능의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!