가장 진보 된 추론 LLM의 레이스는 가열되고 있으며, 경쟁은 그 어느 때보 다 치열합니다. DeepSeek은 DeepSeek R1으로 시작한 다음 OpenAi의 O3-Mini로 시작했으며 이제 Google은 Gemini 2.0 Flash, Flash Lite, Pro 및 두 가지 실험 모델 (플래시 2.0 사고 및 앱으로 사고)으로 입력했습니다. 플래시 모델이 이미 공개 테스트에 참여하고 있지만 실험적인 모델은 O3-MINI 및 DeepSeek-R1에 도전하는 추론 및 앱 통합을 재정의 할 수 있습니다. 이 블로그에서는이 새로운 모델, 고유 한 기능 및 경쟁 우위에 뛰어들 것입니다. 다이빙을하자!
목차
gemini 2.0? gemini 2.0 플래시 -
gemini 2.0 Flash Lite - gemini 2.0 Flash Lite
- gemini 2.0 pro에 액세스하는 방법 실험적
gemini 2.0 플래시 사고 실험 실험 -
gemini 2.0 apps
gemini 2.0 모델 : 벤치 마크 비교 - gemini 2.0 모델 : 특징 비교
-
gemini 2.0은 무엇입니까? -
Gemini 2.0은 Google의 최신 멀티 모드 모델의 우산입니다. 이러한 모델은 Google에 의해 개발되었으며, 대기 시간이 낮고 성능이 향상된 매우 효율적인 워크 호스 모델에 대한 에이전트 시대의 요구를 유지합니다. Gemini 2.0 시리즈에서 다음 모델이 지금까지 출시되었습니다.
gemini 2.0 플래시
gemini 2.0 플래시 라이트
gemini 2.0 Pro 실험
Google은 이러한 강력한 모델과 함께 현재 실험 단계에있는 두 가지 다른 모델을 비밀리에 출시했습니다. 두 모델은 다음과 같습니다
-
gemini 2.0 플래시 사고 실험
gemini 2.0 앱 로 실험적인 플래시 사고
-
이러한 실험 모델은 모든 AI 회사에서 가장 흥미로운 모델입니다. 복잡한 추론과 논리적 사고를 제공 할뿐만 아니라 YouTube, Maps 및 Search와 같은 Google에서 가장 많이 사용되는 앱과도 협력합니다.
그래서 Google의 최신 릴리스 각각을 하나씩 살펴 보겠습니다.
gemini 2.0 플래시
플래시 모델은 대량의 고주파수 작업을 위해 설계되어 속도 및 효율성 우선 순위를 정합니다. Gemini 2.0 Flash는 이제 모든 사람이 공개적으로 사용할 수 있으므로 생산 응용 프로그램에 적합합니다. 이 모델의 주요 기능은 다음과 같습니다
그것은 무거운 작업을 처리하고 백만 개의 토큰의 거대한 맥락 창으로 멀티 모달 추론을 수행 할 수 있습니다.
Gemini 앱과 Google AI Studio 및 Vertex AI의 Gemini API를 통해 액세스 할 수 있습니다.
이 모델은 OpenAi의 GPT-4O, DeepSeek의 V3 및 Qwen-2.5와 비슷합니다.
-
가용성 : 이 모델은 현재 Gemini 앱의 Gemini Advanced Subscribers에서만 사용할 수 있으며 Google AI Studio에서는 모두 무료로 사용할 수 있습니다. 따라서 유료 Gemini 계정 (무료 1 개월 평가판과 함께 제공)이 없다면 Google AI Studio에서 시도해 볼 수 있습니다. .
이제 쌍둥이 자리 앱에서 테스트 해 봅시다
프롬프트 : “https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/에서 기사를 읽어 Wikipedia 데이터를위한 벡터 데이터베이스 생성 과정을 이해합니다. 그런 다음 주요 단계에 대한 간결한 요약을 제공하십시오
응답 :
-
검토 : -
모델은 웹 링크를 읽는 데 좋습니다. 명확한 요약을 생성 한 다음 블로그에서 다루는 광범위한 단계를 나열합니다. 따라서 Gemini Flash 2.0은 쿼리를 해결하기 위해 인터넷에 액세스 할 수있는 빠르고 효율적인 모델로 입증됩니다. 일상적인 콘텐츠 관련 작업과 이미지 분석 및 생성에도 좋습니다.
gemini 2.0 플래시 라이트
Flash Lite 모델은 비용 효율성을 염두에두고 설계되었습니다. 전임자 인 1.5 플래시를 기반으로 품질이 눈에 띄게 향상되어 동일한 인상적인 속도와 경제성을 유지합니다. 다음은 하이라이트 중 일부입니다 :
2.0 Flash Lite는 성능과 예산 사이의 균형을 찾는 개발자에게 탁월한 선택입니다.
이 모델은 백만 개의 토큰 컨텍스트 창을 자랑하고 멀티 모달 입력을 지원하여 광범위한 작업을 처리 할 수 있습니다.
는 현재 공개 미리보기에 있으며 Google AI Studio 및 Vertex AI의 Gemini API를 통해 액세스 할 수 있습니다. 이를 통해 개발자는 플래시 라이트를 워크 플로에 실험하고 통합 할 수 있습니다.
가용성 : Gemini 2.0 Flash Lite는 Google AI Studio에서 무료로 제공됩니다. Vertex AI에서도 사용할 수 있지만 아직 Gemini 앱에서는 사용할 수 없습니다.
gemini 2.0 플래시 라이트에 액세스하는 방법
Gemini 2.0 Flash Lite를 Google AI Studio에서 사용하려면 다음을 수행해야합니다.
웹 페이지에 가입하십시오.
일단 완료되면 왼쪽 패널에서 "프롬프트 작성"을 클릭하십시오.
"모델"섹션에서 오른쪽 패널에서 "Gemini 2.0 Flash Lite 02-05"를 선택하십시오.
테스트 해 봅시다.
프롬프트 : “ 간단한 단어로 다음 이미지를 설명하십시오.”
응답 :
“이 이미지는 AI 에이전트가“세계”및 사용자와 상호 작용하는 AI 에이전트를 보여줍니다. 고장은 다음과 같습니다
World :
이것은 인터넷, 운영 체제, API 서버, 하드웨어 및 물리적 세계를 포함하여 AI가 운영하는 환경을 나타냅니다.
AI 에이전트 : 중앙 상자는 AI 에이전트를 나타내며 사용자로부터 입력을 받고 세계와 상호 작용합니다. 여러 부분으로 구성되어 있습니다
-
사용자 : 사람들은 AI와 상호 작용합니다. 그들은 ai에 입력을 제공합니다
llm (대형 언어 모델) :
- AI의 뇌. 정보를 받고 처리하며 결정을 내립니다
도구 : 도구 : 이 부분은 AI가 세계와 상호 작용하는 데 사용할 수있는 다양한 도구 (웹 사이트 API, 애플리케이션, 쉘, 데이터베이스 등)
메모리 :
AI의 메모리 (RAM, SQL 데이터베이스 및 Vectordbs의 데이터와 같은 데이터와 같은 정보를 저장하고 검색하는 AI의 메모리.
- 액션 : AI의 액션 테이킹 모듈은 AI가 LLM에 의해 생성 된 지침을 실행하게합니다.
작동 방식 :
- 사용자 ai에 입력
llm
- 이 입력을 처리합니다
llm 메모리
- 및 도구를 사용합니다 액션
-
도구 외부에서 행동하는
월드 - 그러면 llm 피드백을 받으면이 업데이트됩니다.
- 메모리
이 과정이 반복됩니다.”
-
검토 :
응답은 이미지에 대한 작은 소개로 시작됩니다. 그런 다음 이미지의 각 부분을 설명하고 모든 개별 요소를 분해합니다. 마지막으로, 이미지의 모든 구성 요소가 어떻게 작동하는지 간단히 설명합니다. 이 모델은 빠르게 작동합니다! 이미지를 간단한 설명으로 분석하고 나누는 것이 빠릅니다. 고객 쿼리 해상도 또는 Q/A 세션을위한 챗봇 구축 및 인터뷰 준비와 같은 속도가 필요한 작업의 경우; Gemini 2.0 Flash Lite가 이상적입니다.
gemini 2.0 Pro 실험
Gemini 2.0 Pro 실험은 기능에 관한 Gemini 가족의 정점을 나타냅니다. 가장 복잡한 작업, 특히 코딩과 관련된 작업을 해결하도록 설계되었습니다. 다음은 Gemini 2.0 Pro의 실험 버전에 대한 몇 가지 요점입니다.
이 최신 모델은 2 백만 개의 토큰 컨텍스트 창을 가지고있어 방대한 양의 정보를 처리하고 이해할 수 있습니다.
는 Google 검색과 같은 도구를 호출하고 코드를 직접 실행할 수있는 고유 한 기능을 가지고있어 문제 해결 잠재력을 크게 확장합니다.
현재 실험 단계에서 Gemini 2.0 Pro Experimental은 더 넓은 방출 전에 세련되고 테스트되고 있습니다.
-
가용성 : 이 모델도 Gemini 앱에서 Gemini 고급 사용자에게만 사용할 수 있습니다. 한편 사용자는 Google AI Studio 및 Vertex AI에서 무료로 액세스 할 수 있습니다. 따라서 유료 Gemini 계정 (무료 1 개월 평가판을 제공하는)이 없다면 Google AI Studio에서 시도해 볼 수 있습니다.
자세히 알아보기 : Google Gemini 2.0 Pro Experimental Openai O3-Mini보다 더 나은?
이 모델의 수행 방식을 살펴 보겠습니다
프롬프트 : -
“이 퍼즐을 풀고 솔루션으로 구성된 테이블을 줘.” - >
이 퍼즐은 다음 웹 사이트에서 공급되었습니다.
응답 :
웹 사이트 에이 값을 배치 :
검토 :
이 모델은 솔루션을 설명하고 프롬프트대로 솔루션 테이블로 이어집니다. 주어진 정보에 따라 올바른 응답을 생성했지만 두 곳에서는 색상과 통화의 잘못된 값이 잘못되었다고 가정했습니다. 그러나 그 값은 전체 응답에서는 중요하지 않기 때문에 최종 결과는 영향을받지 않습니다. 말할 것도없이, Gemini 2.0 Pro Experimental은 강력한 추론과 속도와 정확성을 결합합니다.
gemini 2.0 플래시 사고 실험
플래시 사고 실험 모델은 Gemini 2.0 플래시의 속도와 효율성을 강화 된 추론 능력과 결합하는 흥미로운 개발입니다. 이를 통해 정보를 신속하게 처리 할뿐만 아니라 복잡한 문제에 논리적 사고를 적용 할 수 있습니다.
현재이 모델은 Gemini 앱 사용자가 사용할 수 있으며 일부 사용자는 고급 기능에 대한 조기에만 액세스 할 수 있습니다.
실험 모델로서 여전히 개발 중이지만 문제를보다 효과적으로 추론하고 해결할 수있는 LLM의 미래를 향한다.
가용성 : Gemini 2.0 플래시 모델은 유료 버전에서만 사용할 수 있습니다 - Gemini Advanced, Gemini 앱에서. 그러나 Google AI Studio에서는 무료로 제공됩니다. 따라서 유료 Gemini 계정 (1 개월 무료 평가판을 제공)이 없으면 Google AI Studio에서 시도해 볼 수 있습니다.
.
이제이 모델이 무엇을 할 수 있는지 봅시다. 프롬프트 :
“당신은 방으로 들어가 침대를 본다. 침대에는 두 마리의 개, 고양이 4 마리, 기린, 5 마리의 젖소, 오리가 있습니다. 의자와 테이블도 있습니다. 바닥에 몇 개의 다리가 있습니까?”
응답 :
“ 이것을 분해합시다 :
침대에있는 것들 : 개, 고양이, 기린, 젖소, 오리. 이 동물들은 침대에 있으므로 다리가 바닥에 있지 않습니다.
방 안에있는 물건 (그리고 달리 명시되지 않는 한 바닥에있을 가능성) :
의자 : 의자에는 다리가 있으며 일반적으로 바닥에 있습니다. 각 의자에는 다리 4 개가 있고 의자 3 개가 있습니다.
테이블 : 테이블에는 다리가 있으며 일반적으로 바닥에 있습니다. 테이블에는 일반적으로 다리가 4 개이며 테이블 1 개가 있습니다.
당신 : 당신은 방으로 들어갔다. 아마도, 당신은 서 있거나 걷고 있고 다리가 바닥에 있습니다. 다리 2 개가 있습니다.
바닥에 다리를 세 봅시다 : -
의자 : 의자 3 개의 의자 * 4 다리/의자 = 12 다리
테이블 : 1 표 * 4 다리/테이블 = 4 다리 -
당신 : 1 사람 * 2 다리/사람 = 2 다리
- 바닥의 총 다리 : 12 4 2 = 18 다리
그러므로 바닥에는 18 개의 다리가 있습니다.
“
검토 : -
이 질문에 대한 정답은 22 개의 의자 12 개의 다리, 테이블 4 개의 다리, 침대 4 개, 다리 2 개가 포함되어 있습니다. Gemini 2.0 플래시 실험적 사고 모델은 개별 다리 (대부분의 LLM이 놓친 것)를 설명하는 훌륭한 사고를 보여줍니다. 그러나 침대의 다리에서 계산하는 것을 잊었습니다. 따라서 훌륭하지만 논리적 추론에서 모델이 더 좋을 수 있습니다.
gemini 2.0 앱 로 실험적인 플래시 사고
플래시 사고 실험 모델을 바탕으로 앱 버전을 사용한 플래시 사고 실험은 상호 작용의 중요한 계층을 추가합니다 : 외부 응용 프로그램과 상호 작용하는 능력. 다음은 강력한 모델을 만드는 이유는 다음과 같습니다
외부 앱과의 통합은 모델을 이유뿐만 아니라 다른 앱 내에서 작업을 수행 할 수있게 해줍니다. 이것은 복잡한 워크 플로의 자동화를위한 가능성의 세계를 열어줍니다.
이 모델은 LLM이 디지털 생활에 깊이 통합 될 수있는 잠재력을 보여 주며 매일 사용하는 도구와 완벽하게 상호 작용합니다.
-
가용성 : Gemini 2.0 플래시는 유료 버전에서만 사용할 수 있습니다 - Gemini Advanced. 한편 Google AI 스튜디오에서는 무료로 제공됩니다. 따라서 유료 Gemini 계정 (무료 1 개월 평가판과 함께 제공)이 없다면 Google AI Studio에서 시도해 볼 수 있습니다. .
그래서 테스트 해 봅시다. 프롬프트 :
“내 집에서 뉴 델리 기차역으로 가져갈 수있는 모든 가능한 도로 경로에 대해 알려주세요. 현재 여기에 있습니다 : https://maps.app.goo.gl/xciqxpugasxtxytk8”
응답 :
“는 다음은 현재 K-3 Road, DLF 2 단계, 25 개 부문 25, Gurugram, Haryana 122022, 인도.
다음은 K-3 Road, DLF 2 단계, 부문 25, Gurugram, Haryana 122022, India :
에 대한 뉴 델리 철도역으로가는 가능한 도로 노선입니다.
Route 1 : NH 48 를 통해
거리 : 16.4 마일
기간 : 약 49 분
요약 :이 경로는 주로 NH 48 . 를 따릅니다
지도 url
이것은 현재 제공되는 유일한 경로입니다. 대체 경로를 탐색하려면 고속도로 또는 통행료를 피하는 것과 같은 기준을 지정할 수 있으며 해당 옵션을 확인할 수 있습니다.” .
검토 :
단 몇 초 만 에이 모델은 프롬프트를 통해 생각하고지도를 통해 공유 한 위치에 액세스하며 최선의 경로를 제안합니다. 그것은 나에게 경로의 세부 사항을 제공하고 내 참조를위한지도 링크를 공유합니다. 이러한 기능은 새로운 도시에서 장소를 찾거나 주소를 빠르게 찾을 때 큰 도움이 될 수 있습니다. 이 LLM은 또한 긴 YouTube 비디오를 전사하거나 요약하는 데 좋습니다. YouTube 반바지를 사용하는 동안 오류가 발생하지만
이 모델은 추론, 속도 및 외부 앱 접근성의 힘을 모두 결합합니다. 이러한 기능은 우리가 곧 이러한 사고 모델로 볼 수있는 에이전트 특성의 강력한 존재를 나타냅니다. .
gemini 2.0 모델 : 벤치 마크 비교
이제 우리는 Google의 모든 최신 모델을 다루었으므로 이러한 모델이 다른 벤치 마크에서 어떻게 작동하는지 빠르게 살펴 보겠습니다. 사고 실험 모델에 대한 세부 사항은 아직 사용할 수 없으므로 나머지 세 가지 모델과 만 작업 할 것입니다. Gemini 2.0 Flash, Flash Lite 및 Pro.
Capability |
Benchmark |
Gemini 2.0 Flash-Lite (Public Preview) |
Gemini 2.0 Flash (GA) |
Gemini 2.0 Pro Experimental |
General |
MMLU-Pro |
71.6% |
77.6% |
79.1% |
Code |
LiveCodeBench (v5) |
28.9% |
34.5% |
36.0% |
Code |
Bird-SQL (Dev) |
57.4% |
58.7% |
59.3% |
Reasoning |
GQPA (diamond) |
51.5% |
60.1% |
64.7% |
Factuality |
SimpleQA |
21.7% |
29.9% |
44.3% |
Factuality |
FACTS Grounding |
83.6% |
84.6% |
82.8% |
Multilingual |
Global MMLU (Lite) |
78.2% |
83.4% |
86.5% |
Math |
MATH |
86.8% |
90.9% |
91.8% |
Math |
HiddenMath |
55.3% |
63.5% |
65.2% |
Long-context |
MRCR (1M) |
58.0% |
70.5% |
74.7% |
Image |
MMMU |
68.0% |
71.7% |
72.7% |
Audio |
CoVoST2 (21 lang) |
38.4% |
39.0% |
40.6% |
Video |
EgoSchema (test) |
67.2% |
71.1% |
71.9% |
출처 : Google DeepMind Blog
gemini 2.0 모델 : 특징 비교
각각의 새로운 모델에는 고유 한 기능 세트가 있습니다. 다음 표에서, 나는이 블로그에서 탐색 한 모든 모델의 기능과 응용 프로그램을 나열했습니다.
결론
Google의 Gemini 2.0 라인업은 속도, 효율성 및 고급 추론에 맞게 다양한 모델을 제공하는 생성 AI 모델 기능의 큰 단계입니다. Gemini 2.0 Flash 및 Flash Lite는 높은 처리량과 비용 효율적인 사용 사례를 제공하는 반면 Gemini 2.0 Pro 실험은 장기 텍스트 이해 및 도구 통합에 유망한 것으로 보입니다. 앱을 사용한 실험 모델, 특히 플래시 사고 및 플래시 사고는 논리적 추론과 원활한 앱 상호 작용의 가능성을 소개합니다.
Gemini 2.0을 사용하여 Google은 Genai 모델의 단계를 설정하고 있으며, 더 많은 상황을 인식하고 멀티 모달이며 디지털 생태계에 깊이 통합되었습니다. 이러한 모델이 발전함에 따라 AI 중심 워크 플로, 콘텐츠 생성 및 실시간 의사 결정에 미치는 영향은 증가합니다.
자주 묻는 질문
q1. Gemini 2.0은 무엇입니까?
a. Gemini 2.0은 강화 된 추론, 멀티 모달 처리 및 고효율 작업을 위해 설계된 Google의 최신 Gen AI 모델입니다. Flash, Flash Lite, Pro 및 앱을 사용한 Flash Thinking과 Flash Thinking의 두 가지 실험 모델이 포함됩니다. Gemini 2.0은 Openai의 O3-Mini 및 Deepseek R1과 어떻게 비교됩니까? Gemini 2.0 모델, 특히 Flash and Pro Series는 OpenAI의 O3-Mini 및 DeepSeek R1과 직접 경쟁하여 추론, 효율성 및 도구 통합 측면에서 경쟁합니다. Gemini 2.0 Flash는 속도 및 비용 효율성에 중점을두고 있지만 Gemini 2.0 Pro 실험은 복잡한 추론 및 코딩에 탁월합니다. Gemini 2.0 Flash와 Flash Lite의 차이점은 무엇입니까?
gemini 2.0 Flash :
고급 작업, 속도, 효율성 및 1m 토큰 컨텍스트 창을 위해 설계되었습니다. gemini 2.0 Flash Lite :
유사한 항공기 버전이지만, 적용을 위해 최적화합니다. Q4. Gemini 2.0에는 얼마나 많은 실험 모델이 있습니까? gemini2.0에는 현재 2 개의 실험 모델이 있습니다. Gemini 2.0 모델에 어떻게 액세스 할 수 있습니까? gemini 2.0 플래시 : Google AI Studio (무료) 및 vertex ai에서 사용할 수 있습니다. gemini 2.0 Flash Lite : vertex ai를 통한 공개 미리보기 플래시 사고를 통해 : flash 사고를 통해 : flash 사고 : gemini 2.0 Pro 실험 : Google AI Studio (무료) 및 Gemini Advanced (유료)에서 사용할 수 있습니다.
위 내용은 Google Gemini 2.0 모델에 무료로 액세스하는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!