> 기술 주변기기 > 일체 포함 > PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

尊渡假赌尊渡假赌尊渡假赌
풀어 주다: 2025-03-21 10:06:13
원래의
208명이 탐색했습니다.

AI 모델의 진화는 효율성과 성능이 핵심 인 소규모 언어 모델 (SLM)에서 새로운 높이에 도달했습니다. 최신 경쟁자 중 PHI-4-MINI와 O1-MINI는 고급 및 효율적인 모델로 두드러집니다. 이 기사에서는 STEM 응용 프로그램 및 코딩 작업에 대한 사용자 경험, 속도 및 성능을 확인하기 위해 PHI-4 MINI vs O1-MINI 비교를 수행 할 것입니다. 우리는 프로그래밍, 디버깅 및 전반적인 효율성에 대한 강점을 평가하여 어떤 모델이 더 잘 수행되는지 확인할 것입니다. 결국, 어떤 모델이 귀하의 요구와 일치하는지에 대한 명확한 관점을 가질 수 있습니다.

목차

  • Phi-4-Mini는 무엇입니까?
  • O1-Mini는 무엇입니까?
  • 모델 비교 : PHI-4-MINI vs O1-MINI
  • 추론 성과 평가
    • PHI-4-MINI 및 O1-MINI 대 더 큰 모델
  • PHI-4-MINI vs O1-MINI : 추론 및 코딩 기능
    • 과제 1 : 건물 순서 관계 분석
    • 과제 2 : 수학의 논리적 추론
    • 작업 3 : 가장 긴 하위 문자 찾기
    • 전반적인 비교 분석
  • 결론
  • 자주 묻는 질문

Phi-4-Mini는 무엇입니까?

PHI-4-MINI는 고성능 추론 및 코딩 작업을 위해 설계된 최첨단 SLM입니다. 그것은 효율성과 정확성 사이의 균형을 유지하여 AI 중심 애플리케이션에서 강력한 경쟁자가됩니다. 이 모델은 계산적으로 효율적이면서도 높은 텍스트 생성 및 복잡한 추론 작업을 위해 설계되어 에지 컴퓨팅 환경에 적합합니다.

아키텍처 개요

PHI-4-MINI는 38 억 파라미터와 128K 토큰 컨텍스트 창을 가진 밀도가 높고 디코더 전용 변압기 모델입니다. 200,064 개의 어휘 크기를 지원하고 그룹화 된 쿼리주의 (GQA)를 통합하여 고성능을 유지하면서 리소스 효율성을 최적화합니다.

그룹화 된 쿼리주의 (GQA)

주요 기능

  • 공유 입력 출력 임베딩 : 입력 및 출력 모두에 대한 임베딩을 재사용하여 메모리 오버 헤드를 줄입니다.
  • 교육 데이터 : 고품질 교육 자료, 코딩 예제 및 합성 데이터를 포함하여 5 조 5 조의 토큰으로 교육을 받았습니다.
  • 성과 : 기능 호출을 통해 외부 API를 통합 할 수있는 능력과 함께 추론, 수학, 코딩 및 지시를 따르는 것이 탁월합니다.

또한 읽기 : PHI-4 vs GPT-4O-MINI FACE-OFF

O1-Mini는 무엇입니까?

O1-Mini는 경제성과 성능 균형을 맞추기위한 가볍고 비용 효율적인 SLM입니다. 일반적인 AI 응용 프로그램에 대한 합리적인 수준의 정확도를 유지하면서 효율적인 처리의 우선 순위를 정합니다.

아키텍처 개요

O1-MINI는 표준 변압기 아키텍처를 따라 PHI-4-MINI보다 매개 변수가 적습니다 (정확한 크기 공개되지 않은). 또한 128K 토큰 컨텍스트 창을 지원하지만 GQA와 같은 아키텍처 최적화보다는 비용 효율적인 처리에 중점을 둡니다.

또한 읽으십시오 : OpenAi의 O1- 프리뷰 vs O1-Mini : AGI 로의 한 걸음

모델 비교 : PHI-4-MINI vs O1-MINI

Phi-4-Mini는 추론, 수학 및 코딩과 같은 작업을 위해 설계된 강력한 모델이며 O1-Mini는 비용 효율적인 코딩에 중점을 둔 더 간단한 디자인을 따릅니다. 아래 표는 주요 차이점을 강조합니다.

특징 Phi-4-Mini O1-MINI
건축 유형 밀도가 높고 디코더 전용 변압기 표준 변압기 (세부 사항 제한)
매개 변수 38 억 지정되지 않음 (일반적으로 작음)
컨텍스트 창 128K 토큰 128K 토큰
주의 메커니즘 그룹화 된 쿼리주의 (GQA) 명시 적으로 상세하지 않습니다
공유 임베딩 지정되지 않았습니다
교육 데이터 볼륨 5 조 토큰 지정되지 않았습니다
성능 초점 추론, 수학, 코딩의 높은 정확도 코딩 작업에 비용 효율적입니다
배포 적합성 에지 컴퓨팅 환경 일반적인 사용이지만 덜 강력합니다

PHI-4-MINI는 GQA 및 Shared Embedding과 같은 고급 기능으로 두드러 지므로 추론, 코딩 및 API 통합이 우수합니다. 대조적으로, O1-MINI는 코딩에 최적화 된 가볍고 비용 효율적인 대안이지만 PHI-4-MINI에서 볼 수있는 건축 개선이 부족합니다. 둘 중에서 선택하는 것은 우선 순위가 높은 정확도와 추론력 또는 특정 작업의 경제성 및 효율성인지 여부에 따라 다릅니다.

추론 성과 평가

이 섹션에서는 PHI-4-MINI 및 O3-MINI 모델이 더 큰 모델에 비해 추론에서 어떻게 작동하는지 살펴 봅니다. 복잡한 문제를 얼마나 잘 해결하고 논리적 결론을 내리는 데 중점을 두어 더 작고 큰 모델과 더 큰 모델 간의 정확도, 효율성 및 선명도의 차이를 강조합니다.

PHI-4-MINI 및 O1-MINI 대 더 큰 모델

추론 강화 PHI-4- 미니 및 O1- 미니의 추론 능력은 AIME 2024, MATH-500 및 GPQA 다이아몬드를 포함한 여러 벤치 마크에서 평가되었습니다. 이러한 벤치 마크는 고급 수학적 추론 및 일반적인 문제 해결 기술을 평가하여 DeepSeek, 맞춤형 및 OpenThinker의 여러 대형 모델과 비교할 수있는 기초를 제공합니다.

모델 AIME Math-500 GPQA 다이아몬드
O1-MINI* 63.6 90.0 60.0
Deepseek-R1-Distill-Qwen-7b 53.3 91.4 49.5
Deepseek-R1-Distill-Llama-8b 43.3 86.9 47.3
맞춤형 스트라토스 -7b* 20.0 82.0 37.8
openthinker-7b* 31.3 83.0 42.4
LLAMA-3-2-3B- 강조 6.7 44.4 25.3
Phi-4-Mini 10.0 71.8 36.9
Phi-4-Mini (추론 훈련) (3.8b) 50.0 90.4 49.0
출처 : 포옹 페이스

38 억 개의 매개 변수가 있음에도 불구하고 추론 훈련 된 PHI-4-MINI는 강력한 성능을 보여 주며 다음과 같은 큰 모델을 능가합니다.

  • DeepSeek-R1-Distill-Llama-8B (8B 매개 변수)
  • 맞춤형 스트라토스 -7b (7b 매개 변수)
  • openthinker-7b (7b 매개 변수)

또한, 상당히 큰 7B 모델 인 DeepSeek-R1-Distill-Qwen-7B와 비슷한 성능을 달성하여 효율성을 강조합니다. 그러나 공개되지 않은 매개 변수 크기에도 불구하고 O1-MINI는 여러 벤치 마크를 이끌어 AI 추론 작업에서 강력한 경쟁자가됩니다.

벤치 마크 비교

제공된 이미지에 표시된 것처럼 두 모델의 성능은 더 큰 모델에 대한 경쟁력을 강조합니다.

  • AIME 벤치 마크 :
    • O1-MINI는 모든 모델 중에서 가장 높은 63.6 점수입니다.
    • PHI-4-MINI (추론 훈련)는 50.0 점수로 기본 버전 (10.0)보다 5 배 향상되었습니다.
  • Math-500 벤치 마크 :
    • PHI-4-MINI (90.4)는 O1-MINI (90.0)를 약간 능가하여 복잡한 수학적 추론 작업에 매우 효과적입니다.
  • GPQA 다이아몬드 :
    • O1-MINI는 60.0을 기록하여 우수한 일반적인 문제 해결 기능을 보여줍니다.
    • PHI-4-MINI (49.0)는 몇 가지 7B 및 8B 모델을 능가하여 추론 작업의 효율성을 입증합니다.

이러한 결과는 O1-MINI가 일반적인 문제 해결 및 추론을 지배하는 반면, PHI-4-MINI (추론 훈련)는 더 작은 크기 (3.8b 매개 변수)에도 불구하고 수학적 벤치 마크에서 탁월하다는 것을 나타냅니다. 두 모델 모두 주요 AI 벤치 마크에서 탁월한 효율성, 도전적이고 도전적이고 훨씬 더 큰 모델을 보여줍니다.

PHI-4-MINI vs O1-MINI : 추론 및 코딩 기능

이제 PHI-4-MINI 및 O1-MINI의 추론 및 프로그래밍 기능을 비교할 것입니다. 이를 위해 우리는 두 모델 모두에 동일한 프롬프트를 제공하고 응답을 평가할 것이며 API를 사용하여 모델을로드 할 것입니다. 이 비교에서 우리가 시도 할 작업은 다음과 같습니다.

  1. 건축 순서 관계 분석
  2. 수학의 논리적 추론
  3. 가장 긴 부분 문자열 찾기

과제 1 : 건물 순서 관계 분석

이 작업은 모델이 주어진 제약 조건에 따라 건물의 상대적 위치를 추론하고 중간 건물을 식별해야합니다.

프롬프트 : “v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다.
옵션 :
a) v
b) w
c) x
d) Y”

O1-MINI에 입력

 OpenAi import OpenAi에서
수입 시간
Tiktoken 수입
IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown
파일로 Open ( "path_to_api_key")을 사용하여 :
   api_key = file.read (). strip ()


task1_start_time = time.time ()
클라이언트 = OpenAi (API_KEY = API_KEY)
메시지 = [
   {
       "역할": "사용자",
       "콘텐츠": """
   v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다 (반드시 그 순서는 아닙니다).
   V는 W. Z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽입니다.
   중간에있는 건물은 어디입니까?
   옵션 :
   a) v
   b) w
   c) x
   d) y
"" "
   }
]]
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
task1_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time)
# 디스플레이 결과
Ipython에서 Display 가져 오기 Markdown
display (markdown (완성 .choices [0] .message.content))
로그인 후 복사

O1-MINI의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 Transformers 가져 오기 파이프 라인
수입 시간
IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown


변압기에서 automodelforcausallm, bitsandbytesconfig
Quantization_Config = BitsandbyTesconFig (load_in_8bit = true)


# 모델을 직접로드합니다
변압기에서 Autotokenizer, Automodelforcausallm을 가져옵니다
Tokenizer = Autotokenizer.from_pretraind ( "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
model = automodelforcausallm.from_pretrained ( "Microsoft/phi-4-mini-Instruct", trust_remote_code = true, Quantization_config = Quantization_config) 


task1_start_time = time.time ()
메시지 = [
   { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."},
   { "역할": "사용자", "컨텐츠": "" ""V, W, X, Y 및 Z라는 5 개의 건물이 연속으로 있습니다 (반드시 순서대로).
   V는 W. z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽에 있습니다. 중간에있는 건물은 무엇입니까? 옵션 :
a) v
b) w
c) x
d) y "" "},
]]


파이프 = 파이프 라인 (
   "텍스트 세대",
   모델 = 모델,
   Tokenizer = Tokenizer,
))
generation_args = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "온도": 0.0,
   "do_sample": 거짓,
}
출력 = 파이프 (메시지, ** generation_args) #,
task1_end_time = time.time ()
print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time)
display (markdown ((출력 [0] [ 'generated_text']))))
파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
파이프 (메시지)
로그인 후 복사

Phi 4-Mini의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI는이 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 낫습니다. O1-Mini는 몇 단계만으로 정답 (“V”)을 신속하게 파악하는 반면, Phi-4-Mini는 각 세부 사항을 단계별로 통과하기 때문에 훨씬 오래 걸립니다. 모든 노력에도 불구하고 Phi-4-Mini는 여전히 선택 중 하나가 아닌 잘못된 답변 ( "Z")을 얻습니다. 이것은 PHI-4-MINI가 간단한 논리 문제로 어려움을 겪고 있으며 O1-MINI는 신속하고 올바르게 처리한다는 것을 보여줍니다. Phi-4-Mini의 상세한 사고는 더 어려운 문제에 유용 할 수 있지만이 경우 지연과 실수 만 발생했습니다.

과제 2 : 수학의 논리적 추론

이 작업을 위해서는 모델이 주어진 숫자 시퀀스에서 패턴을 인식하고 누락 된 숫자를 식별해야합니다.

프롬프트 : “다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 숫자를 선택하십시오 : 16, 33, 100, 401?
옵션 : a) 1235
b) 804
c) 1588
d) 2006 ″

O1-MINI에 입력

 task2_start_time = time.time ()

클라이언트 = OpenAi (API_KEY = API_KEY)

메시지 = [
   {
       "역할": "사용자",
       "Content": "" "다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 번호를 선택하십시오 .16, 33, 100, 401?
       a) 1235
       b) 804
       c) 1588
       d) 2006 "" "
   }
]]


# 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다).
인코딩 = tiktoken.get_encoding ( "CL100K_BASE")


# 토큰 수를 계산합니다
input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"])))
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
output_tokens = len (encoding.encode (wompletion.choices [0] .message.content))


task2_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time)
# 디스플레이 결과
IPYTHON에서 DISPLAY 가져 오기 MarkDown
display (markdown (완성 .choices [0] .message.content)))
로그인 후 복사

O1-MINI의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 task2_start_time = time.time ()
메시지 = [
   { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."},
   { "역할": "사용자", "내용": "" "주어진 옵션 중에서 숫자를 선택하십시오.
   다음 시리즈에서 물음표 (?)를 대체 할 수 있습니다 .16, 33, 100, 401,?
a) 1235
b) 804
c) 1588
d) 2006 "" "},
]]
파이프 = 파이프 라인 (
   "텍스트 세대",
   모델 = 모델,
   Tokenizer = Tokenizer,
))
generation_args = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "온도": 0.0,
   "do_sample": 거짓,
}
출력 = 파이프 (메시지, ** generation_args) #,
task2_end_time = time.time ()
print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time)
display (markdown ((출력 [0] [ 'generated_text']))))
로그인 후 복사

Phi 4-Mini의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI는이 숫자 패턴 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 더 잘 수행했습니다. O1-Mini는 패턴을 신속하게 인식하고 단 10.77 초 만에 2006을 올바르게 선택했습니다. 반면에, Phi-4-Mini는 훨씬 더 오래 걸렸고 (50.25 초) 여전히 잘못된 대답을 얻었습니다 (120). 한편 O1-Mini는 명확하고 직접적인 접근 방식을 따라 문제를 올바르게 효율적으로 해결했습니다. 이것은 O1-MINI가 숫자 패턴을 빠르게 발견하는 데 더 나은 반면, PHI-4-MINI는 간단한 문제를 과도하게 복잡하게하는 경향이있어 실수와 지연으로 이어집니다.

작업 3 : 가장 긴 하위 문자 찾기

이 문제는 반복되는 문자가 포함되지 않은 주어진 문자열 내에서 가장 긴 하위 문자의 길이를 찾도록 요청합니다. 예를 들어, "ABCABCBB"문자열에서, 캐릭터를 반복하지 않는 가장 긴 하위 문자열은 "ABC"이며 길이는 3입니다.

프롬프트 : “문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.
LongestSubstring (s : str) -> int를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환하는 함수 길이를 작성하십시오.”

O1-MINI에 입력

 task3_start_time = time.time ()
클라이언트 = OpenAi (API_KEY = API_KEY)
메시지 = [
   {
       "역할": "사용자",
       "콘텐츠": """
문자열이 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.


LongestSubstring (s : str) -> int의 기능 길이를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다.
"" "
   }
]]
# 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다).
인코딩 = tiktoken.get_encoding ( "CL100K_BASE")
# 토큰 수를 계산합니다
input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"])))
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
output_tokens = len (encoding.encode (wompletion.choices [0] .message.content))
task3_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 3 : -----------------", Task3_end_Time-Task3_START_TIME)
# 디스플레이 결과
IPYTHON에서 DISPLAY 가져 오기 MarkDown
display (markdown (완성 .choices [0] .message.content)))
로그인 후 복사

O1-MINI의 응답

 def lengthoflongestsubstring (s : str) -> int :
   "" "
   문자열 s에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다.


   매개 변수 :
   s (str) : 입력 문자열.


   보고:
   INT : 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이.
   "" "
   # 사전 각 캐릭터의 마지막 위치를 저장합니다.
   char_map = {}
   # 창의 왼쪽 포인터를 초기화합니다.
   왼쪽 = 0
   # 최대 길이를 초기화합니다.
   max_length = 0


   # 오른쪽 포인터로 문자열을 반복하십시오.
   오른쪽의 경우, 열거 된 사람 :
       # 캐릭터가 char_map에서 발견되고 마지막 위치는> = 왼쪽 포인터 인 경우
       # 왼쪽 포인터를 마지막 발생의 한 위치로 이동하여 복제를 피하십시오.
       char_map 및 char_map [char]> = 왼쪽 인 경우 :
           왼쪽 = char_map [char] 1


       # 캐릭터의 최신 색인 업데이트/삽입.
       char_map [char] = 오른쪽


       # 현재 창의 길이를 계산하고 필요한 경우 max_length를 업데이트하십시오.
       current_window_length = 오른쪽 - 왼쪽 1
       current_window_length> max_length :
           max_length = current_window_length


       # 내부 상태를 추적하기위한 디버그 명세서 (생산에서 제거 될 수 있음)
       # print (f "current ar


   max_length를 반환합니다


# 예제 사용 :
__name__ == "__main__"인 경우 :
   test_strings = [
       "abcabcbb",
       "BBBBB",
       "Pwwkew",
       "",
       "에이",
       "DVDF"
   ]]
   test_strings의 s의 경우 :
       print (f " '{s}'의 문자를 반복하지 않고 가장 긴 하위 문자열은 길이 {lengthoflongestsubstring (s)}입니다.")
로그인 후 복사

산출

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 Transformers 가져 오기 파이프 라인
메시지 = [
   { "역할": "사용자",
    "Content": "" "문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.
반복 된 문자없이 가장 긴 하위 문자의 길이를 반환하는 기능 길이의 길이를 작성하십시오. "" "}, int." ""},
]]
파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
파이프 (메시지)
로그인 후 복사

Phi 4-Mini의 응답

 def lengthoflongestsubstring (s : str) -> int :
   char_index_map = {}
   왼쪽 = 0
   max_length = 0
   오른쪽 범위 (Len (s)) :
       char_index_map 및 char_index_map [s [오른쪽]]에서 s [오른쪽]이면 왼쪽 :
           왼쪽 = char_index_map [s [오른쪽]] 1
       char_index_map [s [오른쪽]] = 오른쪽
       max_length = max (max_length, 오른쪽 - 왼쪽 1)


   max_length를 반환합니다
print ( "ABCABCBB '에서 캐릭터를 반복하지 않고 가장 긴 하위 스트링은 길이입니다."
print ( 'bbbbb'에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열은 길이입니다. "
로그인 후 복사

산출

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI와 PHI-4-MINI는 슬라이딩 윈도우 메소드를 올바르게 사용했지만 O1-MINI 코드는 더 구성되고 이해하기 쉬웠습니다. 명확한 설명, 의견, 테스트 사례 및 읽기 쉬운 변수 이름이 포함되었습니다. PHI-4-MINI의 솔루션은 짧았지만 설명과 구조가 부족하여 더 큰 프로젝트에서 따라 가기가 더 어려워졌습니다. O1-Mini는 또한 더 빠르고 더 깨끗하고 읽기 쉬운 솔루션을 생산했으며 PHI-4-MINI는 코드를 간략하게 유지하는 데 더 집중했습니다.

전반적인 비교 분석

다음은 세 가지 작업 모두에 대한 전체 비교 분석입니다.

측면 작업 1 (건물 순서) 작업 2 (숫자 시리즈 완료) 작업 3 (가장 긴 비 반복 하위 문자)
정확성 O1-Mini는 정확했고 Phi-4-Mini는 잘못된 대답을했습니다 (“Z”는 옵션이 아닙니다). O1-Mini는 2006 년을 올바르게 식별 한 반면 Phi-4-Mini는 잘못된 대답을 받았습니다 (120). 둘 다 올바른 슬라이딩 윈도우 접근 방식을 구현했습니다.
응답 속도 O1-Mini는 상당히 빠릅니다. O1-Mini는 훨씬 더 빠릅니다 (10.77s vs. 50.25). O1-Mini는 약간 더 빨리 반응했습니다.
접근하다 O1-Mini는 빠르고 논리적 인 공제를 사용했으며 Phi-4-Mini는 불필요한 조치를 취하고 여전히 실수를 저질렀습니다. O1-MINI는 구조적이고 효율적인 패턴 인식 방법을 따랐으며 PHI-4-MINI는 프로세스를 압도하고 잘못된 결과를 얻었습니다. O1-MINI는 구조화되고 잘 문서화 된 솔루션을 제공하는 반면, PHI-4-MINI는 간결하지만 덜 읽기 쉬운 접근법을 사용했습니다.
코딩 관행 적용 할 수 없습니다. 적용 할 수 없습니다. O1-MINI에는 DOCSTRINGS, 의견 및 테스트 사례가 포함되어 이해하고 유지하기가 더 쉽습니다. Phi-4-Mini는 간결성에 중점을 두었지만 문서가 부족했습니다.
최고의 사용 사례 O1-MINI는 논리적 추론 작업에 더 신뢰할 수있는 반면, PHI-4-MINI의 단계별 접근 방식은 복잡한 문제에 더 잘 작동 할 수 있습니다. O1-MINI는 속도와 정확성으로 숫자 패턴 인식을 탁월하지만 PHI-4-MINI의 과다 분석은 실수로 이어질 수 있습니다. O1-MINI는 구조화되고 유지 가능한 코드에 바람직하지만 PHI-4-MINI는 짧고 간결한 구현에 더 좋습니다.

결론

전반적으로 O1-MINI는 구조화 된 추론, 정확성 및 코딩 모범 사례에서 뛰어나서 복잡한 문제 해결 및 유지 관리 가능한 코드에 더 적합했습니다. Phi-4-Mini는 더 빠르지 만, 탐색 적 접근은 때때로 특히 추론 과제에서 비 효율성이나 잘못된 결론으로 ​​이어졌습니다. 코딩에서, O1-MINI는 잘 문서화되고 읽기 쉬운 솔루션을 제공 한 반면, PHI-4-MINI는 명확성 비용으로 간결성을 우선시했다. 속도가 주요 관심사 인 경우 PHI-4-MINI는 확실한 선택이지만 정밀, 선명도 및 구조화 된 문제 해결을 위해 O1-MINI는 더 나은 옵션으로 두드러집니다.

자주 묻는 질문

Q1. 전반적으로 더 정확한 모델은 무엇입니까?

A. O1-MINI는 논리적 추론 작업에서 더 나은 정확도를 보여 주었고, PHI-4-MINI는 때때로 탐색 적 접근 방식을 취하여 오류로 이어졌습니다.

Q2. 응답 시간이 더 빠른 모델은 무엇입니까?

A. PHI-4-MINI는 일반적으로 더 빠른 응답을 제공하지만 때로는 올바른 솔루션에 도달하기 전에 추가 단계가 필요합니다.

Q3. 구조화 된 문제 해결에 더 나은 모델은 무엇입니까?

A. O1-MINI는보다 체계적이고 논리적 인 접근 방식을 따라 명확한 추론과 체계적인 솔루션이 필요한 작업에 더 적합합니다.

Q4. 수치 및 패턴 인식 작업에 어떤 모델이 더 좋습니까?

A. 두 모델 모두 시리즈에서 누락 된 숫자를 올바르게 식별했지만 PHI-4-MINI는 더 빠르지 만 O1-MINI는 접근 방식에서 더 체계적이었습니다.

Q5. 더 나은 코딩 관행을 따르는 모델은 무엇입니까?

A. O1-MINI는 잘 구조화되고 문서화되고 읽을 수있는 코드를 제공하는 반면, PHI-4-MINI는 간결성에 중점을 두지 만 자세한 설명과 테스트 사례는 부족합니다.

Q6. PHI-4-MINI를 통해 언제 O1-MINI를 사용해야합니까?

A. 복잡한 문제 해결 및 소프트웨어 개발과 같이 구조화 된 추론, 정확성 및 코딩 선명도가 필수적 일 때 O1-Mini를 사용하십시오.

위 내용은 PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿