목차
목차
Phi-4-Mini는 무엇입니까?
아키텍처 개요
주요 기능
O1-Mini는 무엇입니까?
모델 비교 : PHI-4-MINI vs O1-MINI
추론 성과 평가
PHI-4-MINI 및 O1-MINI 대 더 큰 모델
벤치 마크 비교
PHI-4-MINI vs O1-MINI : 추론 및 코딩 기능
과제 1 : 건물 순서 관계 분석
O1-MINI에 입력
O1-MINI의 응답
Phi 4-Mini에 입력
Phi 4-Mini의 응답
비교 분석
과제 2 : 수학의 논리적 추론
작업 3 : 가장 긴 하위 문자 찾기
전반적인 비교 분석
결론
자주 묻는 질문
기술 주변기기 일체 포함 PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Mar 21, 2025 am 10:06 AM

AI 모델의 진화는 효율성과 성능이 핵심 인 소규모 언어 모델 (SLM)에서 새로운 높이에 도달했습니다. 최신 경쟁자 중 PHI-4-MINI와 O1-MINI는 고급 및 효율적인 모델로 두드러집니다. 이 기사에서는 STEM 응용 프로그램 및 코딩 작업에 대한 사용자 경험, 속도 및 성능을 확인하기 위해 PHI-4 MINI vs O1-MINI 비교를 수행 할 것입니다. 우리는 프로그래밍, 디버깅 및 전반적인 효율성에 대한 강점을 평가하여 어떤 모델이 더 잘 수행되는지 확인할 것입니다. 결국, 어떤 모델이 귀하의 요구와 일치하는지에 대한 명확한 관점을 가질 수 있습니다.

목차

  • Phi-4-Mini는 무엇입니까?
  • O1-Mini는 무엇입니까?
  • 모델 비교 : PHI-4-MINI vs O1-MINI
  • 추론 성과 평가
    • PHI-4-MINI 및 O1-MINI 대 더 큰 모델
  • PHI-4-MINI vs O1-MINI : 추론 및 코딩 기능
    • 과제 1 : 건물 순서 관계 분석
    • 과제 2 : 수학의 논리적 추론
    • 작업 3 : 가장 긴 하위 문자 찾기
    • 전반적인 비교 분석
  • 결론
  • 자주 묻는 질문

Phi-4-Mini는 무엇입니까?

PHI-4-MINI는 고성능 추론 및 코딩 작업을 위해 설계된 최첨단 SLM입니다. 그것은 효율성과 정확성 사이의 균형을 유지하여 AI 중심 애플리케이션에서 강력한 경쟁자가됩니다. 이 모델은 계산적으로 효율적이면서도 높은 텍스트 생성 및 복잡한 추론 작업을 위해 설계되어 에지 컴퓨팅 환경에 적합합니다.

아키텍처 개요

PHI-4-MINI는 38 억 파라미터와 128K 토큰 컨텍스트 창을 가진 밀도가 높고 디코더 전용 변압기 모델입니다. 200,064 개의 어휘 크기를 지원하고 그룹화 된 쿼리주의 (GQA)를 통합하여 고성능을 유지하면서 리소스 효율성을 최적화합니다.

그룹화 된 쿼리주의 (GQA)

주요 기능

  • 공유 입력 출력 임베딩 : 입력 및 출력 모두에 대한 임베딩을 재사용하여 메모리 오버 헤드를 줄입니다.
  • 교육 데이터 : 고품질 교육 자료, 코딩 예제 및 합성 데이터를 포함하여 5 조 5 조의 토큰으로 교육을 받았습니다.
  • 성과 : 기능 호출을 통해 외부 API를 통합 할 수있는 능력과 함께 추론, 수학, 코딩 및 지시를 따르는 것이 탁월합니다.

또한 읽기 : PHI-4 vs GPT-4O-MINI FACE-OFF

O1-Mini는 무엇입니까?

O1-Mini는 경제성과 성능 균형을 맞추기위한 가볍고 비용 효율적인 SLM입니다. 일반적인 AI 응용 프로그램에 대한 합리적인 수준의 정확도를 유지하면서 효율적인 처리의 우선 순위를 정합니다.

아키텍처 개요

O1-MINI는 표준 변압기 아키텍처를 따라 PHI-4-MINI보다 매개 변수가 적습니다 (정확한 크기 공개되지 않은). 또한 128K 토큰 컨텍스트 창을 지원하지만 GQA와 같은 아키텍처 최적화보다는 비용 효율적인 처리에 중점을 둡니다.

또한 읽으십시오 : OpenAi의 O1- 프리뷰 vs O1-Mini : AGI 로의 한 걸음

모델 비교 : PHI-4-MINI vs O1-MINI

Phi-4-Mini는 추론, 수학 및 코딩과 같은 작업을 위해 설계된 강력한 모델이며 O1-Mini는 비용 효율적인 코딩에 중점을 둔 더 간단한 디자인을 따릅니다. 아래 표는 주요 차이점을 강조합니다.

특징 Phi-4-Mini O1-MINI
건축 유형 밀도가 높고 디코더 전용 변압기 표준 변압기 (세부 사항 제한)
매개 변수 38 억 지정되지 않음 (일반적으로 작음)
컨텍스트 창 128K 토큰 128K 토큰
주의 메커니즘 그룹화 된 쿼리주의 (GQA) 명시 적으로 상세하지 않습니다
공유 임베딩 지정되지 않았습니다
교육 데이터 볼륨 5 조 토큰 지정되지 않았습니다
성능 초점 추론, 수학, 코딩의 높은 정확도 코딩 작업에 비용 효율적입니다
배포 적합성 에지 컴퓨팅 환경 일반적인 사용이지만 덜 강력합니다

PHI-4-MINI는 GQA 및 Shared Embedding과 같은 고급 기능으로 두드러 지므로 추론, 코딩 및 API 통합이 우수합니다. 대조적으로, O1-MINI는 코딩에 최적화 된 가볍고 비용 효율적인 대안이지만 PHI-4-MINI에서 볼 수있는 건축 개선이 부족합니다. 둘 중에서 선택하는 것은 우선 순위가 높은 정확도와 추론력 또는 특정 작업의 경제성 및 효율성인지 여부에 따라 다릅니다.

추론 성과 평가

이 섹션에서는 PHI-4-MINI 및 O3-MINI 모델이 더 큰 모델에 비해 추론에서 어떻게 작동하는지 살펴 봅니다. 복잡한 문제를 얼마나 잘 해결하고 논리적 결론을 내리는 데 중점을 두어 더 작고 큰 모델과 더 큰 모델 간의 정확도, 효율성 및 선명도의 차이를 강조합니다.

PHI-4-MINI 및 O1-MINI 대 더 큰 모델

추론 강화 PHI-4- 미니 및 O1- 미니의 추론 능력은 AIME 2024, MATH-500 및 GPQA 다이아몬드를 포함한 여러 벤치 마크에서 평가되었습니다. 이러한 벤치 마크는 고급 수학적 추론 및 일반적인 문제 해결 기술을 평가하여 DeepSeek, 맞춤형 및 OpenThinker의 여러 대형 모델과 비교할 수있는 기초를 제공합니다.

모델 AIME Math-500 GPQA 다이아몬드
O1-MINI* 63.6 90.0 60.0
Deepseek-R1-Distill-Qwen-7b 53.3 91.4 49.5
Deepseek-R1-Distill-Llama-8b 43.3 86.9 47.3
맞춤형 스트라토스 -7b* 20.0 82.0 37.8
openthinker-7b* 31.3 83.0 42.4
LLAMA-3-2-3B- 강조 6.7 44.4 25.3
Phi-4-Mini 10.0 71.8 36.9
Phi-4-Mini (추론 훈련) (3.8b) 50.0 90.4 49.0
출처 : 포옹 페이스

38 억 개의 매개 변수가 있음에도 불구하고 추론 훈련 된 PHI-4-MINI는 강력한 성능을 보여 주며 다음과 같은 큰 모델을 능가합니다.

  • DeepSeek-R1-Distill-Llama-8B (8B 매개 변수)
  • 맞춤형 스트라토스 -7b (7b 매개 변수)
  • openthinker-7b (7b 매개 변수)

또한, 상당히 큰 7B 모델 인 DeepSeek-R1-Distill-Qwen-7B와 비슷한 성능을 달성하여 효율성을 강조합니다. 그러나 공개되지 않은 매개 변수 크기에도 불구하고 O1-MINI는 여러 벤치 마크를 이끌어 AI 추론 작업에서 강력한 경쟁자가됩니다.

벤치 마크 비교

제공된 이미지에 표시된 것처럼 두 모델의 성능은 더 큰 모델에 대한 경쟁력을 강조합니다.

  • AIME 벤치 마크 :
    • O1-MINI는 모든 모델 중에서 가장 높은 63.6 점수입니다.
    • PHI-4-MINI (추론 훈련)는 50.0 점수로 기본 버전 (10.0)보다 5 배 향상되었습니다.
  • Math-500 벤치 마크 :
    • PHI-4-MINI (90.4)는 O1-MINI (90.0)를 약간 능가하여 복잡한 수학적 추론 작업에 매우 효과적입니다.
  • GPQA 다이아몬드 :
    • O1-MINI는 60.0을 기록하여 우수한 일반적인 문제 해결 기능을 보여줍니다.
    • PHI-4-MINI (49.0)는 몇 가지 7B 및 8B 모델을 능가하여 추론 작업의 효율성을 입증합니다.

이러한 결과는 O1-MINI가 일반적인 문제 해결 및 추론을 지배하는 반면, PHI-4-MINI (추론 훈련)는 더 작은 크기 (3.8b 매개 변수)에도 불구하고 수학적 벤치 마크에서 탁월하다는 것을 나타냅니다. 두 모델 모두 주요 AI 벤치 마크에서 탁월한 효율성, 도전적이고 도전적이고 훨씬 더 큰 모델을 보여줍니다.

PHI-4-MINI vs O1-MINI : 추론 및 코딩 기능

이제 PHI-4-MINI 및 O1-MINI의 추론 및 프로그래밍 기능을 비교할 것입니다. 이를 위해 우리는 두 모델 모두에 동일한 프롬프트를 제공하고 응답을 평가할 것이며 API를 사용하여 모델을로드 할 것입니다. 이 비교에서 우리가 시도 할 작업은 다음과 같습니다.

  1. 건축 순서 관계 분석
  2. 수학의 논리적 추론
  3. 가장 긴 부분 문자열 찾기

과제 1 : 건물 순서 관계 분석

이 작업은 모델이 주어진 제약 조건에 따라 건물의 상대적 위치를 추론하고 중간 건물을 식별해야합니다.

프롬프트 : “v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다.
옵션 :
a) v
b) w
c) x
d) Y”

O1-MINI에 입력

 OpenAi import OpenAi에서
수입 시간
Tiktoken 수입
IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown
파일로 Open ( "path_to_api_key")을 사용하여 :
   api_key = file.read (). strip ()


task1_start_time = time.time ()
클라이언트 = OpenAi (API_KEY = API_KEY)
메시지 = [
   {
       "역할": "사용자",
       "콘텐츠": """
   v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다 (반드시 그 순서는 아닙니다).
   V는 W. Z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽입니다.
   중간에있는 건물은 어디입니까?
   옵션 :
   a) v
   b) w
   c) x
   d) y
"" "
   }
]]
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
task1_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time)
# 디스플레이 결과
Ipython에서 Display 가져 오기 Markdown
display (markdown (완성 .choices [0] .message.content))
로그인 후 복사

O1-MINI의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 Transformers 가져 오기 파이프 라인
수입 시간
IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown


변압기에서 automodelforcausallm, bitsandbytesconfig
Quantization_Config = BitsandbyTesconFig (load_in_8bit = true)


# 모델을 직접로드합니다
변압기에서 Autotokenizer, Automodelforcausallm을 가져옵니다
Tokenizer = Autotokenizer.from_pretraind ( "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
model = automodelforcausallm.from_pretrained ( "Microsoft/phi-4-mini-Instruct", trust_remote_code = true, Quantization_config = Quantization_config) 


task1_start_time = time.time ()
메시지 = [
   { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."},
   { "역할": "사용자", "컨텐츠": "" ""V, W, X, Y 및 Z라는 5 개의 건물이 연속으로 있습니다 (반드시 순서대로).
   V는 W. z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽에 있습니다. 중간에있는 건물은 무엇입니까? 옵션 :
a) v
b) w
c) x
d) y "" "},
]]


파이프 = 파이프 라인 (
   "텍스트 세대",
   모델 = 모델,
   Tokenizer = Tokenizer,
))
generation_args = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "온도": 0.0,
   "do_sample": 거짓,
}
출력 = 파이프 (메시지, ** generation_args) #,
task1_end_time = time.time ()
print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time)
display (markdown ((출력 [0] [ 'generated_text']))))
파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
파이프 (메시지)
로그인 후 복사

Phi 4-Mini의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI는이 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 낫습니다. O1-Mini는 몇 단계만으로 정답 (“V”)을 신속하게 파악하는 반면, Phi-4-Mini는 각 세부 사항을 단계별로 통과하기 때문에 훨씬 오래 걸립니다. 모든 노력에도 불구하고 Phi-4-Mini는 여전히 선택 중 하나가 아닌 잘못된 답변 ( "Z")을 얻습니다. 이것은 PHI-4-MINI가 간단한 논리 문제로 어려움을 겪고 있으며 O1-MINI는 신속하고 올바르게 처리한다는 것을 보여줍니다. Phi-4-Mini의 상세한 사고는 더 어려운 문제에 유용 할 수 있지만이 경우 지연과 실수 만 발생했습니다.

과제 2 : 수학의 논리적 추론

이 작업을 위해서는 모델이 주어진 숫자 시퀀스에서 패턴을 인식하고 누락 된 숫자를 식별해야합니다.

프롬프트 : “다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 숫자를 선택하십시오 : 16, 33, 100, 401?
옵션 : a) 1235
b) 804
c) 1588
d) 2006 ″

O1-MINI에 입력

 task2_start_time = time.time ()

클라이언트 = OpenAi (API_KEY = API_KEY)

메시지 = [
   {
       "역할": "사용자",
       "Content": "" "다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 번호를 선택하십시오 .16, 33, 100, 401?
       a) 1235
       b) 804
       c) 1588
       d) 2006 "" "
   }
]]


# 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다).
인코딩 = tiktoken.get_encoding ( "CL100K_BASE")


# 토큰 수를 계산합니다
input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"])))
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
output_tokens = len (encoding.encode (wompletion.choices [0] .message.content))


task2_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time)
# 디스플레이 결과
IPYTHON에서 DISPLAY 가져 오기 MarkDown
display (markdown (완성 .choices [0] .message.content)))
로그인 후 복사

O1-MINI의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 task2_start_time = time.time ()
메시지 = [
   { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."},
   { "역할": "사용자", "내용": "" "주어진 옵션 중에서 숫자를 선택하십시오.
   다음 시리즈에서 물음표 (?)를 대체 할 수 있습니다 .16, 33, 100, 401,?
a) 1235
b) 804
c) 1588
d) 2006 "" "},
]]
파이프 = 파이프 라인 (
   "텍스트 세대",
   모델 = 모델,
   Tokenizer = Tokenizer,
))
generation_args = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "온도": 0.0,
   "do_sample": 거짓,
}
출력 = 파이프 (메시지, ** generation_args) #,
task2_end_time = time.time ()
print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time)
display (markdown ((출력 [0] [ 'generated_text']))))
로그인 후 복사

Phi 4-Mini의 응답

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI는이 숫자 패턴 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 더 잘 수행했습니다. O1-Mini는 패턴을 신속하게 인식하고 단 10.77 초 만에 2006을 올바르게 선택했습니다. 반면에, Phi-4-Mini는 훨씬 더 오래 걸렸고 (50.25 초) 여전히 잘못된 대답을 얻었습니다 (120). 한편 O1-Mini는 명확하고 직접적인 접근 방식을 따라 문제를 올바르게 효율적으로 해결했습니다. 이것은 O1-MINI가 숫자 패턴을 빠르게 발견하는 데 더 나은 반면, PHI-4-MINI는 간단한 문제를 과도하게 복잡하게하는 경향이있어 실수와 지연으로 이어집니다.

작업 3 : 가장 긴 하위 문자 찾기

이 문제는 반복되는 문자가 포함되지 않은 주어진 문자열 내에서 가장 긴 하위 문자의 길이를 찾도록 요청합니다. 예를 들어, "ABCABCBB"문자열에서, 캐릭터를 반복하지 않는 가장 긴 하위 문자열은 "ABC"이며 길이는 3입니다.

프롬프트 : “문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.
LongestSubstring (s : str) -> int를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환하는 함수 길이를 작성하십시오.”

O1-MINI에 입력

 task3_start_time = time.time ()
클라이언트 = OpenAi (API_KEY = API_KEY)
메시지 = [
   {
       "역할": "사용자",
       "콘텐츠": """
문자열이 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.


LongestSubstring (s : str) -> int의 기능 길이를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다.
"" "
   }
]]
# 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다).
인코딩 = tiktoken.get_encoding ( "CL100K_BASE")
# 토큰 수를 계산합니다
input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"])))
완료 = client.chat.completions.create (
   Model = "O1-MINI-2024-09-12",
   메시지 = 메시지
))
output_tokens = len (encoding.encode (wompletion.choices [0] .message.content))
task3_end_time = time.time ()
# 인쇄 결과
print (완료 .choices [0] .message)
print ( "---------------- = 작업 3 : -----------------", Task3_end_Time-Task3_START_TIME)
# 디스플레이 결과
IPYTHON에서 DISPLAY 가져 오기 MarkDown
display (markdown (완성 .choices [0] .message.content)))
로그인 후 복사

O1-MINI의 응답

 def lengthoflongestsubstring (s : str) -> int :
   "" "
   문자열 s에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다.


   매개 변수 :
   s (str) : 입력 문자열.


   보고:
   INT : 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이.
   "" "
   # 사전 각 캐릭터의 마지막 위치를 저장합니다.
   char_map = {}
   # 창의 왼쪽 포인터를 초기화합니다.
   왼쪽 = 0
   # 최대 길이를 초기화합니다.
   max_length = 0


   # 오른쪽 포인터로 문자열을 반복하십시오.
   오른쪽의 경우, 열거 된 사람 :
       # 캐릭터가 char_map에서 발견되고 마지막 위치는> = 왼쪽 포인터 인 경우
       # 왼쪽 포인터를 마지막 발생의 한 위치로 이동하여 복제를 피하십시오.
       char_map 및 char_map [char]> = 왼쪽 인 경우 :
           왼쪽 = char_map [char] 1


       # 캐릭터의 최신 색인 업데이트/삽입.
       char_map [char] = 오른쪽


       # 현재 창의 길이를 계산하고 필요한 경우 max_length를 업데이트하십시오.
       current_window_length = 오른쪽 - 왼쪽 1
       current_window_length> max_length :
           max_length = current_window_length


       # 내부 상태를 추적하기위한 디버그 명세서 (생산에서 제거 될 수 있음)
       # print (f "current ar


   max_length를 반환합니다


# 예제 사용 :
__name__ == "__main__"인 경우 :
   test_strings = [
       "abcabcbb",
       "BBBBB",
       "Pwwkew",
       "",
       "에이",
       "DVDF"
   ]]
   test_strings의 s의 경우 :
       print (f " '{s}'의 문자를 반복하지 않고 가장 긴 하위 문자열은 길이 {lengthoflongestsubstring (s)}입니다.")
로그인 후 복사

산출

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

Phi 4-Mini에 입력

 Transformers 가져 오기 파이프 라인
메시지 = [
   { "역할": "사용자",
    "Content": "" "문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.
반복 된 문자없이 가장 긴 하위 문자의 길이를 반환하는 기능 길이의 길이를 작성하십시오. "" "}, int." ""},
]]
파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true)
파이프 (메시지)
로그인 후 복사

Phi 4-Mini의 응답

 def lengthoflongestsubstring (s : str) -> int :
   char_index_map = {}
   왼쪽 = 0
   max_length = 0
   오른쪽 범위 (Len (s)) :
       char_index_map 및 char_index_map [s [오른쪽]]에서 s [오른쪽]이면 왼쪽 :
           왼쪽 = char_index_map [s [오른쪽]] 1
       char_index_map [s [오른쪽]] = 오른쪽
       max_length = max (max_length, 오른쪽 - 왼쪽 1)


   max_length를 반환합니다
print ( "ABCABCBB '에서 캐릭터를 반복하지 않고 가장 긴 하위 스트링은 길이입니다."
print ( 'bbbbb'에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열은 길이입니다. "
로그인 후 복사

산출

PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?

비교 분석

O1-MINI와 PHI-4-MINI는 슬라이딩 윈도우 메소드를 올바르게 사용했지만 O1-MINI 코드는 더 구성되고 이해하기 쉬웠습니다. 명확한 설명, 의견, 테스트 사례 및 읽기 쉬운 변수 이름이 포함되었습니다. PHI-4-MINI의 솔루션은 짧았지만 설명과 구조가 부족하여 더 큰 프로젝트에서 따라 가기가 더 어려워졌습니다. O1-Mini는 또한 더 빠르고 더 깨끗하고 읽기 쉬운 솔루션을 생산했으며 PHI-4-MINI는 코드를 간략하게 유지하는 데 더 집중했습니다.

전반적인 비교 분석

다음은 세 가지 작업 모두에 대한 전체 비교 분석입니다.

측면 작업 1 (건물 순서) 작업 2 (숫자 시리즈 완료) 작업 3 (가장 긴 비 반복 하위 문자)
정확성 O1-Mini는 정확했고 Phi-4-Mini는 잘못된 대답을했습니다 (“Z”는 옵션이 아닙니다). O1-Mini는 2006 년을 올바르게 식별 한 반면 Phi-4-Mini는 잘못된 대답을 받았습니다 (120). 둘 다 올바른 슬라이딩 윈도우 접근 방식을 구현했습니다.
응답 속도 O1-Mini는 상당히 빠릅니다. O1-Mini는 훨씬 더 빠릅니다 (10.77s vs. 50.25). O1-Mini는 약간 더 빨리 반응했습니다.
접근하다 O1-Mini는 빠르고 논리적 인 공제를 사용했으며 Phi-4-Mini는 불필요한 조치를 취하고 여전히 실수를 저질렀습니다. O1-MINI는 구조적이고 효율적인 패턴 인식 방법을 따랐으며 PHI-4-MINI는 프로세스를 압도하고 잘못된 결과를 얻었습니다. O1-MINI는 구조화되고 잘 문서화 된 솔루션을 제공하는 반면, PHI-4-MINI는 간결하지만 덜 읽기 쉬운 접근법을 사용했습니다.
코딩 관행 적용 할 수 없습니다. 적용 할 수 없습니다. O1-MINI에는 DOCSTRINGS, 의견 및 테스트 사례가 포함되어 이해하고 유지하기가 더 쉽습니다. Phi-4-Mini는 간결성에 중점을 두었지만 문서가 부족했습니다.
최고의 사용 사례 O1-MINI는 논리적 추론 작업에 더 신뢰할 수있는 반면, PHI-4-MINI의 단계별 접근 방식은 복잡한 문제에 더 잘 작동 할 수 있습니다. O1-MINI는 속도와 정확성으로 숫자 패턴 인식을 탁월하지만 PHI-4-MINI의 과다 분석은 실수로 이어질 수 있습니다. O1-MINI는 구조화되고 유지 가능한 코드에 바람직하지만 PHI-4-MINI는 짧고 간결한 구현에 더 좋습니다.

결론

전반적으로 O1-MINI는 구조화 된 추론, 정확성 및 코딩 모범 사례에서 뛰어나서 복잡한 문제 해결 및 유지 관리 가능한 코드에 더 적합했습니다. Phi-4-Mini는 더 빠르지 만, 탐색 적 접근은 때때로 특히 추론 과제에서 비 효율성이나 잘못된 결론으로 ​​이어졌습니다. 코딩에서, O1-MINI는 잘 문서화되고 읽기 쉬운 솔루션을 제공 한 반면, PHI-4-MINI는 명확성 비용으로 간결성을 우선시했다. 속도가 주요 관심사 인 경우 PHI-4-MINI는 확실한 선택이지만 정밀, 선명도 및 구조화 된 문제 해결을 위해 O1-MINI는 더 나은 옵션으로 두드러집니다.

자주 묻는 질문

Q1. 전반적으로 더 정확한 모델은 무엇입니까?

A. O1-MINI는 논리적 추론 작업에서 더 나은 정확도를 보여 주었고, PHI-4-MINI는 때때로 탐색 적 접근 방식을 취하여 오류로 이어졌습니다.

Q2. 응답 시간이 더 빠른 모델은 무엇입니까?

A. PHI-4-MINI는 일반적으로 더 빠른 응답을 제공하지만 때로는 올바른 솔루션에 도달하기 전에 추가 단계가 필요합니다.

Q3. 구조화 된 문제 해결에 더 나은 모델은 무엇입니까?

A. O1-MINI는보다 체계적이고 논리적 인 접근 방식을 따라 명확한 추론과 체계적인 솔루션이 필요한 작업에 더 적합합니다.

Q4. 수치 및 패턴 인식 작업에 어떤 모델이 더 좋습니까?

A. 두 모델 모두 시리즈에서 누락 된 숫자를 올바르게 식별했지만 PHI-4-MINI는 더 빠르지 만 O1-MINI는 접근 방식에서 더 체계적이었습니다.

Q5. 더 나은 코딩 관행을 따르는 모델은 무엇입니까?

A. O1-MINI는 잘 구조화되고 문서화되고 읽을 수있는 코드를 제공하는 반면, PHI-4-MINI는 간결성에 중점을 두지 만 자세한 설명과 테스트 사례는 부족합니다.

Q6. PHI-4-MINI를 통해 언제 O1-MINI를 사용해야합니까?

A. 복잡한 문제 해결 및 소프트웨어 개발과 같이 구조화 된 추론, 정확성 및 코딩 선명도가 필수적 일 때 O1-Mini를 사용하십시오.

위 내용은 PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

창의적인 프로젝트를위한 최고의 AI 아트 발전기 (무료 & amp; 유료) 창의적인 프로젝트를위한 최고의 AI 아트 발전기 (무료 & amp; 유료) Apr 02, 2025 pm 06:10 PM

이 기사는 최고의 AI 아트 생성기를 검토하여 자신의 기능, 창의적인 프로젝트에 대한 적합성 및 가치에 대해 논의합니다. Midjourney를 전문가에게 최고의 가치로 강조하고 고품질의 사용자 정의 가능한 예술에 Dall-E 2를 추천합니다.

Meta Llama 3.2- 분석 Vidhya를 시작합니다 Meta Llama 3.2- 분석 Vidhya를 시작합니다 Apr 11, 2025 pm 12:04 PM

메타의 라마 3.2 : 멀티 모달 및 모바일 AI의 도약 Meta는 최근 AI에서 강력한 비전 기능과 모바일 장치에 최적화 된 가벼운 텍스트 모델을 특징으로하는 AI의 상당한 발전 인 Llama 3.2를 공개했습니다. 성공을 바탕으로 o

최고의 AI 챗봇 비교 (Chatgpt, Gemini, Claude & amp; more) 최고의 AI 챗봇 비교 (Chatgpt, Gemini, Claude & amp; more) Apr 02, 2025 pm 06:09 PM

이 기사는 Chatgpt, Gemini 및 Claude와 같은 최고의 AI 챗봇을 비교하여 고유 한 기능, 사용자 정의 옵션 및 자연어 처리 및 신뢰성의 성능에 중점을 둡니다.

컨텐츠 생성을 향상시키기 위해 AI를 쓰는 최고 AI 작문 컨텐츠 생성을 향상시키기 위해 AI를 쓰는 최고 AI 작문 Apr 02, 2025 pm 06:11 PM

이 기사는 Grammarly, Jasper, Copy.ai, Writesonic 및 Rytr와 같은 최고의 AI 작문 조수에 대해 논의하여 콘텐츠 제작을위한 독특한 기능에 중점을 둡니다. Jasper는 SEO 최적화가 뛰어나고 AI 도구는 톤 구성을 유지하는 데 도움이된다고 주장합니다.

직원에게 AI 전략 판매 : Shopify CEO의 선언문 직원에게 AI 전략 판매 : Shopify CEO의 선언문 Apr 10, 2025 am 11:19 AM

Shopify CEO Tobi Lütke의 최근 메모는 AI 숙련도가 모든 직원에 대한 근본적인 기대를 대담하게 선언하여 회사 내에서 중요한 문화적 변화를 표시합니다. 이것은 도망가는 트렌드가 아닙니다. 그것은 p에 통합 된 새로운 운영 패러다임입니다

AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 AV 바이트 : Meta ' S Llama 3.2, Google의 Gemini 1.5 등 Apr 11, 2025 pm 12:01 PM

이번 주 AI 환경 : 발전의 회오리 바람, 윤리적 고려 사항 및 규제 토론. OpenAi, Google, Meta 및 Microsoft와 같은 주요 플레이어

10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. 10 생성 AI 코드의 생성 AI 코딩 확장 대 코드를 탐색해야합니다. Apr 13, 2025 am 01:14 AM

이봐, 코딩 닌자! 하루 동안 어떤 코딩 관련 작업을 계획 했습니까? 이 블로그에 더 자세히 살펴보기 전에, 나는 당신이 당신의 모든 코딩 관련 문제에 대해 생각하기를 원합니다. 완료? - &#8217

최고의 AI 음성 생성기 선택 : 최고 옵션 검토 최고의 AI 음성 생성기 선택 : 최고 옵션 검토 Apr 02, 2025 pm 06:12 PM

이 기사는 Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson 및 Destript와 같은 최고의 AI 음성 생성기를 검토하여 기능, 음성 품질 및 다양한 요구에 대한 적합성에 중점을 둡니다.

See all articles