AI 모델의 진화는 효율성과 성능이 핵심 인 소규모 언어 모델 (SLM)에서 새로운 높이에 도달했습니다. 최신 경쟁자 중 PHI-4-MINI와 O1-MINI는 고급 및 효율적인 모델로 두드러집니다. 이 기사에서는 STEM 응용 프로그램 및 코딩 작업에 대한 사용자 경험, 속도 및 성능을 확인하기 위해 PHI-4 MINI vs O1-MINI 비교를 수행 할 것입니다. 우리는 프로그래밍, 디버깅 및 전반적인 효율성에 대한 강점을 평가하여 어떤 모델이 더 잘 수행되는지 확인할 것입니다. 결국, 어떤 모델이 귀하의 요구와 일치하는지에 대한 명확한 관점을 가질 수 있습니다.
PHI-4-MINI는 고성능 추론 및 코딩 작업을 위해 설계된 최첨단 SLM입니다. 그것은 효율성과 정확성 사이의 균형을 유지하여 AI 중심 애플리케이션에서 강력한 경쟁자가됩니다. 이 모델은 계산적으로 효율적이면서도 높은 텍스트 생성 및 복잡한 추론 작업을 위해 설계되어 에지 컴퓨팅 환경에 적합합니다.
PHI-4-MINI는 38 억 파라미터와 128K 토큰 컨텍스트 창을 가진 밀도가 높고 디코더 전용 변압기 모델입니다. 200,064 개의 어휘 크기를 지원하고 그룹화 된 쿼리주의 (GQA)를 통합하여 고성능을 유지하면서 리소스 효율성을 최적화합니다.
그룹화 된 쿼리주의 (GQA)
또한 읽기 : PHI-4 vs GPT-4O-MINI FACE-OFF
O1-Mini는 경제성과 성능 균형을 맞추기위한 가볍고 비용 효율적인 SLM입니다. 일반적인 AI 응용 프로그램에 대한 합리적인 수준의 정확도를 유지하면서 효율적인 처리의 우선 순위를 정합니다.
O1-MINI는 표준 변압기 아키텍처를 따라 PHI-4-MINI보다 매개 변수가 적습니다 (정확한 크기 공개되지 않은). 또한 128K 토큰 컨텍스트 창을 지원하지만 GQA와 같은 아키텍처 최적화보다는 비용 효율적인 처리에 중점을 둡니다.
또한 읽으십시오 : OpenAi의 O1- 프리뷰 vs O1-Mini : AGI 로의 한 걸음
Phi-4-Mini는 추론, 수학 및 코딩과 같은 작업을 위해 설계된 강력한 모델이며 O1-Mini는 비용 효율적인 코딩에 중점을 둔 더 간단한 디자인을 따릅니다. 아래 표는 주요 차이점을 강조합니다.
특징 | Phi-4-Mini | O1-MINI |
건축 유형 | 밀도가 높고 디코더 전용 변압기 | 표준 변압기 (세부 사항 제한) |
매개 변수 | 38 억 | 지정되지 않음 (일반적으로 작음) |
컨텍스트 창 | 128K 토큰 | 128K 토큰 |
주의 메커니즘 | 그룹화 된 쿼리주의 (GQA) | 명시 적으로 상세하지 않습니다 |
공유 임베딩 | 예 | 지정되지 않았습니다 |
교육 데이터 볼륨 | 5 조 토큰 | 지정되지 않았습니다 |
성능 초점 | 추론, 수학, 코딩의 높은 정확도 | 코딩 작업에 비용 효율적입니다 |
배포 적합성 | 에지 컴퓨팅 환경 | 일반적인 사용이지만 덜 강력합니다 |
PHI-4-MINI는 GQA 및 Shared Embedding과 같은 고급 기능으로 두드러 지므로 추론, 코딩 및 API 통합이 우수합니다. 대조적으로, O1-MINI는 코딩에 최적화 된 가볍고 비용 효율적인 대안이지만 PHI-4-MINI에서 볼 수있는 건축 개선이 부족합니다. 둘 중에서 선택하는 것은 우선 순위가 높은 정확도와 추론력 또는 특정 작업의 경제성 및 효율성인지 여부에 따라 다릅니다.
이 섹션에서는 PHI-4-MINI 및 O3-MINI 모델이 더 큰 모델에 비해 추론에서 어떻게 작동하는지 살펴 봅니다. 복잡한 문제를 얼마나 잘 해결하고 논리적 결론을 내리는 데 중점을 두어 더 작고 큰 모델과 더 큰 모델 간의 정확도, 효율성 및 선명도의 차이를 강조합니다.
추론 강화 PHI-4- 미니 및 O1- 미니의 추론 능력은 AIME 2024, MATH-500 및 GPQA 다이아몬드를 포함한 여러 벤치 마크에서 평가되었습니다. 이러한 벤치 마크는 고급 수학적 추론 및 일반적인 문제 해결 기술을 평가하여 DeepSeek, 맞춤형 및 OpenThinker의 여러 대형 모델과 비교할 수있는 기초를 제공합니다.
모델 | AIME | Math-500 | GPQA 다이아몬드 |
---|---|---|---|
O1-MINI* | 63.6 | 90.0 | 60.0 |
Deepseek-R1-Distill-Qwen-7b | 53.3 | 91.4 | 49.5 |
Deepseek-R1-Distill-Llama-8b | 43.3 | 86.9 | 47.3 |
맞춤형 스트라토스 -7b* | 20.0 | 82.0 | 37.8 |
openthinker-7b* | 31.3 | 83.0 | 42.4 |
LLAMA-3-2-3B- 강조 | 6.7 | 44.4 | 25.3 |
Phi-4-Mini | 10.0 | 71.8 | 36.9 |
Phi-4-Mini (추론 훈련) (3.8b) | 50.0 | 90.4 | 49.0 |
38 억 개의 매개 변수가 있음에도 불구하고 추론 훈련 된 PHI-4-MINI는 강력한 성능을 보여 주며 다음과 같은 큰 모델을 능가합니다.
또한, 상당히 큰 7B 모델 인 DeepSeek-R1-Distill-Qwen-7B와 비슷한 성능을 달성하여 효율성을 강조합니다. 그러나 공개되지 않은 매개 변수 크기에도 불구하고 O1-MINI는 여러 벤치 마크를 이끌어 AI 추론 작업에서 강력한 경쟁자가됩니다.
제공된 이미지에 표시된 것처럼 두 모델의 성능은 더 큰 모델에 대한 경쟁력을 강조합니다.
이러한 결과는 O1-MINI가 일반적인 문제 해결 및 추론을 지배하는 반면, PHI-4-MINI (추론 훈련)는 더 작은 크기 (3.8b 매개 변수)에도 불구하고 수학적 벤치 마크에서 탁월하다는 것을 나타냅니다. 두 모델 모두 주요 AI 벤치 마크에서 탁월한 효율성, 도전적이고 도전적이고 훨씬 더 큰 모델을 보여줍니다.
이제 PHI-4-MINI 및 O1-MINI의 추론 및 프로그래밍 기능을 비교할 것입니다. 이를 위해 우리는 두 모델 모두에 동일한 프롬프트를 제공하고 응답을 평가할 것이며 API를 사용하여 모델을로드 할 것입니다. 이 비교에서 우리가 시도 할 작업은 다음과 같습니다.
이 작업은 모델이 주어진 제약 조건에 따라 건물의 상대적 위치를 추론하고 중간 건물을 식별해야합니다.
프롬프트 : “v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다.
옵션 :
a) v
b) w
c) x
d) Y”
OpenAi import OpenAi에서 수입 시간 Tiktoken 수입 IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown 파일로 Open ( "path_to_api_key")을 사용하여 : api_key = file.read (). strip () task1_start_time = time.time () 클라이언트 = OpenAi (API_KEY = API_KEY) 메시지 = [ { "역할": "사용자", "콘텐츠": """ v, w, x, y 및 z라는 5 개의 건물이 연속으로 있습니다 (반드시 그 순서는 아닙니다). V는 W. Z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽입니다. 중간에있는 건물은 어디입니까? 옵션 : a) v b) w c) x d) y "" " } ]] 완료 = client.chat.completions.create ( Model = "O1-MINI-2024-09-12", 메시지 = 메시지 )) task1_end_time = time.time () # 인쇄 결과 print (완료 .choices [0] .message) print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time) # 디스플레이 결과 Ipython에서 Display 가져 오기 Markdown display (markdown (완성 .choices [0] .message.content))
Transformers 가져 오기 파이프 라인 수입 시간 IPYTHON. DISPLY 가져 오기 디스플레이, MarkDown 변압기에서 automodelforcausallm, bitsandbytesconfig Quantization_Config = BitsandbyTesconFig (load_in_8bit = true) # 모델을 직접로드합니다 변압기에서 Autotokenizer, Automodelforcausallm을 가져옵니다 Tokenizer = Autotokenizer.from_pretraind ( "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true) model = automodelforcausallm.from_pretrained ( "Microsoft/phi-4-mini-Instruct", trust_remote_code = true, Quantization_config = Quantization_config) task1_start_time = time.time () 메시지 = [ { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."}, { "역할": "사용자", "컨텐츠": "" ""V, W, X, Y 및 Z라는 5 개의 건물이 연속으로 있습니다 (반드시 순서대로). V는 W. z의 서쪽에 있으며 X의 동쪽에 있고 v의 서쪽은 y의 서쪽에 있습니다. 중간에있는 건물은 무엇입니까? 옵션 : a) v b) w c) x d) y "" "}, ]] 파이프 = 파이프 라인 ( "텍스트 세대", 모델 = 모델, Tokenizer = Tokenizer, )) generation_args = { "max_new_tokens": 1024, "return_full_text": false, "온도": 0.0, "do_sample": 거짓, } 출력 = 파이프 (메시지, ** generation_args) #, task1_end_time = time.time () print ( "---------------- = 작업 1 : -----------------", task1_end_time-task1_start_time) display (markdown ((출력 [0] [ 'generated_text'])))) 파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true) 파이프 (메시지)
O1-MINI는이 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 낫습니다. O1-Mini는 몇 단계만으로 정답 (“V”)을 신속하게 파악하는 반면, Phi-4-Mini는 각 세부 사항을 단계별로 통과하기 때문에 훨씬 오래 걸립니다. 모든 노력에도 불구하고 Phi-4-Mini는 여전히 선택 중 하나가 아닌 잘못된 답변 ( "Z")을 얻습니다. 이것은 PHI-4-MINI가 간단한 논리 문제로 어려움을 겪고 있으며 O1-MINI는 신속하고 올바르게 처리한다는 것을 보여줍니다. Phi-4-Mini의 상세한 사고는 더 어려운 문제에 유용 할 수 있지만이 경우 지연과 실수 만 발생했습니다.
이 작업을 위해서는 모델이 주어진 숫자 시퀀스에서 패턴을 인식하고 누락 된 숫자를 식별해야합니다.
프롬프트 : “다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 숫자를 선택하십시오 : 16, 33, 100, 401?
옵션 : a) 1235
b) 804
c) 1588
d) 2006 ″
task2_start_time = time.time () 클라이언트 = OpenAi (API_KEY = API_KEY) 메시지 = [ { "역할": "사용자", "Content": "" "다음 시리즈에서 물음표 (?)를 대체 할 수있는 주어진 옵션 중에서 번호를 선택하십시오 .16, 33, 100, 401? a) 1235 b) 804 c) 1588 d) 2006 "" " } ]] # 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다). 인코딩 = tiktoken.get_encoding ( "CL100K_BASE") # 토큰 수를 계산합니다 input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"]))) 완료 = client.chat.completions.create ( Model = "O1-MINI-2024-09-12", 메시지 = 메시지 )) output_tokens = len (encoding.encode (wompletion.choices [0] .message.content)) task2_end_time = time.time () # 인쇄 결과 print (완료 .choices [0] .message) print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time) # 디스플레이 결과 IPYTHON에서 DISPLAY 가져 오기 MarkDown display (markdown (완성 .choices [0] .message.content)))
task2_start_time = time.time () 메시지 = [ { "역할": "시스템", "내용": "수치 및 일반적인 추론 질문을 해결하는 전문가입니다."}, { "역할": "사용자", "내용": "" "주어진 옵션 중에서 숫자를 선택하십시오. 다음 시리즈에서 물음표 (?)를 대체 할 수 있습니다 .16, 33, 100, 401,? a) 1235 b) 804 c) 1588 d) 2006 "" "}, ]] 파이프 = 파이프 라인 ( "텍스트 세대", 모델 = 모델, Tokenizer = Tokenizer, )) generation_args = { "max_new_tokens": 1024, "return_full_text": false, "온도": 0.0, "do_sample": 거짓, } 출력 = 파이프 (메시지, ** generation_args) #, task2_end_time = time.time () print ( "---------------- = 작업 2에 대한 총 시간 : ----------------", task2_end_time-task2_start_time) display (markdown ((출력 [0] [ 'generated_text']))))
O1-MINI는이 숫자 패턴 작업의 속도와 정확도 모두에서 PHI-4-MINI보다 더 잘 수행했습니다. O1-Mini는 패턴을 신속하게 인식하고 단 10.77 초 만에 2006을 올바르게 선택했습니다. 반면에, Phi-4-Mini는 훨씬 더 오래 걸렸고 (50.25 초) 여전히 잘못된 대답을 얻었습니다 (120). 한편 O1-Mini는 명확하고 직접적인 접근 방식을 따라 문제를 올바르게 효율적으로 해결했습니다. 이것은 O1-MINI가 숫자 패턴을 빠르게 발견하는 데 더 나은 반면, PHI-4-MINI는 간단한 문제를 과도하게 복잡하게하는 경향이있어 실수와 지연으로 이어집니다.
이 문제는 반복되는 문자가 포함되지 않은 주어진 문자열 내에서 가장 긴 하위 문자의 길이를 찾도록 요청합니다. 예를 들어, "ABCABCBB"문자열에서, 캐릭터를 반복하지 않는 가장 긴 하위 문자열은 "ABC"이며 길이는 3입니다.
프롬프트 : “문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오.
LongestSubstring (s : str) -> int를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환하는 함수 길이를 작성하십시오.”
task3_start_time = time.time () 클라이언트 = OpenAi (API_KEY = API_KEY) 메시지 = [ { "역할": "사용자", "콘텐츠": """ 문자열이 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오. LongestSubstring (s : str) -> int의 기능 길이를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다. "" " } ]] # 호환 인코딩 사용 (CL100K_Base는 새로운 OpenAI 모델에 가장 적합한 옵션입니다). 인코딩 = tiktoken.get_encoding ( "CL100K_BASE") # 토큰 수를 계산합니다 input_tokens = sum (메시지의 msg에 대한 len (encoding.encode (msg [ "content"]))) 완료 = client.chat.completions.create ( Model = "O1-MINI-2024-09-12", 메시지 = 메시지 )) output_tokens = len (encoding.encode (wompletion.choices [0] .message.content)) task3_end_time = time.time () # 인쇄 결과 print (완료 .choices [0] .message) print ( "---------------- = 작업 3 : -----------------", Task3_end_Time-Task3_START_TIME) # 디스플레이 결과 IPYTHON에서 DISPLAY 가져 오기 MarkDown display (markdown (완성 .choices [0] .message.content)))
def lengthoflongestsubstring (s : str) -> int : "" " 문자열 s에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 반환합니다. 매개 변수 : s (str) : 입력 문자열. 보고: INT : 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이. "" " # 사전 각 캐릭터의 마지막 위치를 저장합니다. char_map = {} # 창의 왼쪽 포인터를 초기화합니다. 왼쪽 = 0 # 최대 길이를 초기화합니다. max_length = 0 # 오른쪽 포인터로 문자열을 반복하십시오. 오른쪽의 경우, 열거 된 사람 : # 캐릭터가 char_map에서 발견되고 마지막 위치는> = 왼쪽 포인터 인 경우 # 왼쪽 포인터를 마지막 발생의 한 위치로 이동하여 복제를 피하십시오. char_map 및 char_map [char]> = 왼쪽 인 경우 : 왼쪽 = char_map [char] 1 # 캐릭터의 최신 색인 업데이트/삽입. char_map [char] = 오른쪽 # 현재 창의 길이를 계산하고 필요한 경우 max_length를 업데이트하십시오. current_window_length = 오른쪽 - 왼쪽 1 current_window_length> max_length : max_length = current_window_length # 내부 상태를 추적하기위한 디버그 명세서 (생산에서 제거 될 수 있음) # print (f "current ar max_length를 반환합니다 # 예제 사용 : __name__ == "__main__"인 경우 : test_strings = [ "abcabcbb", "BBBBB", "Pwwkew", "", "에이", "DVDF" ]] test_strings의 s의 경우 : print (f " '{s}'의 문자를 반복하지 않고 가장 긴 하위 문자열은 길이 {lengthoflongestsubstring (s)}입니다.")
산출
Transformers 가져 오기 파이프 라인 메시지 = [ { "역할": "사용자", "Content": "" "문자열 S가 주어지면 캐릭터를 반복하지 않고 가장 긴 부분 문자열의 길이를 찾으십시오. 반복 된 문자없이 가장 긴 하위 문자의 길이를 반환하는 기능 길이의 길이를 작성하십시오. "" "}, int." ""}, ]] 파이프 = 파이프 라인 ( "텍스트 생성", model = "Microsoft/Phi-4-Mini-Instruct", trust_remote_code = true) 파이프 (메시지)
def lengthoflongestsubstring (s : str) -> int : char_index_map = {} 왼쪽 = 0 max_length = 0 오른쪽 범위 (Len (s)) : char_index_map 및 char_index_map [s [오른쪽]]에서 s [오른쪽]이면 왼쪽 : 왼쪽 = char_index_map [s [오른쪽]] 1 char_index_map [s [오른쪽]] = 오른쪽 max_length = max (max_length, 오른쪽 - 왼쪽 1) max_length를 반환합니다 print ( "ABCABCBB '에서 캐릭터를 반복하지 않고 가장 긴 하위 스트링은 길이입니다." print ( 'bbbbb'에서 캐릭터를 반복하지 않고 가장 긴 부분 문자열은 길이입니다. "
산출
O1-MINI와 PHI-4-MINI는 슬라이딩 윈도우 메소드를 올바르게 사용했지만 O1-MINI 코드는 더 구성되고 이해하기 쉬웠습니다. 명확한 설명, 의견, 테스트 사례 및 읽기 쉬운 변수 이름이 포함되었습니다. PHI-4-MINI의 솔루션은 짧았지만 설명과 구조가 부족하여 더 큰 프로젝트에서 따라 가기가 더 어려워졌습니다. O1-Mini는 또한 더 빠르고 더 깨끗하고 읽기 쉬운 솔루션을 생산했으며 PHI-4-MINI는 코드를 간략하게 유지하는 데 더 집중했습니다.
다음은 세 가지 작업 모두에 대한 전체 비교 분석입니다.
측면 | 작업 1 (건물 순서) | 작업 2 (숫자 시리즈 완료) | 작업 3 (가장 긴 비 반복 하위 문자) |
정확성 | O1-Mini는 정확했고 Phi-4-Mini는 잘못된 대답을했습니다 (“Z”는 옵션이 아닙니다). | O1-Mini는 2006 년을 올바르게 식별 한 반면 Phi-4-Mini는 잘못된 대답을 받았습니다 (120). | 둘 다 올바른 슬라이딩 윈도우 접근 방식을 구현했습니다. |
응답 속도 | O1-Mini는 상당히 빠릅니다. | O1-Mini는 훨씬 더 빠릅니다 (10.77s vs. 50.25). | O1-Mini는 약간 더 빨리 반응했습니다. |
접근하다 | O1-Mini는 빠르고 논리적 인 공제를 사용했으며 Phi-4-Mini는 불필요한 조치를 취하고 여전히 실수를 저질렀습니다. | O1-MINI는 구조적이고 효율적인 패턴 인식 방법을 따랐으며 PHI-4-MINI는 프로세스를 압도하고 잘못된 결과를 얻었습니다. | O1-MINI는 구조화되고 잘 문서화 된 솔루션을 제공하는 반면, PHI-4-MINI는 간결하지만 덜 읽기 쉬운 접근법을 사용했습니다. |
코딩 관행 | 적용 할 수 없습니다. | 적용 할 수 없습니다. | O1-MINI에는 DOCSTRINGS, 의견 및 테스트 사례가 포함되어 이해하고 유지하기가 더 쉽습니다. Phi-4-Mini는 간결성에 중점을 두었지만 문서가 부족했습니다. |
최고의 사용 사례 | O1-MINI는 논리적 추론 작업에 더 신뢰할 수있는 반면, PHI-4-MINI의 단계별 접근 방식은 복잡한 문제에 더 잘 작동 할 수 있습니다. | O1-MINI는 속도와 정확성으로 숫자 패턴 인식을 탁월하지만 PHI-4-MINI의 과다 분석은 실수로 이어질 수 있습니다. | O1-MINI는 구조화되고 유지 가능한 코드에 바람직하지만 PHI-4-MINI는 짧고 간결한 구현에 더 좋습니다. |
전반적으로 O1-MINI는 구조화 된 추론, 정확성 및 코딩 모범 사례에서 뛰어나서 복잡한 문제 해결 및 유지 관리 가능한 코드에 더 적합했습니다. Phi-4-Mini는 더 빠르지 만, 탐색 적 접근은 때때로 특히 추론 과제에서 비 효율성이나 잘못된 결론으로 이어졌습니다. 코딩에서, O1-MINI는 잘 문서화되고 읽기 쉬운 솔루션을 제공 한 반면, PHI-4-MINI는 명확성 비용으로 간결성을 우선시했다. 속도가 주요 관심사 인 경우 PHI-4-MINI는 확실한 선택이지만 정밀, 선명도 및 구조화 된 문제 해결을 위해 O1-MINI는 더 나은 옵션으로 두드러집니다.
A. O1-MINI는 논리적 추론 작업에서 더 나은 정확도를 보여 주었고, PHI-4-MINI는 때때로 탐색 적 접근 방식을 취하여 오류로 이어졌습니다.
Q2. 응답 시간이 더 빠른 모델은 무엇입니까?A. PHI-4-MINI는 일반적으로 더 빠른 응답을 제공하지만 때로는 올바른 솔루션에 도달하기 전에 추가 단계가 필요합니다.
Q3. 구조화 된 문제 해결에 더 나은 모델은 무엇입니까?A. O1-MINI는보다 체계적이고 논리적 인 접근 방식을 따라 명확한 추론과 체계적인 솔루션이 필요한 작업에 더 적합합니다.
Q4. 수치 및 패턴 인식 작업에 어떤 모델이 더 좋습니까?A. 두 모델 모두 시리즈에서 누락 된 숫자를 올바르게 식별했지만 PHI-4-MINI는 더 빠르지 만 O1-MINI는 접근 방식에서 더 체계적이었습니다.
Q5. 더 나은 코딩 관행을 따르는 모델은 무엇입니까?A. O1-MINI는 잘 구조화되고 문서화되고 읽을 수있는 코드를 제공하는 반면, PHI-4-MINI는 간결성에 중점을 두지 만 자세한 설명과 테스트 사례는 부족합니다.
Q6. PHI-4-MINI를 통해 언제 O1-MINI를 사용해야합니까?A. 복잡한 문제 해결 및 소프트웨어 개발과 같이 구조화 된 추론, 정확성 및 코딩 선명도가 필수적 일 때 O1-Mini를 사용하십시오.
위 내용은 PHI-4-MINI vs O1-MINI : 어느 것이 더 나은 SLM입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!