Inhaltsverzeichnis
Inhaltsverzeichnis
Was ist Phi-4-Mini?
Architekturübersicht
Schlüsselmerkmale
Was ist O1-Mini?
Modellvergleich: Phi-4-Mini gegen O1-Mini
Bewertung der Argumentationsleistung
PHI-4-Mini- und O1-Mini gegenüber größeren Modellen
Benchmark -Vergleiche
Phi-4-Mini gegen O1-Mini: Argumentations- und Codierungsfunktionen
Aufgabe 1: Analyse von Beziehungen zur Aufstellung von Aufbauaufträgen
Eingabe in O1-Mini
Antwort durch O1-Mini
Eingabe in Phi 4-Mini
Antwort durch PHI 4-Mini
Vergleichende Analyse
Aufgabe 2: Logisches Denken in Mathematik
Aufgabe 3: Finden des längsten Substrings
Gesamtvergleichsanalyse
Abschluss
Häufig gestellte Fragen
Heim Technologie-Peripheriegeräte KI PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Mar 21, 2025 am 10:06 AM

Die Entwicklung von KI -Modellen hat neue Höhen erreicht, insbesondere in kleinen Sprachmodellen (SLMs), in denen Effizienz und Leistung der Schlüssel sind. Zu den neuesten Konkurrenten zeichnen sich der pHi-4-Mini und O1-Mini als fortschrittliche und effiziente Modelle aus. In diesem Artikel werden wir einen PHI-4-Mini-VS O1-Mini-Vergleich durchführen, um ihre Benutzererfahrung, Geschwindigkeit und Leistung bei MINT-Anwendungen und Codierungsaufgaben zu lesen. Wir werden ihre Stärken in Programmierung, Debuggen und Gesamteffizienz bewerten, um festzustellen, welches Modell besser funktioniert. Am Ende haben Sie eine klare Perspektive, welches Modell Ihre Anforderungen angeht.

Inhaltsverzeichnis

  • Was ist Phi-4-Mini?
  • Was ist O1-Mini?
  • Modellvergleich: Phi-4-Mini gegen O1-Mini
  • Bewertung der Argumentationsleistung
    • PHI-4-Mini- und O1-Mini gegenüber größeren Modellen
  • Phi-4-Mini gegen O1-Mini: Argumentations- und Codierungsfunktionen
    • Aufgabe 1: Analyse von Beziehungen zur Aufstellung von Aufbauaufträgen
    • Aufgabe 2: Logisches Denken in Mathematik
    • Aufgabe 3: Finden des längsten Substrings
    • Gesamtvergleichsanalyse
  • Abschluss
  • Häufig gestellte Fragen

Was ist Phi-4-Mini?

PHI-4-Mini ist ein hochmodernes SLM, das für Hochleistungs-Argumentations- und Codierungsaufgaben entwickelt wurde. Es schafft ein Gleichgewicht zwischen Effizienz und Genauigkeit und macht es zu einem starken Anwärter in AI-gesteuerten Anwendungen. Das Modell ist für die Erzeugung von Text mit hoher Genauigkeit und komplexe Argumentationsaufgaben ausgelegt und gleichzeitig effizient und für Edge Computing-Umgebungen geeignet

Architekturübersicht

PHI-4-Mini ist ein dichtes Decoder-Transformatormodell mit 3,8-Milliarden-Parametern und einem 128K-Token-Kontextfenster. Es unterstützt eine Vokabulargröße von 200.064 Token und beinhaltet die Aufmerksamkeit von Grupped Query -Aufmerksamkeit (GQA), um die Ressourceneffizienz zu optimieren und gleichzeitig eine hohe Leistung aufrechtzuerhalten.

GROPPELED Query Achtung (GQA) ist ein effizienter Aufmerksamkeitsmechanismus, der die Geschwindigkeit der Multi-Query-Aufmerksamkeit (MQA) mit der Qualität der Multi-Head-Aufmerksamkeit (MHA) ausgleichen, indem Abfrageköpfe gruppiert und Key/Value-Köpfe geteilt werden, die Inferenzgeschwindigkeit für Sprachmodelle verbessert

Schlüsselmerkmale

  • Shared Input-Output-Einbettung: Reduziert den Speicheraufwand, indem Sie die Einschreibungen sowohl für Eingabe als auch für die Ausgabe wiederverwenden.
  • Trainingsdaten: Ausgebildet auf 5 Billionen Token, einschließlich hochwertiger Bildungsmaterial, Codierungsbeispiele und synthetischen Daten, die auf die Argumentation zugeschnitten sind.
  • Leistung: Excels in Argumentation, Mathematik, Codierung und Anweisungen mit der Fähigkeit, externe APIs durch Funktionsaufruf zu integrieren.

Lesen Sie auch: Phi-4 gegen GPT-4O-Mini-Anspielung

Was ist O1-Mini?

O1-Mini ist ein leichtes und kostengünstiges SLM, das darauf abzielt, Erschwinglichkeit und Leistung in Einklang zu bringen. Es priorisiert eine effiziente Verarbeitung und hält gleichzeitig ein angemessenes Maß an Genauigkeit für allgemeine KI -Anwendungen bei.

Architekturübersicht

O1-mini folgt einer Standard-Transformatorarchitektur mit weniger Parametern als PHI-4-Mini (genaue Größe nicht bekannt). Es unterstützt auch ein 128K-Token-Kontextfenster, konzentriert sich jedoch eher auf kostengünstige Verarbeitung als auf architektonische Optimierungen wie GQA.

Lesen Sie auch: Openais O1-Präview gegen O1-Mini: Ein Schritt nach vorne zu Agi

Modellvergleich: Phi-4-Mini gegen O1-Mini

PHI-4-Mini ist ein leistungsstarkes Modell für Aufgaben wie Argumentation, Mathematik und Codierung, während O1-Mini ein einfacheres Design folgt, das sich auf kostengünstige Codierung konzentriert. Die folgende Tabelle zeigt ihre wichtigsten Unterschiede:

Besonderheit Phi-4-Mini O1-Mini
Architekturtyp Dichtes Decoder-Transformator nur für Decoder Standardtransformator (Details Limited)
Parameter 3,8 Milliarden Nicht angegeben (im Allgemeinen kleiner)
Kontextfenster 128k Token 128k Token
Aufmerksamkeitsmechanismus Gruppierte Aufmerksamkeit der Abfrage (GQA) Nicht explizit detailliert
Gemeinsame Einbettungen Ja Nicht angegeben
Trainingsdatenvolumen 5 Billionen Token Nicht angegeben
Leistungsfokus Hohe Genauigkeit in Argumentation, Mathematik, Codierung Kostengünstig für die Codierungsaufgaben
Bereitstellung Eignung Edge Computing -Umgebungen Allgemeiner Gebrauch, aber weniger robust

Phi-4-Mini zeichnet sich mit fortgeschrittenen Funktionen wie GQA und gemeinsam genutzten Einbettungen aus, was es in der Argumentation, Codierung und der API-Integration überlegen macht. Im Gegensatz dazu ist O1-Mini eine leichtere, kostengünstige Alternative, die für die Kodierung optimiert ist, obwohl es die in Phi-4-Mini beobachteten architektonischen Verfeinerungen fehlen. Die Wahl zwischen den beiden hängt davon ab, ob die Priorität eine hohe Genauigkeit und Argumentationsleistung oder Erschwinglichkeit und Effizienz bei bestimmten Aufgaben ist.

Bewertung der Argumentationsleistung

In diesem Abschnitt wird untersucht, wie sich die Phi-4-Mini- und O3-Mini-Modelle im Vergleich zu ihren größeren Modellen im Argumentation entwickeln. Es konzentriert sich darauf, wie gut sie komplexe Probleme lösen und logische Schlussfolgerungen ziehen, wodurch die Unterschiede in Genauigkeit, Effizienz und Klarheit zwischen den kleineren und größeren Modellen hervorgehoben werden.

PHI-4-Mini- und O1-Mini gegenüber größeren Modellen

Die Argumentationsfähigkeiten der argumentativ verstärkten pHi-4-Mini und O1-Mini wurden über mehrere Benchmarks bewertet, einschließlich Aime 2024, Math-500 und GPQA Diamond. Diese Benchmarks bewerten das fortschrittliche mathematische Denken und die allgemeinen Fähigkeiten zur Problemlösung und bilden eine Grundlage für den Vergleich mit mehreren größeren Modellen aus Deepseek, maßgeschneidert und openthinker.

Modell Aime Math-500 GPQA Diamond
o1-mini* 63.6 90.0 60.0
Deepseek-R1-Distill-Qwen-7b 53.3 91.4 49,5
Deepseek-R1-Distill-Llama-8b 43.3 86,9 47,3
Maßgeschneiderte Stratos-7b* 20.0 82.0 37,8
Openthinker-7b* 31.3 83.0 42.4
LAMA-3-2-3B-ISTRUCT 6.7 44.4 25.3
Phi-4-Mini 10.0 71,8 36.9
PHI-4-Mini (Argumentation trainiert) (3,8B) 50.0 90.4 49,0
Quelle: Umarmung

Trotz nur 3,8 Milliarden Parametern zeigt der argumentierte Phi-4-Mini eine starke Leistung und übertrifft größere Modelle wie:

  • Deepseek-R1-Distill-Llama-8b (8B-Parameter)
  • Maßgeschneiderte Stratos-7b (7B-Parameter)
  • OpentHinker-7b (7B-Parameter)

Darüber hinaus erzielt es die Leistung, die mit Deepseek-R1-Distill-Qwen-7b vergleichbar ist, einem signifikant größeren 7B-Modell, das seine Effizienz weiter hervorhebt. O1-mini führt jedoch trotz seiner nicht genannten Parametergröße über mehrere Benchmarks hinweg und macht es zu einem starken Anwärter bei KI-Argumentationsaufgaben.

Benchmark -Vergleiche

Die Leistung beider Modelle, wie im bereitgestellten Bild gezeigt, unterstreicht ihre Wettbewerbsfähigkeit gegen größere Modelle:

  • Aime Benchmark:
    • O1-Mini-Punkte 63,6, die höchste unter allen Modellen.
    • PHI-4-Mini (Argumentation trainiert) bewertet 50,0, eine fünffache Verbesserung gegenüber seiner Basisversion (10.0).
  • Math-500 Benchmark:
    • PHI-4-Mini (90,4) übertrifft O1-Mini (90,0) leicht, was es für komplexe mathematische Argumentationsaufgaben hochwirksam ist.
  • GPQA Diamond:
    • O1-Mini führt mit 60,0 und zeigt überlegene allgemeine Problemlösungsfähigkeiten.
    • PHI-4-Mini (49,0) übertrifft mehrere 7B- und 8B-Modelle und beweist seine Effizienz bei den Argumentationsaufgaben.

Diese Ergebnisse deuten darauf hin, dass O1-mini im allgemeinen Problemlösen und Argumentation dominiert, während pHI-4-Mini (argumentierende) trotz seiner kleineren Größe (3,8B-Parameter) in mathematischen Benchmarks auszeichnet. Beide Modelle zeigen eine außergewöhnliche Effizienz, und übertreffen sogar deutlich größere Modelle in wichtigen KI -Benchmarks.

Phi-4-Mini gegen O1-Mini: Argumentations- und Codierungsfunktionen

Jetzt werden wir die Argumentations- und Programmierkapazitäten von PHI-4-Mini und O1-Mini vergleichen. Dafür geben wir beide Modelle die gleiche Eingabeaufforderung und bewerten ihre Antworten und verwenden API, um das Modell zu laden. Hier sind die Aufgaben, die wir in diesem Vergleich ausprobieren werden:

  1. Analyse von Beziehungsbeziehungen für Gebäude Ordnung
  2. Logische Argumente in Mathematik
  3. Das längste Substring finden

Aufgabe 1: Analyse von Beziehungen zur Aufstellung von Aufbauaufträgen

Diese Aufgabe verlangt, dass das Modell die relativen Positionen von Gebäuden basierend auf den angegebenen Einschränkungen ableiten und das mittlere Gebäude identifiziert.

Eingabeaufforderung: „Es gibt fünf Gebäude, die V, W, X, Y und Z in einer Reihe bezeichnet (nicht unbedingt in dieser Reihenfolge). V befindet sich westlich von W. Z ist östlich von X und westlich von V, w ist westlich von Y. Welches ist das Gebäude in der Mitte?
Optionen:
A) v
B) w
C) x
D) y ”

Eingabe in O1-Mini

 von Openai Import Openai
Importzeit
Tiktoken importieren
Aus Ipython.display Import Display, Markdown
mit open ("path_to_api_key") als Datei:
   api_key = file.read (). strip ()


task1_start_time = time.time ())
client = openai (api_key = api_key)
Nachrichten = [
   {
       "Rolle": "Benutzer",
       "Inhalt": """
   Es gibt fünf Gebäude, die V, W, X, Y und Z in Folge genannt werden (nicht unbedingt in dieser Reihenfolge).
   V befindet sich westlich von W. z befindet sich östlich von X und westlich von V, w ist westlich von Y.
   Welches ist das Gebäude in der Mitte?
   Optionen:
   A) v
   B) w
   C) x
   D) y
"" "
   }
]
Completion = client.chat.completions.create (
   Modell = "O1-Mini-2024-09-12",
   Nachrichten = Nachrichten
)
task1_end_time = time.time ())
# Ergebnisse gedruckt
drucken (Fertigstellung.Choices [0] .Message)
print ("---------------- = Gesamtzeit für Aufgabe 1: ------------------", Task1_end_time-Task1_start_Time)
# Anzeigeergebnis
von ipython.display import markdown
Anzeige (Markdown (Fertigstellung.Choices [0] .Message.Content))
Nach dem Login kopieren

Antwort durch O1-Mini

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Eingabe in Phi 4-Mini

 Aus Transformatoren -Importpipeline
Importzeit
Aus Ipython.display Import Display, Markdown


von Transformers importieren AutomodelforcausAllm, Bitsandbytesconfig
quantization_config = bitsAndBytesconfig (load_in_8bit = true)


# Modell direkt laden
von Transformers importieren Autotokenizer, AutomodelforcausAllm
tokenizer = autotokenizer.from_pretrained ("microsoft/phi-4-mini-instruct", Trust_Remote_Code = true)
model = automodelforcausAllm.from_prisiled ("microsoft/phi-4-mini-instruct", treue_remote_code = true, quantization_config = quantization_config) 


task1_start_time = time.time ())
Nachrichten = [
   {"Rolle": "System", "Inhalt": "Sie sind ein Experte für die Lösung numerischer und allgemeiner Argumentationsfragen."},
   {"Rolle": "Benutzer", "Inhalt": "" Es gibt fünf Gebäude, die als V, W, X, Y und Z in einer Reihe bezeichnet werden (nicht unbedingt in dieser Reihenfolge).
   V befindet sich westlich von W. z befindet sich östlich von X und westlich von V befindet sich w westlich von y. Welches ist das Gebäude in der Mitte? Optionen:
A) v
B) w
C) x
D) y "" "},
]


Pipe = Pipeline (
   "Text-Generation",
   Modell = Modell,
   Tokenizer = Tokenizer,
)
Generation_ARGS = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "Temperatur": 0,0,
   "Do_Sample": Falsch,
}
output = Pipe (Nachrichten, ** Generation_args) #,,
task1_end_time = time.time ())
print ("---------------- = Gesamtzeit für Aufgabe 1: ------------------", Task1_end_time-Task1_start_Time)
display (markdown ((Ausgabe [0] ['generated_text']))))
Pipe = Pipeline ("Text-Generation", model = "microsoft/phi-4-mini-instruct", treue_remote_code = true)
Pfeife (Nachrichten)
Nach dem Login kopieren

Antwort durch PHI 4-Mini

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Vergleichende Analyse

O1-mini ist sowohl in Geschwindigkeit als auch Genauigkeit für diese Aufgabe besser als PHI-4-Mini. O1-mini ermittelt schnell die richtige Antwort („V“) mit nur wenigen Schritten, während pHI-4-mini viel länger dauert, da es jedes Detailschritt Schritt für Schritt durchläuft. Trotz all dieser Anstrengungen erhält Phi-4-Mini immer noch die falsche Antwort („Z“), was nicht einmal eine der Entscheidungen ist. Dies zeigt, dass Phi-4-Mini mit einfachen logischen Problemen zu kämpfen hat, während O1-Mini sie schnell und korrekt behandelt. Das detaillierte Denken von PHI-4-Mini könnte für schwierigere Probleme nützlich sein, aber in diesem Fall verursachte es nur Verzögerungen und Fehler.

Aufgabe 2: Logisches Denken in Mathematik

Diese Aufgabe verlangt, dass das Modell das Muster in einer bestimmten Zahlensequenz erkennt und die fehlende Zahl identifiziert.

Eingabeaufforderung: „Wählen Sie die Nummer unter den angegebenen Optionen aus, die das Fragezeichen (?) In der folgenden Reihe ersetzen können: 16, 33, 100, 401,?
Optionen: a) 1235
B) 804
C) 1588
D) 2006 ″

Eingabe in O1-Mini

 Task2_start_time = time.time ())

client = openai (api_key = api_key)

Nachrichten = [
   {
       "Rolle": "Benutzer",
       "Inhalt": "" "Wählen Sie die Nummer unter den angegebenen Optionen aus, die das Fragezeichen (?) In der folgenden Serie ersetzen können.16, 33, 100, 401,?
       A) 1235
       B) 804
       C) 1588
       D) 2006 "" "
   }
]


# Verwenden Sie eine kompatible Codierung (CL100K_Base ist die beste Option für neue OpenAI -Modelle)
coding = tiktoken.get_encoding ("cl100k_base")


# Token -Zählungen berechnen
input_tokens = sum (len (coding.encode (msg ["content"]) für msg in meldungen)
Completion = client.chat.completions.create (
   Modell = "O1-Mini-2024-09-12",
   Nachrichten = Nachrichten
)
output_tokens = len (coding.encode (completion.choices [0] .Message.Content))


task2_end_time = time.time ())
# Ergebnisse gedruckt
drucken (Fertigstellung.Choices [0] .Message)
print ("---------------- = Gesamtzeit für Aufgabe 2: ------------------", Task2_end_time-Task2_start_Time)
# Anzeigeergebnis
von ipython.display import markdown
Anzeige (Markdown (Fertigstellung.Choices [0] .Message.Content))
Nach dem Login kopieren

Antwort durch O1-Mini

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Eingabe in Phi 4-Mini

 Task2_start_time = time.time ())
Nachrichten = [
   {"Rolle": "System", "Inhalt": "Sie sind ein Experte für die Lösung numerischer und allgemeiner Argumentationsfragen."},
   {"Rolle": "Benutzer", "Inhalt": "" Wählen Sie die Nummer unter den angegebenen Optionen aus
   Das kann das Fragezeichen (?) in der folgenden Reihe ersetzen.16, 33, 100, 401,?
A) 1235
B) 804
C) 1588
D) 2006 "" "},
]
Pipe = Pipeline (
   "Text-Generation",
   Modell = Modell,
   Tokenizer = Tokenizer,
)
Generation_ARGS = {
   "max_new_tokens": 1024,
   "return_full_text": false,
   "Temperatur": 0,0,
   "Do_Sample": Falsch,
}
output = Pipe (Nachrichten, ** Generation_args) #,,
task2_end_time = time.time ())
print ("---------------- = Gesamtzeit für Aufgabe 2: ------------------", Task2_end_time-Task2_start_Time)
display (markdown ((Ausgabe [0] ['generated_text']))))
Nach dem Login kopieren

Antwort durch PHI 4-Mini

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Vergleichende Analyse

O1-mini erzielte sowohl in Geschwindigkeit als auch in Genauigkeit für diese Zahlenmusteraufgabe besser als PHI-4-Mini. O1-Mini erkannte das Muster schnell und wählte 2006 in nur 10,77 Sekunden richtig. Andererseits dauerte der Phi-4-Mini viel länger (50,25 Sekunden) und bekam immer noch die falsche Antwort (120). In der Zwischenzeit folgte O1-Mini einem klaren und direkten Ansatz und löste das Problem korrekt und effizient. Dies zeigt, dass O1-mini schnell Zahlenmuster schnell erkennen kann, während phi-4-mini einfache Probleme überkomplizieren, was zu Fehlern und Verzögerungen führt.

Aufgabe 3: Finden des längsten Substrings

In diesem Problem werden Sie aufgefordert, die Länge des längsten Substrings innerhalb einer bestimmten Zeichenfolge zu finden, die keine wiederholenden Zeichen enthält. Zum Beispiel wäre in der Zeichenfolge „ABCABCBB“ das längste Substring ohne sich wiederholende Zeichen „ABC“ und seine Länge 3.

Eingabeaufforderung: „Finden Sie bei einer Zeichenfolge die Länge des längsten Substrings, ohne Zeichen zu wiederholen.
Schreiben Sie eine Funktionslänge, in der Substring (s: str) -> int, die die Länge des längsten Substrings zurückgibt, ohne Zeichen zu wiederholen. “

Eingabe in O1-Mini

 task3_start_time = time.time ())
client = openai (api_key = api_key)
Nachrichten = [
   {
       "Rolle": "Benutzer",
       "Inhalt": """
Finden Sie bei einer Zeichenfolge die Länge des längsten Substrings, ohne Zeichen zu wiederholen.


Schreiben Sie eine Funktionslänge, in der Substring (s: str) -> int, die die Länge des längsten Substrings zurückgibt, ohne Zeichen zu wiederholen.
"" "
   }
]
# Verwenden Sie eine kompatible Codierung (CL100K_Base ist die beste Option für neue OpenAI -Modelle)
coding = tiktoken.get_encoding ("cl100k_base")
# Token -Zählungen berechnen
input_tokens = sum (len (coding.encode (msg ["content"]) für msg in meldungen)
Completion = client.chat.completions.create (
   Modell = "O1-Mini-2024-09-12",
   Nachrichten = Nachrichten
)
output_tokens = len (coding.encode (completion.choices [0] .Message.Content))
task3_end_time = time.time ())
# Ergebnisse gedruckt
drucken (Fertigstellung.Choices [0] .Message)
print ("---------------- = Gesamtzeit für Aufgabe 3: ------------------", Task3_end_time-Task3_start_Time)
# Anzeigeergebnis
von ipython.display import markdown
Anzeige (Markdown (Fertigstellung.Choices [0] .Message.Content))
Nach dem Login kopieren

Antwort durch O1-Mini

 Def Länge der Länge (S: STR) -> INT:
   "" "
   Gibt die Länge des längsten Substrings zurück, ohne die Zeichen in der Zeichenfolge zu wiederholen.


   Parameter:
   S (STR): Die Eingangszeichenfolge.


   Rückgaben:
   INT: Die Länge des längsten Substrings, ohne Zeichen zu wiederholen.
   "" "
   # Wörterbuch, um die letzten Positionen jedes Charakters zu speichern.
   char_map = {}
   # Initialisieren Sie den linken Zeiger des Fensters.
   links = 0
   # Initialisieren Sie die maximale Länge.
   max_length = 0


   # Über die Zeichenfolge mit dem richtigen Zeiger iterieren.
   Für das Recht, Char in Enumerate (en):
       # Wenn das Zeichen in char_map gefunden wird und seine letzte Position> = linker Zeiger ist,
       # Bewegen Sie den linken Zeiger in eine Position rechts von seinem letzten Ereignis, um Duplikate zu vermeiden.
       Wenn char in char_map und char_map [char]> = links:
           links = char_map [char] 1


       # Den neuesten Index des Zeichens aktualisieren/einfügen.
       char_map [char] = rechts


       # Berechnen Sie die Länge des aktuellen Fensters und aktualisieren Sie bei Bedarf max_length.
       current_window_length = rechts - links 1
       Wenn current_window_length> max_length:
           max_length = current_window_length


       # Debugg -Aussagen, um den internen Zustand zu verfolgen (kann in der Produktion entfernt werden)
       # print (f "aktuelles Zeichen: {char}, links: {links}, rechts: {rechts}, aktuelles Fenster: '{s [links: rechts 1]}', Max Länge: {max_length}")


   Return max_length


# Beispielnutzung:
Wenn __name__ == "__main__":
   test_strings = [
       "abcabcbb",
       "BBBBBB",
       "pwwkew",
       "",
       "A",
       "DVDF"
   ]
   für s in test_strings:
       print (f "längstes Substring, ohne Zeichen in '{s}' zu wiederholen, ist von Länge {LängeOflongestSubstring (s)}.").
Nach dem Login kopieren

Ausgabe

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Eingabe in Phi 4-Mini

 Aus Transformatoren -Importpipeline
Nachrichten = [
   {"Rolle": "Benutzer",
    "Inhalt": "" "In einer Zeichenfolge s die Länge des längsten Substrings finden, ohne Zeichen zu wiederholen.
Schreiben Sie eine Funktion Länge, die Substring (s: str) -> int, die die Länge des längsten Substrings zurückgibt, ohne Zeichen zu wiederholen. "" "},
]
Pipe = Pipeline ("Text-Generation", model = "microsoft/phi-4-mini-instruct", treue_remote_code = true)
Pfeife (Nachrichten)
Nach dem Login kopieren

Antwort durch PHI 4-Mini

 Def Länge der Länge (S: STR) -> INT:
   char_index_map = {}
   links = 0
   max_length = 0
   für rechts im Bereich (Len (s)):
       Wenn s [rechts] in char_index_map und char_index_map [s [rechts]]> = links:
           links = char_index_map [s [rechts]] 1
       char_index_map [s [rechts]] = rechts
       max_length = max (max_length, rechts - links 1)


   Return max_length
Print ("Längste Substring ohne die Wiederholung von Zeichen in 'ABCABCBB' ist von Länge", LängeOflongestSubstring ("ABCABCBB"))
print ("Längste Substring ohne die Wiederholung von Zeichen in 'BBBBB' ist von Länge", Länge, die in der Lage ist, ("BBBBBB"), Länge, Länge.
Nach dem Login kopieren

Ausgabe

PHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?

Vergleichende Analyse

Sowohl O1-Mini als auch Phi-4-Mini verwendeten die Gleitfenstermethode korrekt, aber der Code von O1-Mini war organisierter und leichter zu verstehen. Es enthielt klare Erklärungen, Kommentare, Testfälle und leicht zu lesende Variablennamen. Die Lösung von PHI-4-Minis war kürzer, fehlten jedoch Erklärungen und Struktur, was es schwieriger machte, in größeren Projekten zu folgen. O1-mini war ebenfalls schneller und erzeugte eine sauberere, lesbarere Lösung, während sich Phi-4-Mini mehr darauf konzentrierte, den Code kurz zu halten.

Gesamtvergleichsanalyse

Hier ist die Gesamtvergleichsanalyse für alle 3 Aufgaben:

Aspekt Aufgabe 1 (Bauauftrag) Aufgabe 2 (Abschluss der Zahlenreihe) Aufgabe 3 (längste nicht wiederauflösende Substring)
Genauigkeit O1-Mini war korrekt, während pHi-4-Mini eine falsche Antwort gab („z“, was keine Option war). O1-mini identifizierte 2006 korrekt, während phi-4-mini die falsche Antwort erhielt (120). Beide implementierten den richtigen Ansatz für das Schiebenfenster.
Reaktionsgeschwindigkeit O1-mini war deutlich schneller. O1-mini war viel schneller (10,77S gegenüber 50,25s). O1-Mini reagierte etwas schneller.
Ansatz O1-Mini verwendete einen schnellen, logischen Abzug, während Phi-4-Mini unnötige Schritte unternahm und dennoch einen Fehler machte. O1-mini folgte einer strukturierten und effizienten Mustererkennungsmethode, während phi-4-mini den Prozess überkomplizierte und das falsche Ergebnis erzielte. O1-mini lieferte eine strukturierte und gut dokumentierte Lösung, während pHi-4-Mini einen kurzen, aber weniger lesbaren Ansatz verwendete.
Codierungspraktiken Nicht anwendbar. Nicht anwendbar. O1-mini umfasste Docstrings, Kommentare und Testfälle, die das Verständnis und die Aufrechterhaltung erleichterten. Phi-4-Mini konzentrierte sich auf Kürze, aber es fehlte die Dokumentation.
Bester Anwendungsfall O1-mini ist für logische Argumentationsaufgaben zuverlässiger, während der Schritt-für-Schritt-Ansatz von Phi-4-Mini für komplexe Probleme besser funktionieren kann. O1-mini zeichnet sich in der Zahlenmustererkennung mit Geschwindigkeit und Genauigkeit aus, während die Überanalyse von PHI-4-Minis zu Fehlern führen kann. O1-mini ist für strukturierten, wartbaren Code vorzuziehen, während PHI-4-Mini für kurze, prägnante Implementierungen besser ist.

Abschluss

Insgesamt hat O1-Mini in strukturiertem Denken, Genauigkeit und Codierungsbesten ausgezeichnet, was es für komplexe Problemlösungen und Wartungscode besser geeignet hat. Während pHi-4-Mini schneller war, führte sein explorativer Ansatz gelegentlich zu Ineffizienzen oder falschen Schlussfolgerungen, insbesondere bei Argumentationsaufgaben. Bei der Codierung lieferte O1-Mini gut dokumentierte und lesbare Lösungen, während pHi-4-Mini-Kürze die Kürze auf Kosten der Klarheit priorisierte. Wenn Geschwindigkeit das Hauptanliegen ist, ist der pHi-4-Mini eine solide Wahl, aber für Präzision, Klarheit und strukturierte Problemlösung sticht O1-Mini als bessere Option.

Häufig gestellte Fragen

Q1. Welches Modell ist insgesamt genauer?

A. O1-Mini zeigte eine bessere Genauigkeit bei logischen Argumentationsaufgaben, während pHI-4-Mini manchmal einen explorativen Ansatz verfolgte, der zu Fehlern führte.

Q2. Welches Modell ist schneller als Reaktionszeit?

A. PHI-4-Mini liefert im Allgemeinen schnellere Antworten, es unternimmt jedoch manchmal zusätzliche Schritte, bevor er die richtige Lösung erreicht.

Q3. Welches Modell ist besser für die strukturierte Problemlösung?

A. O1-Mini folgt einem strukturierteren und logischen Ansatz, wodurch er für Aufgaben geeigneter wird, die ein klares Denken und systematische Lösungen erfordern.

Q4. Welches Modell ist besser für numerische und Mustererkennungsaufgaben?

A. Beide Modelle identifizierten die fehlende Zahl in der Serie korrekt, aber Phi-4-Mini war schneller, während O1-Mini in seinem Ansatz methodischer war.

Q5. Welches Modell folgt bessere Codierungspraktiken?

A. o1-mini bietet gut strukturierte, dokumentierte und lesbare Code, während sich der pHI-4-Mini auf die Kürze konzentriert, aber detaillierte Erklärungen und Testfälle fehlen.

Q6. Wann sollte ich O1-Mini über Phi-4-Mini verwenden?

A. Verwenden Sie O1-mini, wenn strukturiertes Denken, Genauigkeit und Codierung der Klarheit wesentlich sind, wie beispielsweise in komplexer Problemlösung und Softwareentwicklung.

Das obige ist der detaillierte Inhalt vonPHI-4-mini gegen O1-Mini: Welches ist der bessere SLM?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Beste KI -Kunstgeneratoren (kostenlos & amp; bezahlt) für kreative Projekte Apr 02, 2025 pm 06:10 PM

Der Artikel überprüft Top -KI -Kunstgeneratoren, diskutiert ihre Funktionen, Eignung für kreative Projekte und Wert. Es zeigt MidJourney als den besten Wert für Fachkräfte und empfiehlt Dall-E 2 für hochwertige, anpassbare Kunst.

Erste Schritte mit Meta Lama 3.2 - Analytics Vidhya Erste Schritte mit Meta Lama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

Metas Lama 3.2: Ein Sprung nach vorne in der multimodalen und mobilen KI Meta hat kürzlich Lama 3.2 vorgestellt, ein bedeutender Fortschritt in der KI mit leistungsstarken Sichtfunktionen und leichten Textmodellen, die für mobile Geräte optimiert sind. Aufbau auf dem Erfolg o

Beste AI -Chatbots verglichen (Chatgpt, Gemini, Claude & amp; mehr) Beste AI -Chatbots verglichen (Chatgpt, Gemini, Claude & amp; mehr) Apr 02, 2025 pm 06:09 PM

Der Artikel vergleicht Top -KI -Chatbots wie Chatgpt, Gemini und Claude und konzentriert sich auf ihre einzigartigen Funktionen, Anpassungsoptionen und Leistung in der Verarbeitung und Zuverlässigkeit natürlicher Sprache.

Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Top -KI -Schreibassistenten, um Ihre Inhaltserstellung zu steigern Apr 02, 2025 pm 06:11 PM

In dem Artikel werden Top -KI -Schreibassistenten wie Grammarly, Jasper, Copy.ai, Writesonic und RYTR erläutert und sich auf ihre einzigartigen Funktionen für die Erstellung von Inhalten konzentrieren. Es wird argumentiert, dass Jasper in der SEO -Optimierung auszeichnet, während KI -Tools dazu beitragen, den Ton zu erhalten

Verkauf von KI -Strategie an Mitarbeiter: Shopify -CEO Manifesto Verkauf von KI -Strategie an Mitarbeiter: Shopify -CEO Manifesto Apr 10, 2025 am 11:19 AM

Das jüngste Memo von Shopify -CEO Tobi Lütke erklärt kühn für jeden Mitarbeiter eine grundlegende Erwartung und kennzeichnet eine bedeutende kulturelle Veränderung innerhalb des Unternehmens. Dies ist kein flüchtiger Trend; Es ist ein neues operatives Paradigma, das in P integriert ist

AV -Bytes: META ' S Lama 3.2, Googles Gemini 1.5 und mehr AV -Bytes: META ' S Lama 3.2, Googles Gemini 1.5 und mehr Apr 11, 2025 pm 12:01 PM

Die KI -Landschaft dieser Woche: Ein Wirbelsturm von Fortschritten, ethischen Überlegungen und regulatorischen Debatten. Hauptakteure wie OpenAI, Google, Meta und Microsoft haben einen Strom von Updates veröffentlicht, von bahnbrechenden neuen Modellen bis hin zu entscheidenden Verschiebungen in LE

10 generative AI -Codierungsweiterungen im VS -Code, die Sie untersuchen müssen 10 generative AI -Codierungsweiterungen im VS -Code, die Sie untersuchen müssen Apr 13, 2025 am 01:14 AM

Hey da, codieren Ninja! Welche Codierungsaufgaben haben Sie für den Tag geplant? Bevor Sie weiter in diesen Blog eintauchen, möchte ich, dass Sie über all Ihre Coding-Leiden nachdenken-die Auflistung auflisten diese auf. Erledigt? - Lassen Sie &#8217

Auswahl des besten KI -Sprachgenerators: Top -Optionen überprüft Auswahl des besten KI -Sprachgenerators: Top -Optionen überprüft Apr 02, 2025 pm 06:12 PM

Der Artikel überprüft Top -KI -Sprachgeneratoren wie Google Cloud, Amazon Polly, Microsoft Azure, IBM Watson und Descript, wobei sie sich auf ihre Funktionen, die Sprachqualität und die Eignung für verschiedene Anforderungen konzentrieren.

See all articles