Nachrichten vom 15. November: Microsoft hat kürzlich eine Methode namens „Everything of Thought“ (XOT) auf den Markt gebracht, die von Google DeepMinds AlphaZero inspiriert ist und kompakte neuronale Netze verwendet, um die Argumentationsfähigkeiten von KI-Modellen zu verbessern.
Microsoft hat mit dem Georgia Institute of Technology und der East China Normal University zusammengearbeitet, um diesen Algorithmus zu entwickeln, der die Funktionen des Verstärkungslernens (Reinforcement Learning) und der Monte-Carlo-Baumsuche (MCTS) für eine komplexe Leistung integriert Entscheidungsumgebungen, um die Effektivität der Problemlösung weiter zu verbessern. Hinweis von dieser Website: Das Microsoft-Forschungsteam gab an, dass die XOT-Methode das Sprachmodell auf unbekannte Probleme erweitern kann und sich in strengen Tests von Game of 24, 8-Puzzle und Pocket Cube deutlich verbessert hat. Die Ergebnisse zeigen, dass XOT deutlich besser ist als andere Methoden und sogar das Problem löst, wo andere Methoden versagen. Allerdings erreicht XOT keine 100-prozentige Zuverlässigkeit Das XOT-Framework umfasst die folgenden Schlüsselschritte:PDF] hier bei, interessierte Benutzer können es ausführlich lesen.
Das obige ist der detaillierte Inhalt vonMicrosoft führt die XOT-Technologie ein, um die Argumentationsfähigkeiten von Sprachmodellen zu verbessern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!