O3-MINI d'Openai: un puissant modèle de raisonnement pour les tâches techniques
OpenAI a publié O3-Mini, un modèle de raisonnement de pointe conçu pour la vitesse, l'efficacité et les performances supérieures dans le codage, la tige et la résolution de problèmes logiques. Contrairement à son prédécesseur, O1, O3-Mini possède une empreinte plus petite et une accessibilité améliorée, étant disponible gratuitement pour tous les utilisateurs sur diverses plates-formes, y compris Chatgpt. Pour une plongée plus profonde dans les fonctionnalités et les comparaisons d'O3-Mini avec O1, consultez le blog officiel d'Openai.
Source: Chatgpt
Ce tutoriel démontre les capacités d'O3-Mini en créant une application d'apprentissage automatique à partir de zéro, en tirant parti de ses prouesses dans des tâches techniques complexes, de la génération de code et de la disposition claire des instructions. Nous évaluerons sa capacité à gérer un flux de travail d'apprentissage automatique complet, de la construction et des tests au déploiement.
Image par auteur
Notre objectif est de créer une application d'apprentissage automatique prédisant l'admissibilité au placement des emplois à l'aide de l'ensemble de données de prédiction de placement. Nous guiderons O3-MinI à chaque étape de Chatgpt.
Nous fournirons à O3-MinI les détails de l'ensemble de données et les spécifications du projet, demandant la création de fichiers et de dossiers nécessaires à l'aide de commandes BASH. L'ensemble de données comprend: StudentID, CGPA, stages, projets, ateliers / certifications, aptitudes à Softskillrating, activités parascolaires, placement de placement, ssc et marques HSC et placementStatus (variable cible).
L'invite demande à O3-MinI de générer une structure de projet englobant l'analyse des données, la construction de modèles, le suivi des expériences (en utilisant MLFlow), la formation du modèle (avec un réglage hyperparamètre), une application d'inférence de modèle (par exemple, une application Web de flacon), Dockerfile pour la conteneurisation et le déploiement de nuages (sur des espaces faciaux étreintes). Les livrables attendus comprennent des structures de dossiers, des scripts Python, des suggestions d'outils / bibliothèques, des conseils de configuration MLFlow et des étapes de déploiement.
Le script de bash généré pour la configuration du projet est:
mkdir -p student_placement_project/{data,notebooks,src,app/templates} touch student_placement_project/data/dataset.csv student_placement_project/notebooks/eda.ipynb student_placement_project/src/{__init__.py,data_preprocessing.py,model_training.py,model_inference.py,utils.py} student_placement_project/app/{app.py,requirements.txt} student_placement_project/app/templates/index.html student_placement_project/{Dockerfile,requirements.txt,README.md}
Ce script crée avec succès la structure du projet nécessaire.
Les sections suivantes (analyse des données, prétraitement des données, formation du modèle, suivi des expériences, réglage de l'hyperparamètre, application d'inférence du modèle, dockerfile et déploiement du cloud) détaillent le code généré par O3-MinI pour chaque étape et les résultats obtenus. (Remarque: En raison des contraintes de longueur, les extraits de code détaillés pour chaque étape sont omis ici, mais la réponse originale les inclut.)
L'application finale déployée sur les espaces de face étreintes est illustrée ci-dessous:
Source: placement des étudiants
O3-MinI dépasse les capacités de génération de code GPT-4O et O1 en vitesse et python / html. Son code Python généré se déroule généralement en douceur, et il améliore efficacement le HTML pour l'amélioration des interfaces utilisateur. Ce tutoriel présente la valeur d'O3-Mini pour les scientifiques des données et les professionnels techniques, simplifiant les flux de travail d'apprentissage automatique complexes. N'oubliez pas de fournir un contexte complet et des livrables dans votre invite initiale pour des résultats optimaux. Envisagez d'apprendre à déployer vos propres LLM à l'aide d'outils comme Bentoml pour un plus grand contrôle sur vos applications d'IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!