Les Six Triple Eight comptaient sur la discipline et la coordination pour exécuter leur mission. Nous refléterons cela en créant et en soumettant un travail de mise au point, permettant au LLM d'apprendre de notre ensemble de données organisé.
Lorsque vous créez une tâche de réglage fin via client.fine_tuning.job.create(), vous soumettez votre configuration et votre ensemble de données à OpenAI pour formation. Vous trouverez ci-dessous les paramètres clés et leurs objectifs.
client.fine_tuning.job.create( model="gpt-3.5-turbo", training_file="train_id", hyperparameters={ "n_epochs": 1 }, validation_file="val_id" )
Gestion des tâches de réglage fin
Récupère jusqu'à 10 tâches de réglage fin.
client.fine_tuning.jobs.list(limit=10)
Récupérer un travail spécifique
client.fine_tuning.retrieve("job_id")
Liste des événements pour un travail
client.fine_tuning.list_events( fine_tuning_job_id="xxxx", limit=5 )
Résumé
Sélection du modèle : choisissez un modèle GPT approprié à affiner.
Préparation des données : téléchargez des fichiers JSONL et notez leurs identifiants.
Hyperparamètres : ajustez la taille du lot, le taux d'apprentissage et les époques pour des performances optimales.
Surveillance : utilisez les fichiers de validation, la récupération des tâches et la journalisation des événements pour garantir l'efficacité de vos trains miniatures.
Reproductibilité : définissez une valeur de départ si des résultats cohérents sont importants pour votre flux de travail.
En suivant ces étapes, vous disposerez d'un chemin clair pour soumettre et gérer vos tâches de réglage fin dans OpenAI, garantissant ainsi que votre modèle est formé précisément sur vos données personnalisées.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!