Cette chaudière API Node.js, améliorée avec le nouvel outil LLM Codegen, révolutionne la création de projet. Tirant la puissance de LLMS, il automatise la génération de code de module à partir de descriptions de texte simples. Cela rationalise considérablement le développement en incluant des fonctionnalités complètes telles que les tests de bout en bout, les migrations de base de données, les données de semences et la logique métier principale.
Ce projet s'appuie sur un chaudière API préexistant et prêt pour la production. Son architecture principale met l'accent sur le tranchage vertical, les principes de code nettoyants et utilise des technologies comme ZOD pour la validation des entrées, les inversifyjs pour l'injection de dépendance et le super-test pour les tests. Docker Compose facilite les configurations multi-services.
L'ajout LLM Codegen offre plusieurs avantages clés:
Le code généré est propre, maintenable et adhère à l'architecture de découpage verticale établie de la débarquement. Il se concentre uniquement sur les opérations essentielles CRUD, évitant la complexité inutile.
Le dossier llm-codegen
abrite toute la logique de génération de code, indépendamment de la buissier de base. Cela permet une utilisation indépendante de la baillire sans modification.
Le système utilise trois micro-agents: Developer
, Troubleshooter
et TestsFixer
, orchestrés pour générer, déboguer et tester le code. Le Developer
génère le code initial; Le Troubleshooter
traite des erreurs de compilation; et le TestsFixer
garantit que tous les tests passent. Ce processus itératif entraîne un code fonctionnel de haute qualité.
Configuration: Accédez au répertoire llm-codegen
et exécutez npm i
. Configurez votre clé API LLM choisie (Openai, Anthropic Claude ou OpenRouter Llama) dans le fichier .env
. OpenRouter Llama offre un niveau gratuit, mais sa qualité de sortie peut être moins fiable.
EXÉCUTION: Run npm run start
. L'outil invite à une description et à un nom de module. Descriptions détaillées, y compris les attributs et opérations d'entité, donnent de meilleurs résultats.
Développement itératif: Générer le code progressivement, en ajoutant des modules au besoin.
Des exemples de génération de code et de correction d'erreur réussis sont illustrés ci-dessous:
Chaque micro-agent utilise une invite spécifique (voir le lien github pour l'invite Developer
). Des tests approfondis avec divers LLM, y compris gpt-4o-mini
et claude-3-5-sonnet-20241022
, indiquent une qualité de code élevée, bien que claude-3–5-haiku-20241022
produit souvent des résultats moins fiables. gpt-4o-mini
Les séances en moyenne environ 2 cents de coût.
Les journaux d'utilisation anthropique démontrent la consommation de jetons:
Le système atteint un taux de réussite de 95% dans la génération de code compilable et exécutable.
Cette chauffe-plaque, améliorée avec LLM Codegen, offre une approche puissante et efficace du développement Node.js. Les contributions et les commentaires sont les bienvenus!
Mise à jour [9 février 2025]: Support de l'API Deepseek ajouté. C'est moins cher que
gpt-4o-mini
avec une qualité de sortie comparable, mais plus lente et sujette aux erreurs de demande d'API.
* Sauf indication contraire, toutes les images sont par l'auteur *
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!