Dieser Node.js -API -Boilerplate, erweitert mit dem neuen LLM -Codegen -Tool, revolutioniert die Projekterstellung. Durch die Nutzung der Leistung von LLMs wird die Erzeugung der Modulcode aus einfachen Textbeschreibungen automatisiert. Dies optimant die Entwicklung durch umfassende Funktionen wie End-to-End-Tests, Datenbankmigrationen, Saatgutdaten und die Kerngeschäftslogik.
Dieses Projekt baut auf einer vorbestehenden, produktionsbereiteten Node.JS-API-Kesselplatte auf, die sich über Jahre der Entwicklung und der Einhaltung von Best Practices verfeinert hat. Seine Kernarchitektur betont vertikale Schnitt, saubere Codeprinzipien und verwendet Technologien wie ZOD zur Eingabevalidierung, InversifyJS für die Abhängigkeitsinjektion und Supertest für das Testen. Docker Compose erleichtert Multi-Service-Setups.
Die LLM -Codegen -Addition bietet mehrere wichtige Vorteile:
Der generierte Code ist sauber, wartbar und hält sich an der etablierten vertikalen Schnittarchitektur der Boilerplate an. Es konzentriert sich ausschließlich auf wesentliche CRUD -Operationen und vermeidet unnötige Komplexität.
Der Ordner llm-codegen
befindet sich unabhängig von der Kernkesselplatte alle Code -Erzeugungslogik. Dies ermöglicht die unabhängige Verwendung der Kesselplatte ohne Änderung.
Das System verwendet drei Mikroagenten: Developer
, Troubleshooter
und TestsFixer
, orchestriert, um den Code zu generieren, zu debuggen und zu testen. Der Developer
generiert den anfänglichen Code; Die Troubleshooter
adressiert Kompilierungsfehler; und die TestsFixer
stellt sicher, dass alle Tests bestehen. Dieser iterative Prozess führt zu qualitativ hochwertigem Funktionscode.
Setup: Navigieren Sie zum llm-codegen
-Verzeichnis und führen Sie npm i
aus. Konfigurieren Sie Ihren ausgewählten LLM -API -Schlüssel (OpenAI, Anthropic Claude oder OpenRouter Lama) in der Datei .env
. OpenRouter Lama bietet eine kostenlose Stufe, aber seine Ausgangsqualität kann weniger zuverlässig sein.
Ausführung: Ausführen npm run start
. Das Werkzeug fordert eine Modulbeschreibung und einen Namen auf. Detaillierte Beschreibungen, einschließlich Entitätsattributen und -operationen, liefern bessere Ergebnisse.
iterative Entwicklung: inkrementell Code generieren und nach Bedarf Module hinzufügen.
Beispiele für eine erfolgreiche Codegenerierung und Fehlerkorrektur sind unten angezeigt:
Jeder Mikroagent verwendet eine bestimmte Eingabeaufforderung (siehe GitHub-Link für Developer
Eingabeaufforderung). Umfangreiche Tests mit verschiedenen LLMs, einschließlich gpt-4o-mini
und claude-3-5-sonnet-20241022
, weist auf eine hohe Codequalität hin, obwohl claude-3–5-haiku-20241022
häufig weniger zuverlässige Ergebnisse liefert. gpt-4o-mini
Sitzungen durchschnittlich etwa 2 Cent.
anthropische Nutzungsprotokolle zeigen Token -Verbrauch:
Das System erreicht eine Erfolgsrate von 95% bei der Generierung kompilierbarer und runnierbarer Code.
Diese mit LLM -Codegen verbesserte Kesselplatte bietet einen leistungsstarken und effizienten Ansatz für die Entwicklung von Node.js. Beiträge und Feedback sind willkommen!
update [9. Februar 2025]: Deepseek -API -Unterstützung hinzugefügt. Es ist billiger als
gpt-4o-mini
mit vergleichbarer Ausgangsqualität, aber langsamer und anfällig für API -Anforderungsfehler.
*Sofern nicht anders angegeben, stammen alle Bilder vom Autor*
Das obige ist der detaillierte Inhalt vonSo verwenden Sie eine mit LLM betriebene Kesselplatte zum Erstellen Ihrer eigenen Node.js-API. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!