建築コードシフト

WBOY
リリース: 2024-09-10 11:08:32
オリジナル
960 人が閲覧しました

今週、私は codeshift という名前のコマンドライン ツールの開発に取り組んできました。このツールを使用すると、ユーザーはソース コード ファイルを入力し、プログラミング言語を選択し、選択した言語に翻訳できます。

Building codeshift

内部で特別なことは行われていません。翻訳を処理するために Groq と呼ばれる AI プロバイダーが使用されているだけです。しかし、私は開発プロセス、それがどのように使用され、どのような機能が提供されるのかについて知りたかったのです。

Building codeshift ウダイラナ / コードシフト

コードシフト

ソース コード ファイルを任意の言語に変換するコマンドライン ツール。

Building codeshift

特徴

  • 複数の入力ファイルを受け入れます
  • 標準出力へのストリーム出力
  • 出力言語を選択できます
  • 出力をファイルに書き込むファイルパスを指定できます
  • .env でカスタム API キーを使用できる

インストール

  • Node.js をインストールする
  • Groq API キーを取得する
  • Git でリポジトリのクローンを作成するか、.zip としてダウンロードします
  • package.json を含むリポジトリ ディレクトリ内で、npm install を実行します。
    • (オプション) npm install -g を実行します。パッケージをグローバルにインストールします (ノードにプレフィックスを付けずに実行できるようにします)
  • .env というファイルを作成し、Groq API キーを追加します: GROQ_API_KEY=API_KEY_HERE

使用法

codeshift [-o ] <入力ファイル...>

codeshift -oindex.go go example/index.js

Building codeshift

オプション

  • -o, --output: 出力を書き込むファイル名を指定します
  • -h、--help: コマンドのヘルプを表示します
  • -v, --version: バージョン番号を出力

引数

  • : ソース ファイルを変換する言語
  • <入力ファイル...>: パス...
GitHub で表示

特徴

  • 複数の入力ファイルを受け入れます
  • 出力言語を選択できます
  • 標準出力へのストリーム出力
  • 出力をファイルに書き込むファイルパスを指定できます
  • .env でカスタム API キーを使用できる

使用法

codeshift [-o ] <入力ファイル...>

たとえば、ファイルexamples/index.jsをGoに変換し、出力をindex.goに保存するには:

codeshift -oindex.go go example/index.js

Building codeshift

オプション

  • -o, --output: 出力を書き込むファイル名を指定します
  • -h, --help: コマンドのヘルプを表示します
  • -v, --version: バージョン番号を出力します

引数

  • : ソース ファイルを変換する言語
  • : スペースで区切られたソース ファイルへのパス

発達

私はオンタリオ州トロントにあるセネカ工科大学の「オープンソース開発トピックス」コースの一環としてこのプロジェクトに取り組んできました。当初は、自分が使い慣れたテクノロジを使い続けたいと考えていましたが、プロジェクトの指示では、新しいプログラミング言語や新しいランタイムなど、何か新しいことを学ぶよう勧められていました。

私は Java を学びたいと思っていましたが、オンラインで調べてみたところ、CLI ツールの開発や AI モデルとのインターフェースには Java は良い選択ではないようでした。 OpenAI では正式にサポートされておらず、ドキュメントで紹介されているコミュニティ ライブラリは非推奨です。

私は常に人気のあるテクノロジを使い続けてきました。これらのテクノロジは信頼性が高く、完全なドキュメントやオンラインで入手できる大量の情報が用意されている傾向があります。しかし、今回は違うことをすることにしました。私は Bun を使用することにしました。これは、Node を置き換えることを目的とした JavaScript のクールな新しいランタイムです。

結局のところ、根性を貫くべきだったことが分かりました。プロジェクトをコンパイルしようとして問題が発生しました。私にできることは、開発者が問題を解決してくれることを祈ることだけでした。

Sentry Node エージェントでは OpenAI SDK を使用できません: TypeError: getDefaultAgent は関数ではありません #1010

Building codeshift
キースホール 投稿日:

これがノード ライブラリの問題であり、根本的な OpenAI API の問題ではないことを確認します

  • [X] これはノード ライブラリの問題です

バグの説明

以前ここで参照されましたが、解決せずに閉じられました: https://github.com/openai/openai-node/issues/903

これは、最新の Sentry 監視パッケージの使用中に SDK を使用できなくなるため、非常に大きな問題です。

再現するには

  1. npm i @sentry/node --save 経由で Sentry Node SDK をインストールします
  2. 次のコードを入力してください;
import * as Sentry from '@sentry/node';

// Start Sentry
  Sentry.init({
    dsn: "https://your-sentry-url",
    environment: "your-env",
    tracesSampleRate: 1.0, //  Capture 100% of the transactions
  });
ログイン後にコピー
全画面モードに入る 全画面モードを終了します
  1. Try to create a completion somewhere in the process after Sentry has been initialized:
const params = {
  model: model,
  stream: true,
  stream_options: {
    include_usage: true
  },
  messages
};
const completion = await openai.chat.completions.create(params);
ログイン後にコピー
Enter fullscreen mode Exit fullscreen mode

Results in error:

TypeError: getDefaultAgent is not a function
    at OpenAI.buildRequest (file:///my-project/node_modules/openai/core.mjs:208:66)
    at OpenAI.makeRequest (file:///my-project/node_modules/openai/core.mjs:279:44)
ログイン後にコピー

Code snippets

(Included)

OS

All operating systems (macOS, Linux)

Node version

v20.10.0

Library version

v4.56.0

View on GitHub

This turned me away from Bun. I'd found out from our professor we were going to compile an executable later in the course, and I did not want to deal with Bun's problems down the line.

So, I switched to Node. It was painful going from Bun's easy-to-use built-in APIs to having to learn how to use commander for Node. But at least it wouldn't crash.

I had previous experience working with AI models through code thanks to my co-op, but I was unfamiliar with creating a command-line tool. Configuring the options and arguments turned out to be the most time-consuming aspect of the project.

Apart from the core feature we chose for each of our projects - mine being code translation - we were asked to implement any two additional features. One of the features I chose to implement was to save output to a specified file. Currently, I'm not sure this feature is that useful, since you could just redirect the output to a file, but in the future I want to use it to extract the code from the response to the file, and include the AI's rationale behind the translation in the full response to stdout. Writing this feature also helped me learn about global and command-based options using commander.js. Since there was only one command (run) and it was the default, I wanted the option to show up in the default help menu, not when you specifically typed codeshift help run, so I had to learn to implement it as a global option.

I also ended up "accidentally" implementing the feature for streaming the response to stdout. I was at first scared away from streaming, because it sounded too difficult. But later, when I was trying to read the input files, I figured reading large files in chunks would be more efficient. I realized I'd already implemented streaming in my previous C++ courses, and figuring it wouldn't be too bad, I got to work.

Then, halfway through my implementation I realized I'd have to send the whole file at once to the AI regardless.

But this encouraged me to try streaming the output from the AI. So I hopped on MDN and started reading about ReadableStreams and messing around with ReadableStreamDefaultReader.read() for what felt like an hour - only to scroll down the AI provider's documentation and realize all I had to do was add stream: true to my request.

Either way, I may have taken the scenic route but I ended up implementing streaming.

Planned Features

Right now, the program parses each source file individually, with no shared context. So if a file references another, it wouldn't be reflected in the output. I'd like to enable it to have that context eventually. Like I mentioned, another feature I want to add is writing the AI's reasoning behind the translation to stdout but leaving it out of the output file. I'd also like to add some of the other optional features, like options to specify the AI model to use, the API key to use, and reading that data from a .env file in the same directory.

That's about it for this post. I'll be writing more in the coming weeks.

以上が建築コードシフトの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:dev.to
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート