ホームページ > バックエンド開発 > Python チュートリアル > watsonxを使用してアプリケーションのすべての「サンプリングパラメータ」または「生成パラメータ」を簡単に設定するにはどうすればよいですか?

watsonxを使用してアプリケーションのすべての「サンプリングパラメータ」または「生成パラメータ」を簡単に設定するにはどうすればよいですか?

Barbara Streisand
リリース: 2025-01-04 09:53:35
オリジナル
1009 人が閲覧しました

How to set simply all “sampling parameters” or “generation parameters” for applications using watsonx?

導入

watsonx.ai LLM にアクセスするユーザーにとってよくある質問は、「サンプリング パラメーターをどのように設定すればよいですか?」というものです。 !

実際、それは非常に簡単です。

サンプリングパラメータ(または生成パラメータ)

  • watsonx.ai インスタンスにアクセスします。

How to set simply all “sampling parameters” or “generation parameters” for applications using watsonx?

  • 「プロンプト ラボを開く」をクリックします。プロンプト ラボに入ったら、いずれかのタブでパラメータ アイコン (図の右端のアイコン) をクリックします。

How to set simply all “sampling parameters” or “generation parameters” for applications using watsonx?

設定されている LLM (以前に使用したもの、またはデフォルトで設定されたもの) を変更できます。

  • パラメータ ダイアログ ボックスが開いたら、必要に応じて設定できます。

How to set simply all “sampling parameters” or “generation parameters” for applications using watsonx?

  • パラメータを設定したら、同じツール アイコン セットで [コードを表示 ] を選択します。

How to set simply all “sampling parameters” or “generation parameters” for applications using watsonx?

インターフェイスは、パラメーターの実装を埋め込む 3 種類のコードを提供します。以下のサンプルとして Curl、Node.js、Python を使用します。

curl "https://us-south.ml.cloud.ibm.com/ml/v1/text/generation?version=2023-05-29" \
  -H 'Content-Type: application/json' \
  -H 'Accept: application/json' \
  -H "Authorization: Bearer ${YOUR_ACCESS_TOKEN}" \
  -d '{
  "input": "<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>\n<|start_of_role|>assistant<|end_of_role|>",
  "parameters": {
    "decoding_method": "sample",
    "max_new_tokens": 200,
    "min_new_tokens": 100,
    "random_seed": 42,
    "stop_sequences": [],
    "temperature": 0.7,
    "top_k": 50,
    "top_p": 1,
    "repetition_penalty": 1
  },
  "model_id": "ibm/granite-3-8b-instruct",
  "project_id": "the one you get"
}'
ログイン後にコピー
export const generateText = async () => {
 const url = "https://us-south.ml.cloud.ibm.com/ml/v1/text/generation?version=2023-05-29";
 const headers = {
  "Accept": "application/json",
  "Content-Type": "application/json",
  "Authorization": "Bearer YOUR_ACCESS_TOKEN"
 };
 const body = {
  input: "<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>\n<|start_of_role|>assistant<|end_of_role|>",
  parameters: {
   decoding_method: "sample",
   max_new_tokens: 200,
   min_new_tokens: 100,
   random_seed: 42,
   stop_sequences: [],
   temperature: 0.7,
   top_k: 50,
   top_p: 1,
   repetition_penalty: 1
  },
  model_id: "ibm/granite-3-8b-instruct",
  project_id: "the-one-you-get"
 };

 const response = await fetch(url, {
  headers,
  method: "POST",
  body: JSON.stringify(body)
 });

 if (!response.ok) {
  throw new Error("Non-200 response");
 }

 return await response.json();
}
ログイン後にコピー
import requests

url = "https://us-south.ml.cloud.ibm.com/ml/v1/text/generation?version=2023-05-29"

body = {
 "input": """<|start_of_role|>system<|end_of_role|>You are Granite, an AI language model developed by IBM in 2024. You are a cautious assistant. You carefully follow instructions. You are helpful and harmless and you follow ethical guidelines and promote positive behavior.<|end_of_text|>
<|start_of_role|>assistant<|end_of_role|>""",
 "parameters": {
  "decoding_method": "sample",
  "max_new_tokens": 200,
  "min_new_tokens": 100,
  "random_seed": 42,
  "temperature": 0.7,
  "top_k": 50,
  "top_p": 1,
  "repetition_penalty": 1
 },
 "model_id": "ibm/granite-3-8b-instruct",
 "project_id": "the-one-you-get"
}

headers = {
 "Accept": "application/json",
 "Content-Type": "application/json",
 "Authorization": "Bearer YOUR_ACCESS_TOKEN"
}

response = requests.post(
 url,
 headers=headers,
 json=body
)

if response.status_code != 200:
 raise Exception("Non-200 response: " + str(response.text))

data = response.json()
ログイン後にコピー

開発者が調整する必要がある唯一の情報はアクセス トークンです。

それで、出来上がり?

結論

watsonx.ai プラットフォームを使用すると、アプリケーション開発者は LLM サンプリング パラメーターのセットを非常に簡単に調整できます。

以上がwatsonxを使用してアプリケーションのすべての「サンプリングパラメータ」または「生成パラメータ」を簡単に設定するにはどうすればよいですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:dev.to
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート