API.AIを使用して独自のAIアシスタントを構築する方法
人工知能を深く理解したいですか?ビデオチュートリアル「Microsoft Cognitive Services and Text Analysis API:RobotでAIセンチメント分析の実装」をご覧ください。
スマートアシスタントの世界は、siri、cortana、alexa、okgoogle、facebook m、bixbyなどの日ごとに変化しています。ただし、多くの開発者は、独自のAIアシスタントを構築することが実際には非常に簡単であることに気付いていません。ニーズ、IoTデバイス、カスタムAPIに合わせてカスタマイズでき、可能性は無限です。
注:この記事は、API.AIの最新の変更を反映するために2017年に更新されました。
以前、2016年に人工知能を構築するための5つの簡単な方法に関するガイドを書きました。これは、AIアシスタントを構築するためのいくつかの簡単なオプションをカバーしています。この記事では、特定のサービスであるAPI.AIに焦点を当てたいと考えています。これにより、完全に機能するAIアシスタントの構築が非常にシンプルで、初期設定はほとんどありません。
キーポイント
- API.ai(現在のGoogle Cloudの一部)により、開発者は自然言語処理と音声からテキストの機能を使用してAIアシスタントを構築できます。
- API.AIを開始するのは簡単です。Googleアカウントにサインアップし、用語に同意し、最初のプロキシを作成してください。
- API.AIのチャット機能を有効にして、ボットのサウンドをよりユーザーフレンドリーで魅力的にすることにより、AIアシスタントをカスタマイズします。
- javaScriptとHTML5を使用してWebインターフェイスをAPI.aiに接続して、テキスト入力と音声コマンドを有効にします。
- API.AIは、AIアシスタント応答の改善とトラブルシューティングを支援するために、詳細なJSON応答とデバッグツールを提供します。
- ホスティングについては、glitch.comなどのサービスを無料のHTTPS対応Webホスティングに使用して、API.AIとの安全な通信を確保することを検討してください。
API.ai
を使用してAIアシスタントを構築しますこの記事は、api.aiを使用してシンプルなパーソナルアシスタントを実行するのに役立つように設計された一連の記事の1つです。
- api.aiを使用して独自のAIアシスタントを構築する方法(この記事!)
- 意図とコンテキストでapi.aiアシスタントをカスタマイズします
- エンティティを使用してAPI.AIアシスタントを強化します api.aiアシスタントをモノのインターネットに接続する方法
api.aiは、開発者が独自のカスタム機能でトレーニングできる音声からテキスト、自然言語処理、人工知能システムを構築できるようにするサービスです。彼らは、API.AIが自動的に理解できるシステムを構築する「ドメイン」と呼ばれる既存の知識ベースを持っています。これは、この記事で焦点を当てる焦点です。この分野は、百科事典の知識、言語翻訳、天気、その他の知識の完全な知識ベースを提供します。将来の投稿では、API.AIのより高度な側面のいくつかをカバーし、アシスタントをさらにパーソナライズできるようにします。
api.aiは始めます
最初に、API.AI Webサイトにアクセスし、[フリースタート]ボタンまたは右上隅の[フリーサインアップ]ボタンをクリックします。
次に、かなり簡単な登録フォームに移動します。名前、電子メール、パスワードを入力し、[登録]をクリックします。別のログイン資格情報を回避したい人のために、右側のボタンを使用してGitHubまたはGoogleアカウントにサインアップすることもできます。
api.aiがGoogleに買収されたため、Googleアカウントのみでログインするように移行されました。したがって、API.aiを初めて使用する場合は、Googleアカウントでログインする必要があります。
次の画面で「許可」をクリックして、GoogleアカウントにアクセスするためのAPI.AI許可を付与します。
登録後、API.AIインターフェイスに直接移動し、仮想AIアシスタントを作成できます。特定のスキルを作成して教える各アシスタントは、API.AIの「エージェント」と呼ばれます。したがって、最初に、左上隅の[エージェントの作成]ボタンをクリックして、最初のエージェントを作成できます。
- 名前:これは、API.AIインターフェイスのプロキシ間の違いを促進するためだけです。あなたはあなたが好きなようにエージェントに名前を付けることができます - それはその人の名前(私はバリーを選んだ)または彼らが支援しているタスク(ライトコントローラーなど)を表す名前になることができます。
- 説明:エージェントが責任を負っていることを覚えておくことができるように、人間読み取り可能な説明。これはオプションであり、プロキシ名がそれ自体を物語っている場合は必要ない場合があります。
- 言語:エージェントが使用する言語。 言語を選択したら、変更できません - 注意して選択してください!このチュートリアルでは、英語がほとんどのAPI.AI領域にアクセスできるため、英語を選択してください。 API.AIドキュメントの言語テーブルで、各言語で使用可能なフィールドを表示できます。
- タイムゾーン:予想どおり、これはあなたがプロキシであるタイムゾーンです。現在のタイムゾーンが検出された可能性が最も高いです。
プロキシ設定を入力したら、プロキシ名の横にある「保存」を選択してすべてを保存します。 テストコンソール
エージェントを作成した後、右側のテストコンソールを使用してテストできます。上部にクエリを入力すると、これらのクエリがプロキシに送信され、これらの声明を聞いた後に返されるものが表示されます。 「お元気ですか?」のような質問を入力してください。結果を以下に表示する必要があります
結果の右側にスクロールすると、API.aiがリクエストの説明方法について詳細に表示されます(上記のスクリーンショットに示すように)。その下には、「show json」と呼ばれるボタンがあります。それをクリックして、APIがアプリケーションにそのような応答を返す方法を確認します。
api.aiはJSONビューアーを開き、これに類似したJSON応答を表示します。
{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }
ご覧のとおり...あなたのエージェントは応答方法を知りません!現時点では、実際には「スマート」AIではありません。スマートパーツを追加する必要があります。アクションフィールドのinput.nknown値は、どのように進行するかがわからないことを示しています。上記では、「ごめんなさい、もう一度言うことができますか?」というメッセージを返します。これはデフォルトのフォールバックの1つです。それはそれが理解していないことを人間に伝えるのではありませんが、それは再びそれを言うように繰り返し彼らに求めます...それは理想的ではありません、私はむしろロボットが理解していないときにより明確に示すものにそれを変えたいと思います。 このようなことについてもうるさいことで、ここで言っていることを変更したい場合は、デフォルトのバックインセントアイテムをクリックすることで、意図ページで見つけることができます。
しばらく前にapi.aiを使用したことがある人(または実行する)には、実際に箱から出してより多くの機能を提供することが期待されるかもしれません。以前は、「スティーブジョブズは誰ですか?」などのクエリに答えることができました。今はそうではありません!アクションを実行して情報を取得するには、サードパーティAPIとカスタム統合を追加する必要があります。 API.AIは、文の分析と解釈を提供します。
チャットを追加
ボットに少しのインテリジェンス(「チャット」機能を表示できるデフォルト機能を追加できます。これは、「お元気ですか?」を含む一般的な質問に対するさまざまな答えを提供します。ただし、これはデフォルトでは有効になりません。それを有効にするには、左側のチャットメニュー項目に移動し、[有効]をクリックします。
有効になった場合、下にスクロールすると、さまざまな一般的な小さなチャットフレーズが表示されます。 「挨拶/別れ」セクションを見つけて、それをクリックして展開します。 「お元気ですか?」に別の返信を追加し、右上隅に「保存」をクリックします。フレーズを追加した後、「挨拶/別れ」セクションの隣にある割合の数が増加し、カスタマイズしたチャットボットの数が表示されます。
それから、テストコンソールに行って「お元気ですか?」ともう一度尋ねると、入力した返信の1つに答えてください。
それが正しく応答しない場合は、試行する前に「保存」をクリックしたかどうかを確認してください!自動的に保存されません。
少なくともいくつかのチャット要素が実行されているので、エージェントが自分のWebアプリケーションインターフェイスに統合する準備ができました。これを行うには、APIキーを取得してプロキシにリモートにアクセスする必要があります。
api.ai apiキーを見つけます
必要なAPIキーは、プロキシ設定ページにあります。それを見つけるには、エージェント名の横にあるギアアイコンをクリックします。表示されるページに、クライアントアクセストークンを安全な場所にコピーして貼り付けます。これは、API.aiサービスにクエリを発行するために使用する必要があるものです。
code
作業コードを表示して試してみたい場合は、GitHubで見つけることができます。自由に使用して、このアイデアを拡張して、独自のAIパーソナルアシスタントを作成してください。 あなたがそれを試したいなら、私はここでバリーを走らせます。楽しめ!
JavaScript
を使用してapi.aiに接続します現在、API.AIクラウドのどこかで走っている作業中のパーソナルアシスタントがあります。これで、自分のインターフェイスからパーソナルアシスタントと話す方法が必要です。 API.AIには、Android、iOS、Webアプリケーション、Unity、Cordova、Cなどで動作する一連のプラットフォームSDKがあります。 Slack BotやFacebook Messenger Botに統合することもできます!この例では、HTMLとJavaScriptを使用して、シンプルなパーソナルアシスタントWebアプリケーションを作成します。私のデモは、api.aiのHTML JS Gistに表示されるコンセプトに基づいています。
アプリケーションは次のとおりです
入力フィールドに書かれたコマンドを受け入れ、Enterを押すときにそれを送信します。
- またはHTML5の音声認識API(これはGoogle Chrome 25以降でのみ利用可能です)を使用します。ユーザーが「Speak」をクリックすると、コマンドを話して入力フィールドに自動的に書き込むことができます。
- コマンドを受け取った後、jQueryを使用してajax postリクエストをapi.aiに送信できます。 API.AIは、上記のテストコンソールでわかるように、JSONオブジェクトとしての知識を返します。
- JavaScriptを使用してJSONファイルを読み取り、Webアプリケーションに結果を表示します。
- 利用可能な場合、WebアプリケーションはWeb Voice API(Google Chrome 33以降で利用可能)を使用してVoicy-by-Voiceに返信します。
- Webアプリケーション全体は、上記のリンクのGitHubで見つけることができます。それを参照して、HTMLのスタイルと構築方法を確認してください。主にAPI.ai SDKの側面に焦点を当てて、この投稿でそれがどのように構築されているかのすべての部分を説明するわけではありません。また、HTML5の音声認識APIとWeb Speech APIを使用している部品を簡単に指摘して説明します。
次の変数は次のとおりです
- accesstoken。これは、API.AIインターフェイスからコピーしたAPIキーです。これらのキーを使用すると、SDKにアクセスし、アクセスするプロキシを示します。私の個人的なエージェントであるバリーを訪ねたいです。
- baseurl。これは、API.AI SDKへのすべての呼び出しの基本的なURLです。 SDKに新しいバージョンが表示されている場合は、ここで更新できます。
- $ speechinput。これにより、JavaScriptでアクセスできるように
<input>
要素が保存されます。 - $ recbtn。これにより、ユーザーがクリックしてWebアプリケーションをクリックして話したいときに使用される場合(またはリスニングしている場合は聞くことを一時停止します)
<button>
要素が保存されます。 - 認識。この変数にWebKitsepeechRecognition()関数を保存します。これは、HTML5音声認識API用です。
- messagerecording、messagecouldnthear、messageinternalerror、messageSorry。これらは、アプリケーションがユーザーの音声を記録しているときに表示されるメッセージであり、ユーザーの音声を聞くことができず、内部エラーが発生し、エージェントが理解できません。それらを変数として保存して、スクリプトの上部で簡単に変更できます。また、アプリケーションを後で読み上げたくない変数を指定することもできます。
これらのコード行で、ユーザーが入力フィールドに入る時間を見つけます。これが発生したら、send()関数を実行してデータをapi.aiに送信します:
{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }
次に、ユーザーがレコードボタンをクリックしてアプリに聞くように依頼したかどうかを観察します(または、聞いている場合は一時停止します)。クリックすると、switchecognition()関数を実行して録音と録音を切り替えます。
var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";
HTML5の音声認識APIを使用して
$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });
HTML5音声認識APIを使用して、ユーザーの言うことを聞き、彼らの言うことを転写します。現在、これはGoogle Chromeにのみ適用されます。
私たちのstartrecognition()関数は次のようになります:
これは、HTML5音声認識APIを実行する方法です。それはすべて、WebKitspeech Recognition()の関数を使用しています。何が起こっているのかについてのヒントは次のとおりです。
- 認識。OnStart。録画がユーザーのマイクから始まるときに実行されます。 Response()という関数を使用して、ユーザーに聴いていることをユーザーに伝えるメッセージを表示します。すぐに応答()関数を詳細に紹介します。 updaterec()は、記録ボタンのテキストを「停止」から「speak」に切り替えます。
- 認識。音声認識から結果を得ると実行されます。結果を解析し、テキストフィールドをその結果を使用するように設定します(この関数はテキストを入力フィールドに追加するだけで、send()関数を実行します)。
- 認識。音声認識が終了すると実行されます。成功した結果が得られたときに、それが実行されないように、認識してnullに設定します。そうすれば、認識が実行されている場合、音声認識APIがユーザーを理解していないことがわかります。関数が実行された場合、ユーザーに返信して、正しく聞こえていないことを伝えます。
- 認識。Lang。探している言語を設定します。デモの場合、アメリカの英語を探しています。
- 認識.start()。プロセス全体を開始してください!
stopecognition()関数ははるかに単純です。それはあなたの認識を止め、それをnullに設定します。次に、ボタンを更新して、録音していないことを示します。
{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }
var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";
と通信します
api.aiにクエリを送信するには、send()関数を使用できます。これは次のようになります。これは、
$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });
のjqueryを使用した典型的なajax postリクエストです。 JSONデータをそれに送信し、JSONデータを取得することを期待しています。また、API.AIのAPIキーに2つのヘッダーを設定する必要があります。フォーマット{q:text、lang: "en"}でapi.aiにデータを送信し、応答を待ちます。 応答を受け取ると、freaRESponse()を実行します。この関数では、JSON文字列をフォーマットして、Webアプリケーションのデバッグセクションに配置され、API.AI応答のspeechセクションを取り出します。これにより、アシスタントのテキスト応答が提供されます。 response()およびdebugRespond()を介して各メッセージを表示します
debugRespond()関数はJSON応答フィールドにテキストを配置します:
$recBtn.on("click", function(event) { switchRecognition(); });
応答()関数にはより多くの手順があります:
$(".debug__btn").on("click", function() { $(this).next().toggleClass("is-active"); return false; });
最初に、応答値が空であるかどうかを確認します。はいの場合、API.AIが有効な回答を返さないため、質問に対する答えがわからないことを示すように設定します。
{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }
出力するメッセージがあり、録音されているメッセージではない場合、Web Voice APIを使用して、SpeechSynthesisteutteranceオブジェクトを使用してメッセージを声に出して読み取ります。 VoiceuriとLangが設定されていない場合、ブラウザのデフォルトの音声はドイツ語であることがわかりました!これにより、スピーチを変更するまで理解することが困難になります。実際にメッセージを言うには、window.speechsynthesis.speak(msg)関数を使用します。
var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";
注:「録音...」というテキストを言わないことが重要です。これを行うと、マイクが音声を拾い、記録されたクエリに追加します。
最後に、応答ボックスを表示して、そのテキストを追加して、ユーザーも読むことができるようにします。Webインターフェイスをホスト
$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });
最良の結果を得るには、HTTPS対応のWebサーバーでホストする必要がある場合があります。 API.AIへのリクエストはHTTPSを介して行われるため、HTTPSでWebインターフェイスもホストすることをお勧めします。プロトタイプとして使用したいだけで、既製のHTTPSセキュアWebサーバーを持っていない場合は、glitch.comをお試しください!これは、フロントエンドとバックエンド(node.js)コードの両方を含むコードのスニペットをホストできる新しいサービスです。
たとえば、私のバリーはhttps://www.php.cn/link/e35284b696864480f02bc12997b8b49でもホストされています。グリッチホスティングは完全に無料です!これは素晴らしいサービスであり、試してみることを強くお勧めします。
このプロジェクトを大きくしたい場合は、無料のSSL/TLS証明書を取得するために暗号化を使用するか、Webホストから証明書を購入することを検討してください。 githubリポジトリから私のスタイルを使用してWebアプリケーションを実行すると、次のようになります。「話す」をクリックして、「お元気ですか?」 (ボタンをクリックすると、Chromeがマイクにアクセスできるようにする必要がある場合があります。明らかに、これはページをHTTPSとして提供しない限り毎回発生します。
それはこのように視覚的に応答します(声を出して読んでください。これはスクリーンショットに表示するのが難しいです):
右下隅のボタンをクリックして、JSON応答を表示することもできます。
主に「はっきりと聞こえなかった、もう一度言うことができますか?」というメッセージを受け取っているように見える場合は、ブラウザのマイク許可を確認してください。ページをローカルにロードすると(たとえば、アドレスバーがファイル:///で始まる場合)、Chromeはマイクへのアクセスをまったく提供していないようであるため、とにかくこのエラーになります。どこかでホストする必要があります。 (上記のglitch.comを使用してみてください。)
個人的には、このような小さな話のデフォルトのフレーズのいくつかが好きではありません:
以前に見た設定でこれらのフレーズの多くをカスタマイズしました。たとえば、リストのこの小さなチャットステートメントを非常に奇妙に見つけたので、このようにカスタマイズすることにしました。
だから、独自のチャットボットの作成を開始してください!ユニークにして楽しんでください!
時々、Web Voice APIがあまりにも長いことを言おうとすると、Chromeの音声が機能しなくなります。これが当てはまる場合は、タブを閉じて新しいタブを開いて再試行します。
結論
api.aiは、チャットボットスタイルのAIパーソナルアシスタントを構築する本当に簡単な方法であることがわかります。
api.aiロボットの開発を続けたいですか?やるべきこと:これは私がSitePointで書いたシリーズ全体です!
api.aiを使用して自分のパーソナルアシスタントを構築した場合、あなたの考えを聞きたいです!あなたもそれをバリーと名付けましたか?どのような問題を設定しましたか?以下のコメントで私に知らせてください、または@thatpatrickguy経由でTwitterで私に連絡してください。
感情的なツールを使用して、人間の要素をAIに注入します。 Microsoft認知サービスとテキスト分析APIに関するビデオチュートリアルをご覧ください。 API.ai
を使用して、独自のAIアシスタントを構築するためのFAQ(FAQ)API.AIを使用してAIアシスタントを構築するための前提条件は何ですか?
API.AIを使用してAIアシスタントを構築するには、プログラミングの概念と言語(特にJavaScript)の基本的な理解が必要です。 API.AIはGoogle Cloudの一部であるため、Google Cloud Serviceにも精通する必要があります。また、AIおよび機械学習の概念を理解することも有益です。ただし、API.AIは使いやすいように設計されており、詳細なAIの知識は必要ありません。
AIアシスタントを他のプラットフォームと統合する方法は?
api.aiは、Slack、Facebook Messenger、Skypeなどの多くの人気のあるプラットフォームに統合されたサポートを提供します。 API.AI SDKとAPIを使用して、AIアシスタントをこれらのプラットフォームと統合できます。このプロセスには、Webhookの設定とAPI.AIコンソールでのプラットフォーム設定の構成が含まれます。
AIアシスタントの動作をカスタマイズできますか?
はい、API.AIでは、AIアシスタントの動作をカスタマイズできます。 AIアシスタントがユーザー入力にどのように応答するかを決定するカスタムインテントとエンティティを定義できます。 Fulfillment関数を使用して、特定の意図がトリガーされたときに実行されるカスタムコードを作成することもできます。
AIアシスタントの精度を改善する方法は?
AIアシスタントの精度は、トレーニングデータの品質に依存します。意図ごとにさまざまな例フレーズを提供することで、精度を向上させることができます。 API.AIは、ユーザーの相互作用に基づいてモデルを自動的に改善する「機械学習モード」と呼ばれる機能も提供します。
api.aiを使用して多言語AIアシスタントを構築することは可能ですか?
はい、api.aiは複数の言語をサポートしています。さまざまな言語で意図とエンティティを定義することにより、多言語AIアシスタントを構築できます。 API.AIは、ユーザーが入力した言語を自動的に検出します。
開発中にAIアシスタントをテストする方法は?
API.AIは、AIアシスタントと対話できる組み込みテストコンソールを提供します。ユーザーフレーズを入力して、AIアシスタントがどのように応答するかを確認できます。これにより、開発中にAIアシスタントをテストおよび改善できます。
api.aiを使用するのにいくらかかりますか?
api.aiはGoogle Cloudの一部であり、その価格は使用状況に基づいています。 1分あたりの特定の数と毎月のリクエストを含む無料のティアがあります。無料層を超えた後、リクエストの数に基づいて支払われます。
API.AIを使用してモバイルアプリケーションのAIアシスタントを構築できますか?
はい、API.aiはAndroidおよびiOS用のSDKを提供します。これらのSDKを使用して、AIアシスタントをモバイルアプリケーションと統合できます。
API.AIを使用して複雑な会話を処理する方法は?
api.aiは、複雑な会話を処理できる「Context」と呼ばれる機能を提供します。コンテキストにより、会話の流れを制御し、意図間の依存関係を管理できます。
API.AIを使用して、ユーザーとAIアシスタント間の相互作用を分析できますか?
はい、API.aiは、ユーザーのインタラクションを分析できる分析機能を提供します。使用統計、意図のパフォーマンス、およびユーザー満足度の評価を表示できます。この情報は、時間の経過とともにAIアシスタントを改善するのに役立ちます。
以上がAPI.AIを使用して独自のAIアシスタントを構築する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このパイロットプログラム、CNCF(クラウドネイティブコンピューティングファンデーション)、アンペアコンピューティング、Equinix Metal、およびActuatedのコラボレーションであるCNCF GithubプロジェクトのARM64 CI/CDが合理化されます。 このイニシアチブは、セキュリティの懸念とパフォーマンスリムに対処します

このチュートリアルは、AWSサービスを使用してサーバーレスイメージ処理パイプラインを構築することをガイドします。 APIゲートウェイ、Lambda関数、S3バケット、およびDynamoDBと対話するECS Fargateクラスターに展開されたnext.jsフロントエンドを作成します。 th

これらのトップ開発者ニュースレターを使用して、最新のハイテクトレンドについてお知らせください! このキュレーションされたリストは、AI愛好家からベテランのバックエンドやフロントエンド開発者まで、すべての人に何かを提供します。 お気に入りを選択し、Relを検索する時間を節約してください
