20,000 項目のデータソースがあり、別のデータテーブル (リモート API) の値が 1 つずつ出力されます。データ量が多いため、リモートサーバーまたはこの Web から切断されることがよくあります。ページに 500 の内部エラーが表示されます。どのような方法で最適化できますか? アドバイスをお願いします
SQL を生成し、API が送信された SQL を実行します。この場合、実行するSQLをファイルに記述し、送信時にファイルを送信することをお勧めします。
API がファイルを受信すると、それに応じてファイル内の SQL ステートメントを実行できます。構造を変更できない場合は、1 つずつ送信し、正常に戻ってから次の構造を送信することしかできません。 API側で接続数に制限がある可能性があるため。
SQL を生成して API に送信し、API が送信された SQL を実行しましたか?
この場合、実行する SQL をファイルに記述してから送信することをお勧めします。送信時のファイル。
API がファイルを受信すると、それに応じてファイル内の SQL ステートメントを実行できます。
構造を変更できない場合は、1 つずつ送信し、正常に戻ってから次の構造を送信することしかできません。 API側で接続数に制限がある可能性があるため。
今、API 呼び出しを別のファイルに入れて、段階的に呼び出しています
データは約 20,000 個あり、100 個の API を呼び出すのに 30 秒かかると計算しました。通常の応答時間は 6000 秒です。このように、メインプログラムはすでにエラーを起こしています。この問題に対処する方法はありますか? ありがとうございます
100 件のメッセージを呼び出すのに 30 秒かかるのはなぜですか? SQLを最適化できないのでしょうか?
構造を変更できない場合は、1 つずつ送信し、正常に戻ってから次の構造を送信することしかできません。 API側で接続数に制限がある可能性があるため。
今、API 呼び出しを別のファイルに入れて、段階的に呼び出しています
データは約 20,000 個あり、100 個の API を呼び出すのに 30 秒かかると計算しました。通常の応答時間は 6000 秒です。 . このように、メインプログラムがエラーを起こしました。 対処法はありますか? 1000 などの要素は含まれていません。相手のネットワーク遅延
1000 を 100 秒間押します。これほど長い時間実行すると、Wanwang がエラーを報告します。バッチ?
コマンドラインを使用して実行します
私のデータでは、約 20,000 のエントリがあり、100 個の API エントリを呼び出すのに 30 秒かかると計算しました。通常の応答時間は 6000 です。このように、メインプログラムは私を追い出しました 更新を実行しているため、SQL を最適化していない可能性があります (API を呼び出すことは言うまでもありません) ただし、20,000 個のデータが Web サイトを通じて送信されるべきではありません。 (更新は一度に 1 つだけです)、CLI プログラムを通じて操作できます
CLI とはどういう意味ですか、情報を確認させてください、初心者の方、許してください