業界は、ChatGPT スタイルの検索により Google のコストが 10 倍に増加し、毎年さらに数十億ドルが費やされると述べています

WBOY
リリース: 2023-04-16 11:07:02
転載
1233 人が閲覧しました

業界は、ChatGPT スタイルの検索により Google のコストが 10 倍に増加し、毎年さらに数十億ドルが費やされると述べています

2月23日のニュース、人工知能チャットツールChatGPTの人気が続く中、GoogleやMicrosoftなどの検索サービスを提供する企業も検索インターフェースの利用を開始人工知能チャットボット機能を統合します。しかし、これらのテクノロジー巨人にとって、このチャットボット スタイルの検索エンジンは運用コストを 10 倍に増加させ、最大で数十億ドルの支出をもたらすことになります。

テクノロジー業界の幹部たちは、ChatGPT のような人工知能の運用コストが高いことについて議論しています。 OpenAIのCEO、サム・アルトマン氏はかつてTwitterで、ChatGPTのユーザーとの会話当たりの計算コストは​​数セント以上にもなり、「耐えられない」と述べた。

Googleの親会社Alphabetの会長であるジョン・ヘネシー氏はインタビューで、微調整はコストを迅速に削減するのに役立つものの、「大規模な言語モデルなどの人工知能と情報を交換するコストは、完全なものよりもはるかに高い可能性がある」と述べた。標準のキーワード検索機能の10倍。」

アルファベットの 2022 年の純利益は 600 億米ドル近くになるでしょう。たとえチャットボットベースの検索ビジネスが広告収入を生み出したとしても、この技術はアルファベットの収益に悪影響を及ぼし、数十億ドルの追加コストが発生する可能性があるとアナリストらは述べた。

投資銀行モルガン・スタンレーは、昨年の Google の 3 兆 3,000 億件の検索クエリのコストは 1 クエリあたり約 0.55 セントだったと推定しています。この数字は人工知能によって生成されるテキストの量に応じて多少前後します。アナリストらは、「ChatGPTのようなAIチャットボットが、今日の検索クエリの半分を50語の回答で処理できる」としたら、2024年までにGoogleのコストは年間60億ドル増加すると予測している。

他のアナリストも同様の見解を持っています。チップ技術に重点を置いた調査およびコンサルティング会社であるセミアナリシス社は、Googleの新しいTensor Processing Unitsやその他の最適化を考慮すると、ChatGPTスタイルの人工知能を検索に追加すると、Alphabet社にさらに30億ドルのコストがかかる可能性があると述べた。

この種の人工知能が従来の検索エンジンよりも高価である理由は、より高いコンピューティング能力が必要となるためです。アナリストらは、この種の人工知能は数十億ドルのコストがかかるチップに依存しており、対応するコストは数年の耐用年数にわたって分散する必要があると述べている。消費される電力は、企業の運営コストや炭素排出指標への圧力も増大します。

人工知能の検索クエリを処理するプロセスは「推論」と呼ばれます。各検索では、人間の脳を模倣する巨大なニューラル ネットワークが開始され、大量のテキストが生成され、事実情報を得るために大規模な検索インデックス情報をクエリすることもあります。 . .

Alphabet の Hannis 氏は、「推論コストを削減する必要がある」と述べ、「最悪の場合、数年かかるだろう」と述べました。

高い運営費にもかかわらず、Alphabet は他のテクノロジー企業からの課題にどう対応するかを検討する必要があります。今月初め、ライバルのマイクロソフトは自社のBing検索エンジンに人工知能チャットボットを組み込む計画を披露した。 Samelweb は、Microsoft 幹部が Google の検索市場シェア 91% をターゲットにしていると推定しています。

マイクロソフトの最高財務責任者エイミー・フッド氏はアナリストに対し、改良されたBingがオンライン化されるにつれ、ユーザー数と広告収入の増加によるメリットがコストを上回っていると語った。フッド氏は、「我々にとっては、議論しているサービスを犠牲にしても、粗利は増加する」と述べた。

Googleのもう1つの競合会社である検索エンジンYou.comのCEO、リチャード・ソーチャー氏は、人工知能チャットの追加について語った。エクスペリエンスだけでなく、グラフィックス、ビデオ、その他の生成テクノロジー アプリケーションも含めると、運営費が 30% ~ 50% 増加します。しかし同氏は、「時間が経つにつれて、テクノロジーはどんどん安くなるだろう。」と述べた。

Googleに近い関係者は、チャットボットの具体的なコストを決定するのは時期尚早であると警告した。検索製品は関連するテクノロジーによって大きく異なり、検索製品は技術サポートを提供するために長い間人工知能を使用してきました。

アクセンチュアの最高技術責任者ポール・ドーハティ氏は、数十億のユーザーを抱える検索大手がすぐにAIチャットボットを導入しなかった2つの主な理由のうちの1つがコストの考慮だったと述べた。

「1 つは正確さであり、2 つは正しい方法でスケールする必要があるということです。」と同氏は言いました。Alphabet や他の企業の研究者は、長年にわたり、大規模なトレーニングと実行を低コストでスケールする方法を研究してきました。言語モデル。

モデルが大きくなると、通常、推論に多くのチップが必要になるため、実行コストが高くなります。消費者を魅了する人工知能の背後にあるモデルは非常に大規模であり、たとえば、ChatGPT の背後にあるモデルには 1,750 億のパラメーターがあり、各実行のコストはユーザーのクエリの長​​さに応じて変化し続けます。

あるテクノロジー幹部は、何百万人もの消費者にこの種の人工知能を使ってもらうにはまだ費用がかかりすぎると語った。 「これらのモデルは非常に高価であるため、次の進歩段階では、これらのモデルのトレーニングと推論のコストが削減され、あらゆるアプリケーションで使用できるようになります」と、この幹部は匿名を条件に語った。この問題では、OpenAI のコンピューター科学者が、複雑なコードを通じて推論コストを最適化し、それによってチップの動作効率を向上させる方法を発見したと述べています。

長年の疑問は、精度に影響を与えずに人工知能モデルのパラメーターの数を 10 分の 1、さらには 100 分の 1 に減らす方法です。

「(パラメータを)最も効果的に削除する方法はまだ未解決の問題です」と、かつてインテルの人工知能チッププロジェクトを率いていたナヴィーン・ラオ氏は語った。

同時に、一部の企業は、月額 20 ドルのサブスクリプション料金を請求する OpenAI のアップグレードされた ChatGPT サービスなど、人工知能検索の使用に料金を支払うことを検討しています。技術専門家も、回避策の1つは、より単純なタスクに小規模なAIモデルを適用することだと述べており、アルファベットはそのアプローチを検討しているという。

Alphabetは今月、LaMDA人工知能モデルの「小型バージョン」がチャットボットBardを強化し、「必要なコンピューティングパワーが大幅に減り、より多くのユーザーに対応できるようになる」と発表した。

先週のカンファレンスでChatGPTやBaderのようなチャットボットについて尋ねられたとき、ハニス氏は、万能のシステムではなく、よりターゲットを絞ったモデルが「コストの削減」に役立つと述べた。

以上が業界は、ChatGPT スタイルの検索により Google のコストが 10 倍に増加し、毎年さらに数十億ドルが費やされると述べていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート