ホームページ > テクノロジー周辺機器 > AI > ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

青灯夜游
リリース: 2023-03-31 22:39:11
転載
2114 人が閲覧しました

SoMin の広告コピーとバナー生成機能を説明するとき、ChatGPT が GPT-3 に置き換わったのか、それともまだ古いモードを実行しているのかとよく質問されます。

SoMin の広告コピーとバナー生成機能を説明するとき、ChatGPT が GPT-3 に置き換わったのか、それともまだ古いモードを実行しているのかとよく質問されます。 OpenAIが立ち上げたチャットボットChatGPTが急成長しているにもかかわらず、SoMinの広報担当者は「そうするつもりはないし、そうするつもりもない」と答えた。これには顧客は驚かれることが多いので、なぜそのような答えをするのかを説明します。

ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

人工知能モデルにおける地位を確立する

GPT-2、GPT-3、ChatGPT、および最近発売された GPT-4 はすべて同じカテゴリに属します。人工知能モデル - トランスフォーマーの。これは、前世代の機械学習モデルとは異なり、より均一なタスクを完了するようにトレーニングされるため、実用的な結果を生み出すために特定のタスクごとに再トレーニングする必要がないことを意味します。後者は、その巨大なサイズ (GPT-3 の場合は 1,750 億のパラメーター) を説明していますが、ユーザー入力に基づいて異なるデータを切り替えるのに十分な柔軟性を得るには、モデルが「インターネット全体を記憶する」必要がある可能性があります。ユーザーがクエリの質問、タスクの説明、およびいくつかの例を入力すると、モデルは結果を生成できます (図書館員に興味のある本を尋ねる場合と同様)。このアプローチは「少数ショット学習」と呼ばれ、最新の Transformer モデルに入力を提供する際の最近のトレンドになっています。

しかし、現在のタスクを完了するには、インターネットに関するすべてを知っている必要があるのでしょうか? もちろんそうではありません - ChatGPT のような多くの場合、タスク用の特定のデータ サンプルが大量 (数百万) あります。これにより、モデルはヒューマン フィードバックからの強化学習 (RLHF) プロセスを開始できるようになります。次に、RLHF は、AI と人間の間の共同トレーニング プロセスを導き出し、AI モデルをさらにトレーニングして人間のような会話を生成します。したがって、ChatGPT はチャットボット シナリオで優れているだけでなく、簡単な言葉や簡単な言葉ですぐに答えを得る必要がある場合に、短い形式のコンテンツ (詩や歌詞など) または長い形式のコンテンツ (エッセイなど) を書くのにも役立ちます。深い知識 複雑なトピックを説明し、創造的なプロセスに役立つブレーンストーミング、新しいトピックやアイデアを提供し、返信する電子メールの作成など、営業部門のパーソナライズされたコミュニケーションをサポートします。

大規模な Transformer モデルがこれらのタスクを達成しようとすることは技術的には可能ですが、ChatGPT や GPT-4 によってさえも達成される可能性は低いです。これは、ChatGPT や他の OpenAI の Transformer のイベントに関する知識によるものです。これらは事前トレーニングされたモデルであり、モデルの再トレーニングに非常に大きな計算量が必要となるため、データが十分な頻度で更新されないため、非常に限定的です。これはおそらく、これまで OpenAI (そして実際には他の誰か) によって作成されたすべての事前トレーニング済みモデルの最大の欠点です。より大きな問題は ChatGPT に特有のものです: GPT-3 とは異なり、ChatGPT は非常に焦点を絞った会話データセットでトレーニングされているため、ChatGPT が以前のバージョンより優れているのは会話タスクのみであり、他の人間のタスクを完了することになります。あまり進歩していない。

成長する大規模な言語モデルのファミリー

今では、ChatGPT が GPT-3 のより小型でより具体的なバージョンであることは人々に知られていますが、これは近い将来さらに多くのモデルが登場することを意味するのでしょうか?モデルの出現: マーケティングには MarGPT、デジタル広告には AdGPT、医学的質問に答えるには MedGPT?

これは可能であり、その理由は次のとおりです: SoMin 社が GPT-3 ベータ版にアクセスする際に申請書を提出するとき、構築される現在のソフトウェアを詳細に説明する長い申請書に記入したにもかかわらず、モデルが日常的にどのように使用され、受け取った結果についてフィードバックを提供することに同意するように求められました。 OpenAI という会社がこれを行ったのには理由があり、主にこれが研究プロジェクトであり、モデルの最良の応用に関する商業的な洞察が必要だったためであり、この偉大な人工知能革命に参加する機会と引き換えにクラウドファンディングを行った。チャットボット アプリは最も人気のあるアプリの 1 つであるため、ChatGPT が最初に挙げられます。 ChatGPT は、小さいだけでなく (200 億パラメータ対 1,750 億パラメータ)、GPT-3 よりも高速で、会話タスクの解決において GPT-3 よりも正確です。これは、低コスト/高品質の AI 製品としては、私にとってはこれは完璧なビジネスケースです。

では、生成型人工知能にとって、大きいほうが良いのでしょうか? 答えは、状況によります。多くのタスクを完了できる一般的な学習モデルを構築する場合、答えは「はい、大きいほど良い」です。これは、GPT-2 やその他の前任者に対する GPT-3 の利点によって証明されています。しかし、ChatGPT のチャットボットのように、特定のタスクをうまく実行したい場合は、モデルやデータ サイズよりも、データの焦点と適切なトレーニング プロセスの方がはるかに重要です。そのため、SoMin では、ChatGPT を使用してコピーやバナーを生成するのではなく、特定のデジタル広告関連データを使用して GPT-3 をガイドし、まだ見られていない新しい広告のためにより良いコンテンツを作成しています。

それでは、生成 AI の将来はどのように発展するのかと疑問に思う人もいるかもしれません? OpenAI CEO のサム アルトマン氏がスピーチで述べたように、マルチモダリティは今後の GPT-4 で人々が目にすることになる避けられない進歩の 1 つになるでしょう。同時に、アルトマンは、モデルには 100 兆のパラメータがあるという噂も打ち破りました。したがって、この種の人工知能モデルでは、大きいことが必ずしも優れているわけではないことを人々は知っています。

以上がChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート