目次
人工知能モデルにおける地位を確立する
成長する大規模な言語モデルのファミリー
ホームページ テクノロジー周辺機器 AI ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

Mar 31, 2023 pm 10:39 PM
AI chatgpt チャットボット

SoMin の広告コピーとバナー生成機能を説明するとき、ChatGPT が GPT-3 に置き換わったのか、それともまだ古いモードを実行しているのかとよく質問されます。

SoMin の広告コピーとバナー生成機能を説明するとき、ChatGPT が GPT-3 に置き換わったのか、それともまだ古いモードを実行しているのかとよく質問されます。 OpenAIが立ち上げたチャットボットChatGPTが急成長しているにもかかわらず、SoMinの広報担当者は「そうするつもりはないし、そうするつもりもない」と答えた。これには顧客は驚かれることが多いので、なぜそのような答えをするのかを説明します。

ChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争です

人工知能モデルにおける地位を確立する

GPT-2、GPT-3、ChatGPT、および最近発売された GPT-4 はすべて同じカテゴリに属します。人工知能モデル - トランスフォーマーの。これは、前世代の機械学習モデルとは異なり、より均一なタスクを完了するようにトレーニングされるため、実用的な結果を生み出すために特定のタスクごとに再トレーニングする必要がないことを意味します。後者は、その巨大なサイズ (GPT-3 の場合は 1,750 億のパラメーター) を説明していますが、ユーザー入力に基づいて異なるデータを切り替えるのに十分な柔軟性を得るには、モデルが「インターネット全体を記憶する」必要がある可能性があります。ユーザーがクエリの質問、タスクの説明、およびいくつかの例を入力すると、モデルは結果を生成できます (図書館員に興味のある本を尋ねる場合と同様)。このアプローチは「少数ショット学習」と呼ばれ、最新の Transformer モデルに入力を提供する際の最近のトレンドになっています。

しかし、現在のタスクを完了するには、インターネットに関するすべてを知っている必要があるのでしょうか? もちろんそうではありません - ChatGPT のような多くの場合、タスク用の特定のデータ サンプルが大量 (数百万) あります。これにより、モデルはヒューマン フィードバックからの強化学習 (RLHF) プロセスを開始できるようになります。次に、RLHF は、AI と人間の間の共同トレーニング プロセスを導き出し、AI モデルをさらにトレーニングして人間のような会話を生成します。したがって、ChatGPT はチャットボット シナリオで優れているだけでなく、簡単な言葉や簡単な言葉ですぐに答えを得る必要がある場合に、短い形式のコンテンツ (詩や歌詞など) または長い形式のコンテンツ (エッセイなど) を書くのにも役立ちます。深い知識 複雑なトピックを説明し、創造的なプロセスに役立つブレーンストーミング、新しいトピックやアイデアを提供し、返信する電子メールの作成など、営業部門のパーソナライズされたコミュニケーションをサポートします。

大規模な Transformer モデルがこれらのタスクを達成しようとすることは技術的には可能ですが、ChatGPT や GPT-4 によってさえも達成される可能性は低いです。これは、ChatGPT や他の OpenAI の Transformer のイベントに関する知識によるものです。これらは事前トレーニングされたモデルであり、モデルの再トレーニングに非常に大きな計算量が必要となるため、データが十分な頻度で更新されないため、非常に限定的です。これはおそらく、これまで OpenAI (そして実際には他の誰か) によって作成されたすべての事前トレーニング済みモデルの最大の欠点です。より大きな問題は ChatGPT に特有のものです: GPT-3 とは異なり、ChatGPT は非常に焦点を絞った会話データセットでトレーニングされているため、ChatGPT が以前のバージョンより優れているのは会話タスクのみであり、他の人間のタスクを完了することになります。あまり進歩していない。

成長する大規模な言語モデルのファミリー

今では、ChatGPT が GPT-3 のより小型でより具体的なバージョンであることは人々に知られていますが、これは近い将来さらに多くのモデルが登場することを意味するのでしょうか?モデルの出現: マーケティングには MarGPT、デジタル広告には AdGPT、医学的質問に答えるには MedGPT?

これは可能であり、その理由は次のとおりです: SoMin 社が GPT-3 ベータ版にアクセスする際に申請書を提出するとき、構築される現在のソフトウェアを詳細に説明する長い申請書に記入したにもかかわらず、モデルが日常的にどのように使用され、受け取った結果についてフィードバックを提供することに同意するように求められました。 OpenAI という会社がこれを行ったのには理由があり、主にこれが研究プロジェクトであり、モデルの最良の応用に関する商業的な洞察が必要だったためであり、この偉大な人工知能革命に参加する機会と引き換えにクラウドファンディングを行った。チャットボット アプリは最も人気のあるアプリの 1 つであるため、ChatGPT が最初に挙げられます。 ChatGPT は、小さいだけでなく (200 億パラメータ対 1,750 億パラメータ)、GPT-3 よりも高速で、会話タスクの解決において GPT-3 よりも正確です。これは、低コスト/高品質の AI 製品としては、私にとってはこれは完璧なビジネスケースです。

では、生成型人工知能にとって、大きいほうが良いのでしょうか? 答えは、状況によります。多くのタスクを完了できる一般的な学習モデルを構築する場合、答えは「はい、大きいほど良い」です。これは、GPT-2 やその他の前任者に対する GPT-3 の利点によって証明されています。しかし、ChatGPT のチャットボットのように、特定のタスクをうまく実行したい場合は、モデルやデータ サイズよりも、データの焦点と適切なトレーニング プロセスの方がはるかに重要です。そのため、SoMin では、ChatGPT を使用してコピーやバナーを生成するのではなく、特定のデジタル広告関連データを使用して GPT-3 をガイドし、まだ見られていない新しい広告のためにより良いコンテンツを作成しています。

それでは、生成 AI の将来はどのように発展するのかと疑問に思う人もいるかもしれません? OpenAI CEO のサム アルトマン氏がスピーチで述べたように、マルチモダリティは今後の GPT-4 で人々が目にすることになる避けられない進歩の 1 つになるでしょう。同時に、アルトマンは、モデルには 100 兆のパラメータがあるという噂も打ち破りました。したがって、この種の人工知能モデルでは、大きいことが必ずしも優れているわけではないことを人々は知っています。

以上がChatGPT 対 GPT-3 対 GPT-4 はチャットボット ファミリ間の単なる内部闘争ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました Aug 09, 2024 pm 09:37 PM

DALL-E 3は、前モデルより大幅に改良されたモデルとして2023年9月に正式導入されました。これは、複雑な詳細を含む画像を作成できる、これまでで最高の AI 画像ジェネレーターの 1 つと考えられています。ただし、発売当初は対象外でした

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

AIなどの市場を開拓するグローバルファウンドリーズがタゴール・テクノロジーの窒化ガリウム技術と関連チームを買収 AIなどの市場を開拓するグローバルファウンドリーズがタゴール・テクノロジーの窒化ガリウム技術と関連チームを買収 Jul 15, 2024 pm 12:21 PM

7月5日のこのウェブサイトのニュースによると、グローバルファウンドリーズは今年7月1日にプレスリリースを発行し、自動車とインターネットでの市場シェア拡大を目指してタゴール・テクノロジーのパワー窒化ガリウム(GaN)技術と知的財産ポートフォリオを買収したことを発表した。モノと人工知能データセンターのアプリケーション分野で、より高い効率とより優れたパフォーマンスを探求します。生成 AI などのテクノロジーがデジタル世界で発展を続ける中、窒化ガリウム (GaN) は、特にデータセンターにおいて、持続可能で効率的な電力管理のための重要なソリューションとなっています。このウェブサイトは、この買収中にタゴール・テクノロジーのエンジニアリングチームがGLOBALFOUNDRIESに加わり、窒化ガリウム技術をさらに開発するという公式発表を引用した。 G

VSCode フロントエンド開発の新時代: 強く推奨される 12 の AI コード アシスタント VSCode フロントエンド開発の新時代: 強く推奨される 12 の AI コード アシスタント Jun 11, 2024 pm 07:47 PM

フロントエンド開発の世界では、VSCode はその強力な機能と豊富なプラグイン エコシステムにより、数多くの開発者に選ばれるツールとなっています。近年、人工知能技術の急速な発展に伴い、VSCode 上の AI コード アシスタントが登場し、開発者のコ​​ーディング効率が大幅に向上しました。 VSCode 上の AI コード アシスタントは雨後のキノコのように出現し、開発者のコ​​ーディング効率を大幅に向上させました。人工知能テクノロジーを使用してコードをインテリジェントに分析し、正確なコード補完、自動エラー修正、文法チェックなどの機能を提供することで、コーディング プロセス中の開発者のエラーや退屈な手作業を大幅に削減します。今日は、プログラミングの旅に役立つ 12 個の VSCode フロントエンド開発 AI コード アシスタントをお勧めします。

See all articles