Sam Altman 氏が OpenAI について語る: GPU 不足のパニックに直面し、GPT-3 はオープンソースになる可能性がある
ChatGPT の登場以来、大規模モデルと AI テクノロジーが世界中で幅広い注目を集めています。人々は一方で、大型モデルの新たな機能に驚嘆していますが、他方では、人工知能の制御性と将来の発展について懸念しています。今年、チューリング賞受賞者のジェフリー・ヒントン氏やヨシュア・ベンジオ氏を含むAI分野の多くの専門家が共同で、大規模なAIモデルは一連のリスクを引き起こすと警告しており、その後に続く大規模なAIモデルの開発の中止を求める人もいる。 GPT-4 の AI モデル。
OpenAI は、ChatGPT や GPT-4 などの大規模モデルを支える企業として、間違いなく最前線に押し上げられています。 OpenAI CEOのサム・アルトマン氏は現在、人工知能に対する人々の「恐怖」を払拭し、OpenAI製品の開発者やユーザーの意見に耳を傾けるため、世界各地で講演ツアーを行っている。
「Fortune」レポートによると、5月にサム・アルトマン氏は数人の開発者やスタートアップ創設者らと密室で会談し、 OpenAIのロードマップと課題について語った。この非公開会議の参加者の一人であるヒューマンループの共同創設者兼 CEO であるラザ・ハビブ氏は、最近ブログで OpenAI の製品計画と開発のボトルネックについて言及しました。
元のブログは削除されましたが、一部のネチズンがブログのスナップショット (コピー) をアップロードしました。ブログの具体的な内容を見てみましょう:
OpenAI が現在直面している最大の問題は、GPU による制限であることです
現在、OpenAI は非常に厳しい GPU 制限に直面しており、そのため短期計画の一部の実装も遅れています。最近の顧客からの最も一般的な苦情は、API の信頼性と速度に関するものです。 Sam は問題を認め、顧客から苦情が寄せられた問題のほとんどは GPU 不足によるものだと説明しました。
テキストの処理に関しては、より長い 32,000 コンテキストをまだ多くの人が利用できません。現在、OpenAI はアテンション メカニズムの O (n^2) 展開問題を完全には克服していません。OpenAI は間もなく 100k-1M トークン コンテキスト ウィンドウ (年内に) のテキスト処理を達成できるようですが、より大きなテキスト処理ウィンドウにはさらなる進歩が必要です. 研究の画期的な進歩。
それだけでなく、現在、微調整 API も GPU の供給によって制限されています。 OpenAI は、Adapter や LoRa のような効率的な微調整方法をまだ使用していないため、微調整の実行と管理には非常に多くの計算量がかかります。 Sam 氏は、将来的にはより優れた微調整テクノロジーが導入され、研究モデル専用のコミュニティも提供される可能性があることを明らかにしました。
さらに、専用容量のプロビジョニングは GPU の供給によって制限されます。 OpenAI は専用の容量も提供し、顧客にモデルのプライベート コピーを提供します。このサービスを利用するには、顧客は前払いで 100,000 ドルを支払う必要があります。
OpenAI の短期ロードマップ
会話中、Sam は OpenAI API の短期ロードマップを共有しました。これは主に 2 つの段階に分かれています。
2023 年への道:
- #OpenAI の最優先事項は、より安価で高速な GPT-4 を発売することです — 全体として、OpenAI の目標はコストを削減することです可能な限りインテリジェンスの向上を図るため、API のコストは時間の経過とともに減少します。
- コンテキスト ウィンドウの延長 - 近い将来、コンテキスト ウィンドウは 100 万トークンに達する可能性があります。
- Nudge API - Nudge API は最新モデルに拡張されますが、その正確な形式は開発者によって決定されます。
- ステータス API - チャット API を呼び出すときは、同じセッション履歴を何度も調べて、同じトークンを何度も支払う必要があります。 API の将来のバージョンでは、セッション履歴を記憶できるようになります。
- 2024 年への道:
- マルチモーダル - これは GPT-4 リリースの一部として実証されましたが、今後はそうではありませんGPU がオンラインになるまでは誰でも拡張可能です。
このプラグインには PMF がないため、すぐに API に表示されることはありません
多くの開発者が API 経由で ChatGPT プラグインにアクセスすることに興味を持っています。しかしサムは、これらのプラグインがすぐにリリースされるとは思わないと言いました。ブラウジング以外のプラグインの使用は、PMF がまだないことを示唆しています。 Sam 氏は、多くの人が自分のアプリケーションを ChatGPT 内に含めることを望んでいますが、実際に望んでいるのはアプリケーション内の ChatGPT であると指摘しました。
OpenAI は、ChatGPT のような競合他社を除いて、顧客との競合を回避します
多くの開発者は、OpenAI が新製品をリリースするとき、OpenAI API を使用して構築されたアプリケーションについて緊張していると言っています。競合製品。 Sam 氏は、OpenAI は ChatGPT 以外の製品をリリースしないと述べました。同氏は、キラーアプリを擁する優れたプラットフォーム企業が数多く存在しており、ChatGPTを利用することで自社製品の顧客になることで自社のAPIを改善できると述べた。 ChatGPT のビジョンは、超インテリジェントな作業アシスタントになることですが、OpenAI が関与しない GPT のユースケースは他にもたくさんあります。
規制は必要ですが、オープンソースも必要です
サムは将来のモデルの規制を主張していますが、既存のモデルが危険であるとは考えていません。それらを禁止するのは大きな間違いです。同氏はオープンソースの重要性を改めて強調し、OpenAIはオープンソースのGPT-3を検討していると述べた。 OpenAI がオープンソース化に遅れている理由の 1 つは、このような大規模な言語モデルを適切に管理できる能力を持っている人や企業が多くないと感じているためです。
スケーリングの法則はまだ存在します
最近の多くの記事では、「巨大な人工知能モデルの時代は終わった」と主張されています。サムは、それは彼の言いたいことを正確に伝えていないと言いました。
OpenAI の内部データは、スケーリングの法則が依然として維持されており、モデルのサイズを拡大することでパフォーマンスが向上し続けることを示しています。ただし、OpenAI はすでにモデル サイズをわずか数年で数百万倍に拡大しており、これを継続することは持続不可能であるため、モデル サイズは常に同じスケールで増加するとは限りません。しかし、それは OpenAI がモデルを大きくする努力をやめるという意味ではなく、モデルが桁違いに成長するのではなく、毎年 2 倍または 3 倍のサイズになる可能性があることを意味します。
拡張モデルが依然として有効であるという事実は、AGI の開発に重要な意味を持ちます。スケーリングの考え方は、AGI の構築に必要なほとんどの要素がおそらくすでに揃っており、残りの作業のほとんどは既存のメソッドを利用して、それらをより大きなモデルとより大きなデータセットにスケーリングすることになるということです。モデル拡張の時代が終わったとしても、AGI に到達するまでにはさらに時間がかかることになります。スケーリングの法則が依然として適用されるという事実は、より短い時間で AGI を達成できることを意味します。
以上がSam Altman 氏が OpenAI について語る: GPU 不足のパニックに直面し、GPT-3 はオープンソースになる可能性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









Centos Shutdownコマンドはシャットダウンし、構文はシャットダウン[オプション]時間[情報]です。オプションは次のとおりです。-hシステムをすぐに停止します。 -pシャットダウン後に電源をオフにします。 -r再起動; -t待機時間。時間は、即時(現在)、数分(分)、または特定の時間(HH:mm)として指定できます。追加の情報をシステムメッセージに表示できます。

Centosシステムの下でのGitlabのバックアップと回復ポリシーデータセキュリティと回復可能性を確保するために、Gitlab on Centosはさまざまなバックアップ方法を提供します。この記事では、いくつかの一般的なバックアップ方法、構成パラメーター、リカバリプロセスを詳細に紹介し、完全なGitLabバックアップと回復戦略を確立するのに役立ちます。 1.手動バックアップGitlab-RakeGitlabを使用:バックアップ:コマンドを作成して、マニュアルバックアップを実行します。このコマンドは、gitlabリポジトリ、データベース、ユーザー、ユーザーグループ、キー、アクセスなどのキー情報をバックアップします。デフォルトのバックアップファイルは、/var/opt/gitlab/backupsディレクトリに保存されます。 /etc /gitlabを変更できます

CENTOSシステムでHDFS構成をチェックするための完全なガイドこの記事では、CENTOSシステム上のHDFSの構成と実行ステータスを効果的に確認する方法をガイドします。次の手順は、HDFSのセットアップと操作を完全に理解するのに役立ちます。 Hadoop環境変数を確認します。最初に、Hadoop環境変数が正しく設定されていることを確認してください。端末では、次のコマンドを実行して、Hadoopが正しくインストールおよび構成されていることを確認します。HDFS構成をチェックするHDFSファイル:HDFSのコア構成ファイルは/etc/hadoop/conf/ディレクトリにあります。使用

Pytorch GPUアクセラレーションを有効にすることで、CentOSシステムでは、PytorchのCUDA、CUDNN、およびGPUバージョンのインストールが必要です。次の手順では、プロセスをガイドします。CUDAおよびCUDNNのインストールでは、CUDAバージョンの互換性が決定されます。NVIDIA-SMIコマンドを使用して、NVIDIAグラフィックスカードでサポートされているCUDAバージョンを表示します。たとえば、MX450グラフィックカードはCUDA11.1以上をサポートする場合があります。 cudatoolkitのダウンロードとインストール:nvidiacudatoolkitの公式Webサイトにアクセスし、グラフィックカードでサポートされている最高のCUDAバージョンに従って、対応するバージョンをダウンロードしてインストールします。 cudnnライブラリをインストールする:

CentOSにMySQLをインストールするには、次の手順が含まれます。適切なMySQL Yumソースの追加。 yumを実行して、mysql-serverコマンドをインストールして、mysqlサーバーをインストールします。ルートユーザーパスワードの設定など、MySQL_SECURE_INSTALLATIONコマンドを使用して、セキュリティ設定を作成します。必要に応じてMySQL構成ファイルをカスタマイズします。 MySQLパラメーターを調整し、パフォーマンスのためにデータベースを最適化します。

DockerはLinuxカーネル機能を使用して、効率的で孤立したアプリケーションランニング環境を提供します。その作業原則は次のとおりです。1。ミラーは、アプリケーションを実行するために必要なすべてを含む読み取り専用テンプレートとして使用されます。 2。ユニオンファイルシステム(UnionFS)は、違いを保存するだけで、スペースを節約し、高速化する複数のファイルシステムをスタックします。 3.デーモンはミラーとコンテナを管理し、クライアントはそれらをインタラクションに使用します。 4。名前空間とcgroupsは、コンテナの分離とリソースの制限を実装します。 5.複数のネットワークモードは、コンテナの相互接続をサポートします。これらのコア概念を理解することによってのみ、Dockerをよりよく利用できます。

SSHサービスを再起動するコマンドは次のとおりです。SystemCTL再起動SSHD。詳細な手順:1。端子にアクセスし、サーバーに接続します。 2。コマンドを入力します:SystemCtl RestArt SSHD; 3.サービスステータスの確認:SystemCTLステータスSSHD。

Pytorchの分散トレーニングでは、Centosシステムでトレーニングには次の手順が必要です。Pytorchのインストール:PythonとPipがCentosシステムにインストールされていることです。 CUDAバージョンに応じて、Pytorchの公式Webサイトから適切なインストールコマンドを入手してください。 CPUのみのトレーニングには、次のコマンドを使用できます。PipinstalltorchtorchtorchvisionTorchaudioGPUサポートが必要な場合は、CUDAとCUDNNの対応するバージョンがインストールされ、インストールに対応するPytorchバージョンを使用してください。分散環境構成:分散トレーニングには、通常、複数のマシンまたは単一マシンの複数GPUが必要です。場所
