


スタンフォード 2023 AI インデックス レポートが発表されました。中国は主要な AI カンファレンスを独占しており、中国科学院は論文数で世界第 1 位にランクされています
本日、スタンフォード大学は 2023 年の AI インデックス レポートを発表しました。
スタンフォード AI インデックス レポートでは、「AI 論文出版量」の観点から世界のトップ 10 機関がリストされている点は注目に値します。そのうち9人は全員中国出身で、MITに追いついた。
それらは、中国科学院、清華大学、中国科学院大学、上海交通大学、浙江大学、ハルビン工業大学、北杭大学、電子科学大学です。中国の技術、北京大学、MIT。
今年のレポートは主に、研究開発、技術パフォーマンス、人工知能技術倫理、経済、教育、政策、およびガバナンス、多様性、世論。
次の内容は、レポートのいくつかの重要なポイントを抜粋したものです。
両国は論文協力において世界第 1 位にランクされます
2010 年から 2021 年にかけて、AI 論文における国境を越えた協力のペースは鈍化しましたが、 2010年、米国と中国との人工知能研究協力件数は約4倍に増加し、これは中国と英国の協力総額の2.5倍に相当する。
しかし、2020年から2021年にかけて、両国間の協力総額は2.1%増加にとどまり、2010年以来最も小さな前年比増加率となった。
さらに、AI 論文の総数は 2010 年以来 2 倍以上に増加しています。 2010 年の 20 万記事から、2021 年には 50 万近くの記事 (49,601) に増加しました。
#出版された AI 論文の種類に関しては、2021 年に出版されたすべての AI 論文の 60% がジャーナル論文、17% がカンファレンス論文です。論文、13% はリポジトリからのものです。
過去 12 年間でジャーナル論文とリポジトリ論文はそれぞれ 3 倍と 26.6 倍に増加しましたが、会議論文の数は 2019 年以降減少しています。
パターン認識、機械学習、コンピューター ビジョンは、依然として人工知能の分野でホットなトピックです。
中国は、ジャーナル、学会、リポジトリの論文総数において依然としてトップを走っています。
米国は依然として AI カンファレンスとリポジトリの引用数でリードしていますが、そのリードは徐々に失われつつあります。それにもかかわらず、世界の大規模言語モデルとマルチモーダル モデルの大部分 (2022 年には 54%) は米国の機関によって作成されています。
中国は常にAI ジャーナル論文の出版状況では、2021 年に 39.8% で首位を維持し、欧州連合と英国 (15.1%)、米国 (10.0%) が続きます。
2010 年以降、中国の人工知能に関するジャーナル論文の引用割合が徐々に増加している一方、EU、英国、米国はいずれも減少しています。 。中国、欧州連合、英国、米国が世界全体の引用数の 65.7% を占めています。
それでは、世界のトップカンファレンスで発表される論文の状況はどうなっているのでしょうか?
2021 年、主要な世界的 AI カンファレンスで発表された論文のシェアは中国が 26.15% で最も多く、次いで欧州連合と英国が 20.29%、米国が続きます。 17.23%で3位にランクされました。
トップ会議論文の引用数から判断すると、中国は生産性が高いにもかかわらず、米国に比べて引用数が少ないことがわかります。米国の主要会議論文の引用数は 23.9%、中国では 22.02% でした。
中国は論文数が最も多いのは傍から見てもわかりますが、質は米国ほどではありません。
AI 論文リポジトリへの投稿では、米国が 23.48% で世界をリードしています。最も低いのは中国の11.87%。
中国の 9 機関、AI 論文出版が MIT に追いつく
2021 年、出版論文総数は世界の 1 位に各機関の論文数の合計は以下の通りで、MITは10位で1745本の論文を発表している。
コンピュータ ビジョン (CV) の分野では、中国の 10 の教育機関が世界のトップ 10 にランクされています。科学院、上海交通大学、中国科学院大学、清華大学、浙江大学、北杭大学、武漢大学、北京工業大学、ハルビン工業大学、天津大学。
自然言語処理 (NLP) の分野では、状況は異なります。
世界のトップ10の機関/企業は次のとおりです: 中国科学院、カーネギーメロン大学、マイクロソフト、清華大学、オーストラリア・カーネギーメロン大学、グーグル、北京大学、北京大学中国科学院、アリババ、アマゾン。
#音声認識分野のランキングは次のとおりです。
2022 年にリリースされた重要な人工知能機械学習システムの中で、言語システムが最も多くを占め、マルチモーダル システムの数の 6 倍である 23 を占めています。
論文の生産量に関しては、産業界が学術界を上回っています。
2014 年まで、ほとんどの重要なモデルは学術界によって発表されていました。それ以来、業界は好転しました。 2022 年までに、産業界では 32 の重要な機械学習モデルが誕生しますが、学術界では 3 モデルのみになります。
非営利団体や学術界と比較して、最先端の人工知能システムの構築にはますます多額の費用が必要になることがわかります。データ、コンピュータの能力、資金力が向上しており、業界参加者はこれを行うためのより多くの資金力を確実に持っています。
2022 年に米国が 16 で最も多くの重要な機械学習システムを開発し、次いで英国 (8)、中国 (3) でした。
# さらに、2002 年以降、作成された重要な機械学習システムの総数において、米国は英国、欧州連合、中国を上回りました
これらの重要な AI システムを支えている研究者の分布を国別に見ると、米国の研究者数が 285 人と最も多く、英国の 2 倍以上です。中国の約6倍だ。
大規模な言語モデルとマルチモーダル モデルが必要になる場合があります。ベース モデル と呼ばれるこれは、大量のデータでトレーニングされ、さまざまなダウンストリーム アプリケーションに適した、現在新興の人気が高まっているタイプの AI モデルです。
ChatGPT、DALL-E 2、MakeA-Video などの大規模言語とマルチモーダル モデルは、優れた機能を実証しており、実際の現場で広く導入され始めています。世界。
これらのモデルの著者の所属国が分析されたところ、これらの研究者の大部分は米国の機関の出身でした (54.2%)。
Stanford AI Index レポートには、大規模な言語モデルとマルチモーダル モデルのリリースのタイムラインも示されています。
#大規模な言語モデルは、ますます大きくなり、より高価になります。
最初の大規模言語モデル GPT-2 は 2019 年にリリースされ、パラメーター数は 15 億、トレーニング費用は約 50,000 ドルでした。 Google PaLM は 2022 年に発表された大規模な言語モデルの 1 つで、パラメータ数は 5,400 億、コストは最大 800 万ドルです。
パラメータとトレーニング コストの点で、Palm は GPT-2 よりも 360 倍大きく、160 倍高価です。
Palm に限ったことではありませんが、大規模な言語モデルとマルチモーダル モデル全体が大規模になり、より高価になっています。
たとえば、DeepMind が 2022 年 5 月に発表した大規模言語モデルである Chinchilla の費用は 210 万米ドルと推定されていますが、BLOOM のトレーニングには約 230 万米ドルかかります。
時間の経過とともに、顔生成における GAN の進歩により、最後の画像は Diffusion-GAN によって生成され、このモデルは STL で作成されました。最新の SOTA は次のとおりです。 -10に取得。
昨年、OpenAI の DALL-E 2、Stability AI の Stable Diffusion、Midjourney、Meta の Make-AScene、Google の Imagen がリリースされました。このモデル、テキストから画像への生成モデルは徐々に世間の注目を集めるようになりました。
次のように、公的にアクセス可能な 3 つのプログラム、DALL-E 2、Stable Diffusion、Midjourney からそれぞれ、同じプロンプト「暖かいパリの夜にパンダがピアノを演奏します」を入力します。 . AI text-to-image システムによって生成された画像。
最近リリースされたテキストから画像への生成モデルの中で、Google の Imagen は COCO ベンチマークで最高のパフォーマンスを発揮します。
今年、Imagen を作成した Google 研究者は、ますます強力になるテキストから画像へのモデルに挑戦するために設計された、より困難なテキストから画像へのベンチマークである DrawBench もリリースしました。
さらに、レポートでは、現在の生成 AI モデルにはいくつかのバイアスがあることも紹介しました。 2、みんな腕を組んで自信満々のポーズをとっているように見えました。
Midjourney では、「インフルエンサー」を生成するように求められると、年上に見える白人男性の 4 つの画像が生成されます。
#レポートの完全な内容については、次を参照してください。
# # https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index_Report_2023.pdf
以上がスタンフォード 2023 AI インデックス レポートが発表されました。中国は主要な AI カンファレンスを独占しており、中国科学院は論文数で世界第 1 位にランクされていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
