目次
AI が現実世界を理解できるようにする空間知能
生物学的視覚の進化
コンピュータービジョンの台頭
空間知性: 見るだけでは十分ではありません
ホームページ テクノロジー周辺機器 AI リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

Jun 01, 2024 pm 02:55 PM
モデル 電車

スタンフォード大学のリー・フェイフェイ氏は、起業後初めて「空間知能」という新しい概念を明らかにしました。

これは彼女の起業家としての方向性であるだけでなく、彼女を導く「北極星」でもあり、彼女はそれが「人工知能の問題を解決するための重要なパズルのピース」であると考えています。

視覚化は洞察につながり、理解は行動につながります。

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

リー・フェイフェイの15分間のTEDトークに基づくもので、完全に公開されており、数億年前の生命の進化の起源から始まり、人間がどのように満足していないのかまでが語られています。自然は彼らに人工知能を与え、次のステップで宇宙をインテリジェントに構築する方法を開発しました。

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

9 年前、同じステージで、リー・フェイフェイは、深層学習爆発のこのラウンドの出発点の 1 つである、新しく生まれた ImageNet を世界に紹介しました。

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

彼女自身もネチズンを奨励しました:両方のビデオを見れば、過去 10 年間のコンピューター ビジョン、空間知能、AI についてよく理解できるでしょう

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

さて、本来の意味を変えずに、李飛飛の演説内容を整理してみます。

AI が現実世界を理解できるようにする空間知能

生物学的視覚の進化

何かを見せましょう、正確に言えば、「何も」見せません。

ここは5億4千万年前の世界です。純粋で果てしなく続く闇。光がないから暗いわけではありません。視力が無いので真っ暗です。

太陽光は海面下1,000メートルまで浸透し、熱水噴出孔からの光は生命に満ちた海底まで浸透しますが、これらの古代の海には目は一つもありません。

網膜も角膜も水晶体もありません。したがって、このすべての光、このすべての人生は目に見えないままです。

「見る」という概念が存在しなかった時代。それが実現するまで、それは決して実現されませんでした。

その理由は私たちが理解し始めたばかりですが、光を感知できる最初の生物、三葉虫が現れました。彼らは、私たちが当たり前だと思っている現実を感知できる最初の生き物です。彼らは、自分たち以外の何かが存在することを発見した最初の生き物でした。

初めて、世界はたくさんの「自分」で満たされます。

リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

見る能力は、動物種が大量に化石記録に載ったカンブリア爆発を引き起こしたと考えられています。受動的な経験、つまり光を取り入れるという単純な行為として始まったものは、すぐにより活発になり、神経系が進化し始めます。

ビジョンは洞察力になります。見ることが理解になる。理解は行動につながります。

これらすべてが知性を生み出します。

コンピュータービジョンの台頭

今日、私たちは自然に与えられた視覚能力にもはや満足していません。好奇心が私たちを駆り立てて、少なくとも私たちと同じくらい、あるいはそれ以上のものを見ることができる機械を作ります。

9年前、このステージで、私はコンピュータービジョンに関する初期の進捗報告書を提出しました。

その時、3 つの強力な力が初めて集まりました:

ニューラルネットワークと呼ばれるアルゴリズムのクラス
  • グラフィックスプロセッシングユニットまたはGPU
  • プラスビッグデータ
  • たとえば、私の研究室が数年かけて整理した ImageNet と呼ばれる 1,500 万枚の画像。
  • 彼らは共に、人工知能の現代時代の到来を告げました。
  • リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私たちはそれから現在まで、かなり長い道のりを歩んできました。

    当初は画像にラベルを付けるだけで大​​きな進歩でしたが、アルゴリズムの速度と精度はすぐに向上しました。

    この進歩は、私の研究室が主催する毎年恒例の ImageNet Challenge で測定されます。このグラフでは、毎年のモデル機能の向上と、いくつかのマイルストーン モデルを確認できます。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私たちはさらに一歩進んで、視覚オブジェクトをセグメント化したり、視覚オブジェクト間の動的な関係を予測したりできるアルゴリズムを作成しました。これは私の生徒と共同研究者によって行われました。

    他にもあります。

    前回のスピーチで示した最初のコンピューター ビジョン アルゴリズムを思い出してください。AI は人間の自然言語を使用して写真を記述することができます。それが私が私の優秀な生徒であるアンドレイ・カルパシーとやったことです。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    その時、私は大胆にもこう言いました。「アンドレイ、コンピューターに逆のことをさせられますか?」アンドレイは微笑んで言いました。「ははは、それは不可能です。」

    そうですね、今日あなたが言ったように、不可能です。が可能になりました。

    これは、人間のプロンプトの言葉を写真やビデオに変換してまったく新しいものを作成できる、今日の生成 AI アルゴリズムを強化する一連の拡散モデルのおかげです。

    最近、OpenAI の Sora が素晴らしい結果を達成したのを見た方も多いでしょう。しかし、数か月前、GPU があまりない状態で、私の学生と共同研究者は Walt という AI ビデオ生成モデルを開発しました。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながるウォルト 2023年12月出版

    ここには改善の余地があります、あの猫の目を見てください、波に一度も濡れませんでした、なんて惨状でしょう〜(猫アストロフィ)

    (同音異義語のミームはお金を差し引きます!)

    空間知性: 見るだけでは十分ではありません

    過去はプロローグであり、私たちはこれらの間違いから学び、想像する未来を創造します。この将来、私たちは AI が私たちの代わりに何かをしたり、私たちが何かをするのを手伝ってくれたりすることを望んでいます。

    私は何年も言い続けていますが、写真を撮ることは見て理解することとは同じではありません。今日は、ただ見るだけでは不十分だということをもう一つ付け加えたいと思います。

    ほら、行動と学習のために。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    3D の時空で行動するとき、私たちは学び、より良く見て物事をより良く行うことを学びます。自然は「空間知性」を通じて見ることと行動することの好循環を生み出します。

    空間知性とは何かを説明するために、この写真を見てください。 何かをしたいという衝動を感じたら、手を挙げてください

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    あなたの脳は一瞬のうちに、このカップの形状、3D 空間での位置、テーブル、猫、その他すべてのオブジェクトとの関係を観察し、次に何が起こるかを予測することができます。

    行動への衝動は、知覚を行動に結び付ける空間知性を持つすべての生き物に内在しています。

    AI に現在の能力を超えてもらいたいのであれば、見えて話せる AI だけでなく、行動できる AI も必要です。

    実際、私たちは素晴らしい進歩を遂げています。

    空間インテリジェンスにおける最新のマイルストーンは、コンピュータに見て、学び、行動すること、そしてより良く見て行動することを学ぶことです。

    そしてそれは簡単ではありません。

    自然は何百万年もかけて空間知性を進化させてきました。目は光を捉えて網膜に 2D 画像を投影し、脳はこのデータを 3D 情報に変換します。

    つい最近、Google の研究者グループが、一連の写真を 3D 空間に変換するアルゴリズムを開発しました。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私の生徒と共同研究者はそれをさらに一歩進めて、単一の画像を 3D 形状に変換するアルゴリズムを作成しました。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    ミシガン大学の研究チームは、文章を 3D の部屋のレイアウトに変換する方法を発見しました。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    スタンフォード大学の私の同僚とその学生たちは、単一の画像から無限の可能性の空間を生成し、視聴者が探索できるアルゴリズムを開発しました。

    これらは将来の可能性のプロトタイプです。この可能性の中で、人間は世界全体をデジタル形式に変換し、その豊かさと繊細さをシミュレートすることができます。

    自然が私たちのそれぞれの心の中で暗黙のうちに行っていることと同じことを、空間知能テクノロジーは私たちの集合意識に対しても行うことを約束しています

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    空間知能の加速的な進歩により、好循環の中で新たな時代が私たちの目の前に広がりつつあります。このサイクルは、3D 世界を理解し、対話する必要があるあらゆる身体化された知能システムの重要なコンポーネントであるロボット学習を促進します。

    10 年前、私の研究室の ImageNet は、コンピューター ビジョンのトレーニングに役立つ数百万枚の高品質の写真のデータベースを可能にしました。

    今日、私たちは同様のことを行っており、

    3D 世界で行動するようにコンピューターとロボットをトレーニングしています。

    今回は静止画像を収集する代わりに、コンピューターがアクションの無限の可能性を学習できるように、3D 空間モデルによって駆動されるシミュレーション環境を開発します。

    今見たものは、私の研究室が主導する Behavior というプロジェクトで、ロボットを教える小さな例です。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私たちはロボット言語知能においても素晴らしい進歩を遂げています。

    大規模な言語モデルに基づく入力を使用して、私の学生と共同研究者は、ロボット アームが口頭の指示に基づいてさまざまなタスクを実行できることを実証した最初のチームの 1 つです。

    この引き出しを開けるとか、電話コードを抜くとか。パン、レタス、トマトを使ってサンドイッチを作ったり、ユーザーのためにナプキンを置いたりすることもできます。通常はもう少しボリュームのあるサンドイッチを食べたいところですが、まずはここから始めるのが良いでしょう。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    空間知性の応用の展望

    古代の原始的な海洋では、環境を見て感知する能力が他の生命体との相互作用のカンブリア紀の爆発を引き起こしました。

    今日、その光はデジタル思考に届いています。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    空間インテリジェンスにより、マシンは相互に対話するだけでなく、人間や現実または仮想の 3D 世界とも対話できるようになります。

    この未来が具体化すると、多くの生活に重大な影響を与えるでしょう。

    ヘルスケアを例に考えてみましょう。過去 10 年間、私の研究室では、患者の転帰や医療スタッフの疲労に影響を与える課題に AI を適用するための初期の取り組みを行ってきました。

    スタンフォード大学やその他の提携病院の協力者と協力して、臨床医が適切に手を洗わずに病室に入ったかどうかを検出できるスマートセンサーの試験運用を行っています。あるいは、手術器具を追跡したり、患者が転倒などの身体的危険にさらされている場合に医療チームに警告したりすることもできます。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私たちは、これらのテクノロジーを、

    余分な目のような環境知能の一形態として考えています。

    しかし私は、追加の手を切実に必要としている患者、臨床医、介護者のために、もっとインタラクティブな支援を提供したいと考えています。

    介護者が患者に集中している間、自律型ロボットが医療用品を輸送したり、拡張現実を使用して外科医をより安全で迅速で侵襲性の低い処置に誘導したりするところを想像してみてください。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    重度の麻痺患者が思考でロボットを制御できることをもう一度想像してみてください。そうです、あなたや私が当たり前だと思っている日常のタスクを脳波を使って実行するのです。

    これは私の研究室で行われた最近のパイロット研究です。このビデオでは、脳からの電気信号のみによって制御されるロボット アームが日本のすき焼き料理を調理しています。信号はEEGキャップを通じて非侵襲的に収集されます。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    5億年前、視覚の出現は暗黒世界を覆し、最も深遠な進化プロセス、つまり動物界における知性の発達を引き起こしました。

    過去 10 年間の AI の進歩も同様に驚くべきものです。しかし、私は、自然が私たち全員にそうしてきたのと同じように、コンピューターやロボットに空間知能を与えない限り、このデジタルカンブリア爆発の可能性を最大限に発揮することはできないと信じています。

    今は、デジタル仲間たちに、私たちが家と呼ぶこの美しい 3D 空間を推論し、操作する方法を教えると同時に、私たちが探索できる新しい世界をさらに創造する、エキサイティングな時期です。

    この未来を達成するのは簡単ではありません。私たち全員が深く考え、常に人を中心に据えたテクノロジーを開発する必要があります。

    しかし、私たちが正しく行えば、空間知能を活用したコンピューターやロボットは、有用なツールであるだけでなく、信頼できるパートナーとなり、私たちの生産性を高め、人間性を高め、個人の尊厳を尊重しながら私たちの生活を向上させるでしょう。集団的な繁栄。

    リー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながる

    私が何よりも興奮している未来は、AI がより知覚力、洞察力、空間認識能力を高め、より良い世界を創造するという私たちの追求に参加する未来です。

    (全文完成)

    ビデオリプレイ: https://www.ted.com/talks/fei_fei_li_with_spatial_intelligence_ai_will_question_the_real_world/transcript


以上がリー・フェイフェイが「空間インテリジェンス」の起業家的な方向性を明らかにする: 視覚化は洞察に変わり、見ることは理解に変わり、理解は行動につながるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム Apr 26, 2024 am 11:37 AM

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 超知性の生命力が覚醒する!しかし、自己更新 AI の登場により、母親はデータのボトルネックを心配する必要がなくなりました。 Apr 29, 2024 pm 06:55 PM

世界は狂ったように大きなモデルを構築していますが、インターネット上のデータだけではまったく不十分です。このトレーニング モデルは「ハンガー ゲーム」のようであり、世界中の AI 研究者は、データを貪欲に食べる人たちにどのように餌を与えるかを心配しています。この問題は、マルチモーダル タスクで特に顕著です。何もできなかった当時、中国人民大学学部のスタートアップチームは、独自の新しいモデルを使用して、中国で初めて「モデル生成データフィード自体」を実現しました。さらに、これは理解側と生成側の 2 つの側面からのアプローチであり、両方の側で高品質のマルチモーダルな新しいデータを生成し、モデル自体にデータのフィードバックを提供できます。モデルとは何ですか? Awaker 1.0 は、中関村フォーラムに登場したばかりの大型マルチモーダル モデルです。チームは誰ですか?ソフォンエンジン。人民大学ヒルハウス人工知能大学院の博士課程学生、ガオ・イージャオ氏によって設立されました。

See all articles