現在位置:ホームページ > 技術記事 > テクノロジー周辺機器 > AI
- 方向:
- 全て ウェブ3.0 バックエンド開発 ウェブフロントエンド データベース 運用・保守 開発ツール PHPフレームワーク 毎日のプログラミング WeChat アプレット よくある問題 他の 技術 CMS チュートリアル Java システムチュートリアル コンピューターのチュートリアル ハードウェアチュートリアル モバイルチュートリアル ソフトウェアチュートリアル モバイル ゲームのチュートリアル
- 分類する:
-
- 半年前に arXiv をリリースしましたが、盗作で告発されました: CAMEL は Microsoft AutoGen の影に住んでいます
- arXiv は査読ジャーナルではないため、arXiv に投稿された論文は引用される必要はありません。これは合理的ですか? AI エージェントに興味がある場合は、Microsoft の AutoGen を知っておく必要があります。これは、複数のエージェントがチャットを通じてタスクを解決できる AI エージェントを構築するためのオープンソース プログラミング フレームワークです。それまでの間、LLM エージェントは、プログラマー、デザイナー、またはさまざまな役割の組み合わせなど、さまざまな役割を果たすことができます。 GitHub では、このプロジェクトは 28,000 個のスターを獲得し、この論文は ICLR2024LLMAgentWorkshop で最優秀論文賞も受賞しました。しかし、実はこの論文の裏には論争がある。 2023年11月、AI研究者(アブドラ・グー)
- AI 1053 2024-07-19 14:28:48
-
- Jia Jiaya チームはケンブリッジ清華大学などと協力し、大型モデルの「高スコアと低エネルギー」を 1 秒で検出する新しい評価パラダイムを推進
- これまでの大型モデルの評価基準を覆し、最新かつ最も完全かつ権威ある評価データセット「MR-Ben」が登場!これは、今年 4 月に GPT-4+DALL-E-3 と呼ばれる超視覚言語モデル Mini-Gemini がリリースされた後、香港華人 Jiajiaya チームによって再び提案された非常に代表的な作品です。 MR-Ben の「監修」のもと、大型モデルは生徒のように質問に答えるだけでなく、教師のようにレポートに採点することで、その真の推理力が明らかになります。 MR-Ben は、GPT4-Turbo、Cluade3.5-Sonnet、Mistral-Large、Zhipu-GLM4、
- AI 552 2024-07-19 13:55:25
-
- ACL 2024 | 25 のオープンおよびクローズド ソース モデルの数学的評価では、GPT-3.5-Turbo がかろうじて合格しました
- AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この記事の著者は香港大学とテンセントの出身です。著者リスト: Li Qintong、LeyangCui、Zhao Xueliang、Kong Lingpeng、WeiBi。その中で、筆頭著者の Li Qintong は、香港大学自然言語処理研究室の博士課程の学生であり、自然言語生成に関する研究を行っています。
- AI 1113 2024-07-19 13:53:41
-
- 最大 5 倍のロスレス アクセラレーションにより、EAGLE-2 により RTX 3060 は A100 よりも高速に生成できます
- AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Li Yuhui: 北京大学知能大学院修士課程の指導のもと、彼の研究の方向性は大型モデルの加速と調整です。 Wei Fangyun: アジア研究所のマイクロソフト研究員。身体化されたインテリジェンス、画像生成、および AIagen に研究に興味を持っています。
- AI 629 2024-07-19 13:12:48
-
- 最初の Video-of-Thought 推論フレームワークがここにあります: 人間のように知覚から認知までの包括的なビデオ推論
- AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この記事の著者はシンガポール国立大学、南洋理工大学、ハルビン工業大学の出身です。その中で、Fei Hao 氏の研究の方向性は、マルチモーダル学習とマルチモーダル大規模言語モデルです。 Wu Shengqiong は、シンガポール国立大学の博士課程の学生です。彼女の主な研究方向はマルチモーダル大規模言語モデルです。ジウェイの主
- AI 570 2024-07-19 13:12:42
-
- 最新ニュース! Baidu Wenxin Big Model 4.0: Wanka トレーニング史上最大のパラメータ モデル、来週またお会いしましょう
- 昨日、Cailian News は、Baidu の Wenxin Model 4.0 がトレーニングを強化しており、リリースの準備が近づいていることを独占的に明らかにしました。誰もがウェン・シンイーヤンの情報に常に興味を持っていました。本日、Wenxin 4.0 に関するさらなるニュースも入手しました。これには、基盤となるアーキテクチャ、インフラストラクチャ、トレーニング データ セット、コストなどの重要な情報が含まれています。これは非常に高い信頼性を持っています。まず核となる結論について話しましょう。 1. 昨日の啓示は基本的に真実です。現在、Wenxin Large Model 4.0 は小規模なトラフィックで実際にテストされていることがわかっています。 2. Wenxin 4.0 のパラメータ数は、パラメータが公開されているすべての LLM よりも多く、Wanka クラスタを使用してトレーニングされた中国初の大規模モデルでもあります。 3. 推論コストは Wenxin 3.5 よりもはるかに高く、約 8 ~ 10 倍と言われています。 (大型モデルは本当に高価です!)
- AI 1085 2024-07-19 12:04:49
-
- 9.11 と 9.9 ではどちらが大きいですか?実際に大型モデル15台をテストしましたが、半数以上が転倒しました。
- Machine Energy Report 編集者: Yang Wen 大きなモデルは依然として単純な数学の問題を解決できません。ここ数日、大きなモデルの「頭脳」が機能しているかどうかをテストするプロンプトが人気になっています。9.11 と 9.9 ではどちらが大きいですか?小学生でも正解できるこの算数の問題は、大手模型業界の「英雄」たちを苦しめた。つまりね。 ScaleAI のシニア プロンプト エンジニアであるライリー グッドサイド氏は、GPT-4o に「9.11 と 9.9 - どちらが大きいですか?」というプロンプト ワードを尋ねましたが、「前者の方が大きい」という答えが得られました。他の大型モデルも横転した。 7月17日、国内の大型モデル12台と海外のGPT-4oを撮影しました。
- AI 1891 2024-07-19 11:27:21
-
- Mistral AI 2 連続リリース: 7B 数的推論専用、Mamba2 アーキテクチャ コード大型モデル
- ネチズンはマスストラルが「9.11と9.9のどちらが大きいか?」という問題を解決できるかどうかに興味を持っている。昨日、AI 界は「9.11 と 9.9 のどちらが大きいか?」という単純な質問に圧倒され、OpenAIGPT-4o、Google Gemini などを含む大きな言語モデルがすべて覆されました。これにより、大規模な言語モデルは、いくつかの数値問題を扱う場合、人間のように理解して正しい答えを与えることができないことがわかります。数値的および複雑な数学的問題の場合は、特殊化されたモデルがより特殊化されます。本日、フランスの大型モデルユニコーンMistralAIは、複雑で多段階の論理的推論を必要とする高度なデータを解決するための数理推論と科学的発見に焦点を当てた7B大型モデル「Mathstral」をリリースしました。
- AI 458 2024-07-19 09:54:11
-
- コストを90%以上削減、「アクティブラーニング+実験ワークフロー」で触媒開発を加速
- 編集者 | Green Luo 合成ガスの熱接触水素化による高級アルコール (HAS) の合成は、依然として有望な技術です。鎖の成長と CO 挿入の要件には、複雑な反応速度論と広い化学空間が触媒の設計仕様を満たさない多成分材料が必要です。ここでチューリッヒ工科大学の研究者らは、FeCoCuZr 触媒シリーズを例として、アクティブ ラーニングを実験ワークフローに統合する代替戦略を提案しています。提案されたデータ支援フレームワークは、86 の実験にわたる広範囲の組成と反応条件のナビゲーションを簡素化し、従来の手順と比較して環境フットプリントとコストを 90% 以上削減します。反応条件が最適化され、安定して動作する Fe65Co19Cu5Zr11 触媒を特定します。
- AI 1087 2024-07-19 09:49:21
-
- とてもクール!古い iPhone、iPad、MacBook デバイスは異種クラスタを形成し、Llama 3 を実行できます
- 予備の機材があれば、試してみるのもいいかもしれません。今度は、あなたの手にあるハードウェア機器が AI の分野でもその力を発揮できるようになります。 iPhone、iPad、Macbook を組み合わせることで、「異種クラスター推論ソリューション」を構築し、Llama3 モデルをスムーズに実行できます。この異種クラスターは Windows システム、Linux、または iOS システムにすることができ、Android も間もなくサポートされる予定であることに注意してください。異種クラスタが実行中です。プロジェクト作成者 @evilsocket によると、この異種クラスターには iPhone15ProMax、iPadPro、MacBookPro (M1Max)、NVIDIA GeFor が含まれます
- AI 1099 2024-07-19 05:09:59
-
- Li Yan との独占対談: Suhua、Jingwei、Redpoint が資金提供する初の「生成レコメンデーション」AI Pioneers |
- 人類は、人工知能の分野で爆発的な進化を遂げており、テクノロジーを未知の領域に拡張するほぼすべての段階が驚くべき注目を集めています。人工知能の限界を拡大する過程で、重要なトラックの技術的ルートには革新と意見の相違が共存します。テクノロジーの先駆者の判断と選択は、多くの追随者の足跡に影響を与えます。過去1年間、当ウェブサイトは独占的にDark Side of the Moon、Shengshu Technology、Aishi Technology、Wuwen Core Domeなどの優れた企業を皆様に紹介することに専念し、今年初の「10,000ワードのインタビュースクリプト」を提供してきました。インターネットの世界。技術的なロードマップがまだ収束していない段階で、私たちは真に信念、勇気、体系的な認識力を備えた AI 起業家のリーダーシップを見てきました。そこで「AIPioneers」を立ち上げます
- AI 940 2024-07-19 05:03:59
-
- OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる
- AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが
- AI 1010 2024-07-19 01:29:52
-
- 清華大学がBest Paper + Time Test Awardを受賞、山東大学が佳作を受賞、SIGIR 2024賞が発表
- 清華大学の成績は素晴らしいです。第 47 回情報検索に関する国際コンピュータ協会会議 (ACMSIGIR) が、2024 年 7 月 14 日から 18 日まで米国ワシントン DC で開催されます。この会議は情報検索分野におけるトップの学術会議です。先ほどカンファレンスで最優秀論文賞、最優秀論文準賞、最優秀論文佳作賞、タイムテスト賞が発表されました。その中で、清華大学、中国人民大学ヒルハウス人工知能大学院、小紅書チームが最優秀論文賞を受賞し、グラスゴー大学とピサ大学の研究者が最優秀論文賞を受賞した。論文は山東大学(青島)、ライデン大学、アムステルダム大学に授与され、Time Test Awardは清華大学とカリフォルニア大学サンタクルーズ校の研究者に授与されました。次に、しましょう
- AI 724 2024-07-19 00:06:43
-
- Science にログインすると、薬物親和性が 37 倍に増加し、AI がタンパク質と抗体の複合体の教師なし最適化を実行します
- 編集者 | 大根の皮のタンパク質は、細胞の構成、筋肉の収縮、食物の消化、ウイルスの識別などの多くの生物学的機能に関与しています。より優れたタンパク質(抗体を含む)を設計するために、科学者はタンパク質が望ましい機能を獲得するまで、アミノ酸(タンパク質を特定の順序で構成する単位)の異なる位置で繰り返し突然変異を繰り返すことがよくあります。しかし、世界には砂粒よりも多くのアミノ酸配列が存在するため、最良のタンパク質、ひいては最良の潜在的な薬剤を見つけることはしばしば困難です。この課題に直面したとき、科学者は多くの場合、数百万ドルを費やして、生物学的システムの小型化、簡略化されたバージョンをテストします。 「これには多くの推測と検証が必要です。」
- AI 833 2024-07-18 22:22:51
-
- 脳はどのように言語を処理するのでしょうか?プリンストン大学のチームがトランスフォーマーのモデルを分析
- Editor | Radish Skin 言語を処理するとき、脳は複雑な言語構造から意味を構築するために特殊な計算を展開します。 Transformer アーキテクチャに基づく人工ニューラル ネットワークは、自然言語処理のための重要なツールです。プリンストン大学の研究者は、Transformer モデルと言語処理における人間の脳の機能的特化を研究しています。 Transformer は、構造化された回路を通じて単語間の文脈情報を計算し、統合します。ただし、現在の研究は主に、これらの回路によって生成される内部表現 (「埋め込み」) に焦点を当てています。研究者らは回路計算を直接分析し、これらの計算を機能的に特化した「変換」に分解し、単語全体の文脈情報を統合しました。参加者を悪用する
- AI 804 2024-07-18 20:52:41