現在位置:ホームページ > 技術記事 > テクノロジー周辺機器 > AI
- 方向:
- 全て ウェブ3.0 バックエンド開発 ウェブフロントエンド データベース 運用・保守 開発ツール PHPフレームワーク 毎日のプログラミング WeChat アプレット よくある問題 他の 技術 CMS チュートリアル Java システムチュートリアル コンピューターのチュートリアル ハードウェアチュートリアル モバイルチュートリアル ソフトウェアチュートリアル モバイル ゲームのチュートリアル
- 分類する:
-
- データセットが異なればスケーリング則も異なりますか?圧縮アルゴリズムを使用してそれを予測できます
- 一般に、ニューラル ネットワークのトレーニングに必要な計算が増えるほど、パフォーマンスが向上します。計算をスケールアップするときは、モデル パラメーターの数を増やすか、データ セットのサイズを増やすかを決定する必要があります。この 2 つの要素は、固定された計算予算内で比較検討する必要があります。モデル パラメーターの数を増やす利点は、モデルの複雑さと表現能力が向上し、それによってトレーニング データの適合性が向上することです。ただし、パラメーターが多すぎると過剰適合が発生し、目に見えないデータに対するモデルのパフォーマンスが低下する可能性があります。一方、データセットのサイズを拡張すると、モデルの汎化能力が向上し、過剰適合の問題が軽減されます。パラメーターとデータを適切に割り当てている限り、固定されたコンピューティング予算内でパフォーマンスを最大化できます。これまでの多くの研究では、神経言語モデルの Scalingl が検討されてきました。
- AI 614 2024-06-07 17:51:01
-
- 武漢市民は自動運転を称賛、市交通局:大手企業と協力してインテリジェントコネクテッドカー業界の新たな青写真を描く
- 「武漢市はインテリジェント・コネクテッド・ビークル産業の発展を非常に重視しており、インテリジェント・コネクテッド・ビークル向けに1,000キロメートル以上の一般道路を次々に開通させている。これは、大手インテリジェント・コネクテッド・ビークル企業が武漢に定住し、協力して新たな青写真を作成することを奨励している」武漢のインテリジェントコネクテッドカー産業の発展のために バイドゥキャロットは自動運転業界のリーディングカンパニーとして、クアイパオは武漢のインテリジェントコネクテッドカー産業の発展を重視しており、武漢経済発展に定住して以来、自動運転サービスに深く関わってきました。 Baidu Luobo Kuaipao は、より多くの国民が自動運転技術によってもたらされる技術的な魅力を感じられるように、自動運転体験サービスを推進し続けます。」 5 月 30 日、武漢市交通局は、積極的な宣伝の強化を求める市民の要求に応えました。大きな注目を集めた自動運転。上記の市民はメッセージの中で次のように述べています。
- AI 309 2024-06-07 17:31:02
-
- Hot ChatTTS はオープンソース音声の上限を突破し、3 日間で 9,000 個のスターを獲得しました
- これが人々の間のコミュニケーションの未来の姿でしょうか?最近、ChatTTS と呼ばれるテキスト読み上げプロジェクトが人気を集め、大きな注目を集めています。わずか 3 日間で、GitHub で 9.2,000 個のスターを獲得しました。プロジェクトのアドレス: https://github.com/2noise/ChatTTS/tree/main 作者自身も x で ChatTTS がオープンソースの天井を突破したと述べています。ただし、現在オープンソースとして公開されているのは基本モデルのみであり、SFT による監修や微調整は行われていません。このプロジェクトはテキストを音声に変換し、その効果は次のとおりです。ChatTTS は中国語を話すだけでなく、英語も話すことができ、笑いや話し方などを追加できるきめ細かい制御もサポートしています。
- AI 543 2024-06-07 17:10:54
-
- 画期的な CVM アルゴリズムが 40 年以上の計数の問題を解決します。コンピューター科学者がコインを投げて「ハムレット」を表す固有の単語を割り出す
- 数を数えるのは簡単そうに思えますが、実際にやってみるととても難しいです。あなたが野生動物の個体数調査を実施するために自然のままの熱帯雨林に運ばれたと想像してください。動物を見かけたら必ず写真を撮りましょう。デジタル カメラでは追跡された動物の総数のみが記録されますが、固有の動物の数に興味がありますが、統計はありません。では、このユニークな動物群にアクセスする最善の方法は何でしょうか?この時点で、今すぐ数え始めて、最後に写真から各新種をリストと比較すると言わなければなりません。ただし、この一般的なカウント方法は、数十億エントリに達する情報量には適さない場合があります。インド統計研究所、UNL、およびシンガポール国立大学のコンピューター科学者は、新しいアルゴリズムである CVM を提案しました。長いリスト内のさまざまな項目の計算を近似できます。
- AI 920 2024-06-07 15:44:57
-
- Baidu が推奨するリソースのコールド スタートの実践
- 1. コンテンツ コールド スタートの概念と課題 Baidu Feed Recommendation は、月間数億人のユーザーを抱える包括的な情報フロー レコメンデーション プラットフォームです。このプラットフォームは、グラフィック、ビデオ、アップデート、ミニ プログラム、Q&A など、さまざまな種類のコンテンツをカバーしています。 1 列または 2 列に似たクリックアンドクリックのレコメンデーションを提供するだけでなく、ビデオ イマージョンなどのさまざまなレコメンデーション フォームも含まれます。同時に、レコメンデーション システムは、C 側のユーザー エクスペリエンスだけを含むマルチステークホルダー システムです。コンテンツプロデューサーはレコメンデーションシステムにおいて重要な役割を果たしており、Baidu Feed には多数のアクティブな実践者がおり、毎日大量のコンテンツを制作しています。コンテンツ プラットフォーム レコメンデーション システムの本質は、ユーザー側にとってすべての関係者にとって有利な状況を実現することです。プラットフォームは、高品質で新鮮かつ多様なコンテンツをユーザーに継続的に推奨し、より多くのユーザーを引き付け、より多くの時間を提供する必要があります。 ; 作者側にとって
- AI 577 2024-06-07 15:08:43
-
- Claude 3 から数百万の特徴を抽出し、大規模モデルの「考え方」を初めて詳細に理解する
- Anthropic は、人工知能モデルの内部動作の理解において大きな進歩を遂げたと発表しました。 Anthropic は、ClaudeSonnet で数百万の固有関数の概念を表現する方法を特定しました。これは、最新の実稼働グレードの大規模言語モデルについての初めての詳細な理解です。この解釈可能性は、マイルストーンである人工知能モデルの安全性を向上させるのに役立ちます。研究論文: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html 現在、私たちは通常、人工知能モデルをブラック ボックスとして考えています。何かが入力されれば応答が出ますが、実際はそうではありません。理由は明らかです。
- AI 616 2024-06-07 13:37:45
-
- 研究者は機械学習を使用して高出力レーザー実験を最適化します
- 高強度かつ高繰り返しのレーザーは、強力な光のバーストを 1 秒間に何度も連続して放射できます。商用核融合エネルギープラントや先進的な燃料ベースの放射線源は、このようなレーザーに依存しています。ただし、このような連射システムを管理するには人間の反応時間が不十分であるため、アプリケーションは困難になります。この課題に対処するために、科学者たちは、高負荷の作業のリアルタイム監視を可能にする自動化と人工知能の力を活用するさまざまな方法を模索しています。米国のローレンス・リバモア国立研究所(LLNL)、フラウンホーファー・レーザー技術研究所(ILT)、オーロラ・インフラストラクチャー(ELIERIC)の研究者チームは、高出力レーザーを最適化する機械学習(ML)を使用した実験をチェコ共和国で実施している。彼らの目標は、レーザーの効率を高めて、より適切に対処できるようにすることです。
- AI 656 2024-06-07 13:03:20
-
- Devin を超え、Yao Ban が OpenCSG を率いて大規模モデル プログラミングの世界新記録を樹立
- 中国の大規模モデルスタートアップOpenCSG社が立ち上げたStarShipCodeGenAgentは、イノベーションによりWEBench(Real Independent Programming Evaluation of Large Models)ランキングで世界2位を獲得しました。同時に、GPT-4o モデルに基づく最高記録 (SOTA) を作成しました。 (ワード数: 37) SWEBench の評価は実際のプログラミング シナリオに非常に近く、モデルが要件を理解し、複数の関数/クラス間の変更を調整する必要があるだけでなく、モデルが実行環境と対話する必要もあります。超長いコンテキストを処理し、超伝統的なコード生成タスクの複雑な論理的推論を実行します。この困難な実際のテストでは、業界で最も先進的な GPT4 と Devin も
- AI 619 2024-06-07 12:36:29
-
- Yolov10: 詳細な説明、展開、アプリケーションがすべて 1 か所にまとめられています。
- 1. はじめに ここ数年、YOLO は、計算コストと検出パフォーマンスの効果的なバランスにより、リアルタイム物体検出の分野で主流のパラダイムとなっています。研究者たちは、YOLO のアーキテクチャ設計、最適化目標、データ拡張戦略などを調査し、大きな進歩を遂げました。同時に、後処理に非最大抑制 (NMS) に依存すると、YOLO のエンドツーエンドの展開が妨げられ、推論レイテンシに悪影響を及ぼします。 YOLO では、さまざまなコンポーネントの設計に包括的かつ徹底的な検査が欠けており、その結果、大幅な計算冗長性が生じ、モデルの機能が制限されます。効率は最適ではありませんが、パフォーマンス向上の可能性は比較的大きくなります。この作業の目標は、後処理とモデル アーキテクチャの両方から YOLO のパフォーマンス効率の境界をさらに改善することです。この目的を達成するために
- AI 898 2024-06-07 12:05:27
-
- 最初の GPU 高水準言語、大規模並列処理は Python を書くのに似ており、8500 個の星を獲得しました
- 10 年近くにわたるたゆまぬ努力とコンピューター サイエンスの中核に関する徹底した研究を経て、人々はついに夢を実現しました。それは、GPU 上で高級言語を実行するというものです。先週末、Bend と呼ばれるプログラミング言語がオープンソース コミュニティで熱い議論を巻き起こし、GitHub のスターの数は 8,500 を超えました。 GitHub: https://github.com/HigherOrderCO/Bend 大規模並列の高レベル プログラミング言語としては、まだ研究段階にありますが、提案されたアイデアはすでに人々を驚かせています。 Bend を使用すると、10 年の経験を持つ C/CUDA の専門家でなくても、Python のような感覚でマルチコア CPU/GPU 用の並列コードを作成できます。
- AI 1113 2024-06-07 12:03:58
-
- メモリ ストレージに基づいて Elasticsearch を展開 - 1 億個以上のデータ、全文検索 100 ミリ秒の応答
- 1. ホスト上にメモリストレージディレクトリをマウントします。mkdir/mnt/memory_storage をマウントします。 tmpfs ファイルシステムをマウントします。mount-ttmpfs-osize=800Gtmpfs/mnt/memory_storage です。 、100Gのストレージを使用する場合、100Gのメモリを占有します。ホストノードには 2T メモリがあり、Elasticsearch データを保存するためにここに 800G メモリが割り当てられます。事前にディレクトリ mkdir/mnt/memory_storage/elasticsearch-data-es-jfs-prod-es-defaul を作成してください
- AI 511 2024-06-07 11:11:48
-
- Karpathy の新しいチュートリアルが急速に広まり、ネチズンは彼に H100 を与えようと殺到します: GPT-2 トレーニングをゼロから再作成する
- マスター Karpathy は、C 言語を使用して Llama を作成することにもう満足していません。彼が自分自身に課した最新の課題は、GPT-2 の基本バージョンから始まる OpenAI の古典的な結果を再現することです。チャレンジの成功自体は予想外ではありませんが、トレーニングを完了するのにかかる費用はわずか 20 ドルと 90 分で、損失と評価はオリジナル バージョンを上回りました。持っている!ポイント!合格!ポイント!わかった! 。それだけでなく、彼は複製プロセスに関する完全なチュートリアルを書き、案の定、それは再び人気を集めました。 Karpathy は A100 クラウド サービスをレンタルしたため、1 億 2400 万バージョンのトレーニングには 20 米ドルかかりました。しかし、ある人がチュートリアルに従って H100 を使用したところ、トレーニング時間が短縮されただけでなく、費用も節約されました。43 分で完了し、費用はわずか 14 ドルでした。さらに、カルパシーも自腹で2を支払いました
- AI 479 2024-06-07 10:29:25
-
- GenAI および LLM の技術面接に関する 7 つのクールな質問
- AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。
- AI 548 2024-06-07 10:06:29
-
- OpenHarmony で大規模な言語モデルをローカルにデプロイする
- この記事は、第 2 回 OpenHarmony テクノロジー カンファレンスで実証された「OpenHarmony での大規模言語モデルのローカル デプロイメント」の結果をオープンソース化します。オープンソースのアドレス: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty。 /InferLLM/docs/hap_integrate.md。実装のアイデアと手順は、軽量 LLM モデル推論フレームワーク InferLLM を OpenHarmony 標準システムに移植し、OpenHarmony 上で実行できるバイナリ製品をコンパイルすることです。 InferLLM はシンプルで効率的な L
- AI 910 2024-06-07 10:02:23
-
- イノベーションに焦点を当て、インテルが新しい Xeon® ブランド戦略を開始
- ブランドは企業の使命と発展の象徴であり、製品の特性と市場での認知度も伴います。本日、インテル GTC テクノロジー・エクスペリエンス・センターでのインテル® Xeon® 6 エネルギー効率の高いコア・プロセッサーの発表会で、インテル コーポレーションのグローバル副社長兼最高マーケティング責任者のブレット・ハンナス氏が、新しいインテル® Xeon® ブランドの立ち上げを発表しました。 。ブレット・ハンナス氏は、新しいインテル® Xeon® ブランド戦略はイノベーションに焦点を当て、より簡潔なネーミングと深い意味を持つ製品ブランド属性を与え、市場での Xeon ブランドの認知度を高めると述べました。革新的なテクノロジーを統合することで、当社は高性能、高効率、高品質、高安全機能を備えた新しいエクスペリエンスを業界パートナーとユーザーに創出します。 1998 年の導入以来、インテル® Xeon® ブランドは
- AI 915 2024-06-07 09:29:48