現在位置:ホームページ > 技術記事 > テクノロジー周辺機器 > AI
- 方向:
- 全て ウェブ3.0 バックエンド開発 ウェブフロントエンド データベース 運用・保守 開発ツール PHPフレームワーク 毎日のプログラミング WeChat アプレット よくある問題 他の 技術 CMS チュートリアル Java システムチュートリアル コンピューターのチュートリアル ハードウェアチュートリアル モバイルチュートリアル ソフトウェアチュートリアル モバイル ゲームのチュートリアル
- 分類する:
-
- スマートビルディング: YOLOv7 に基づく建物外壁の欠陥検出
- 01 展望の概要 現在の深層学習ベースの手法は、認識速度とモデルの複雑さの点でいくつかの課題に直面しています。建物の外壁欠陥検出の精度と速度を確保するために、BFD-YOLO と呼ばれる改良型 YOLOv7 手法を研究しました。まず、YOLOv7 の元の ELAN モジュールが軽量の MobileOne モジュールに置き換えられ、パラメータの数が減り、推論速度が向上しました。次に、特徴抽出機能を強化するために、座標アテンション モジュールがモデルに追加されます。次に、SCYLLA-IoU を使用して検出を高速化し、モデルの再現率を高めます。最後に、オープン データセットを拡張し、3 つの典型的な欠陥を含む建物ファサード損傷データセットを構築しました。 BFD-YOLO は以下に基づいています
- AI 551 2024-06-11 12:01:31
-
- GPT-4o と SQL: 大規模モデルは、自身のアーキテクチャを変更する能力がどの程度あるのでしょうか?
- 著者 | David Eastman によって編集 | Noah によって制作 | 51CTO テクノロジー スタック (WeChat ID: blog51cto) 大型言語モデル (LLM) は自転車を運転したことがありませんが、人間の交通分野における運転行動の役割を明確に理解しています。これらは、ソフトウェア開発者が技術的な世界の理解を組み合わせた、一種の意味論的な現実世界の知識として提供するものに似ています。このことは、自然言語で記述するだけで簡単な書籍出版 SQL スキーマを生成できた最近の記事ではっきりとわかりました。私は Llama3 作成スキーマのパフォーマンスには満足していましたが、オラクル社で以前働いていた時代の同僚が、書籍出版スキーマはよくある例だと指摘しました。
- AI 1184 2024-06-11 09:56:49
-
- Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。
- 何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。
- AI 909 2024-06-11 09:51:48
-
- Googleの検索アルゴリズムの内幕が明らかになり、2,500ページに及ぶ文書が実名で流出!検索ランキングの嘘が暴露される
- 最近、Google の内部文書 2,500 ページが流出し、「インターネットの最も強力な裁定者」である検索がどのように機能するかが明らかになりました。 SparkToro の共同創設者兼 CEO は匿名の人物であり、自身のウェブサイトにブログ投稿を公開し、「匿名の人物が、SEO 関係者全員が読むべき、何千ページもの Google Search API ドキュメントを私に共有してくれた」と主張しました。 ! 「長年にわたり、ランドフィッシュキン氏は SEO (検索エンジン最適化、検索エンジン最適化) の分野でトップのスポークスマンを務めており、「ウェブサイトの権威」(DomainRating) という概念を提案しました。彼はこの分野で非常に尊敬されているので、RandFishkin
- AI 1087 2024-06-11 09:14:23
-
- AI は異常気象を 5,000 倍の速さで予測します。マイクロソフト、AI の目で世界規模の嵐を予測する「Aurora」を発表
- 人類の歴史が始まって以来、人類はさまざまな方法で天気を予測し、「空の言語」を解読することに夢中になってきましたが、それは単に植物や雲が天気に関係しているように見えることを徐々に発見してきました。それは生産のための人間の必要性だけでなく、強風に合わせて歌い、月明かりの下で詩を暗唱する必要性もあります。 「氷と炎の歌」のウィンドシンガーは歌や詠唱によって天気や嵐を予言し、また人々は「天気を変える」という超能力を持っていると空想します。最近、気象の専門家や天気予報は、私たちがまだ身体化された経験や物理的な世界から逃れることができないことを明らかにしましたが、今、AIがそれを変えようとしています。コンテンツの微調整: マイクロソフトは、データから学習して予測を行うことができ、驚くべき精度と効率性を示す初の大規模大気基本モデルである Aurora をリリースしました。
- AI 883 2024-06-11 09:07:29
-
- ロビン・リーがヨーロッパの AI について語る: GPT-5 よりもスーパー アプリケーションに興味があります
- Zhonggu AI と西洋の最大の違いはアプリケーションです。中国には何百もの基本モデルがありますが、AI時代のスーパーアプリケーションとは何かについて議論する人が増えています。アプリケーションは AI の急速な発展を推進しています。アプリケーション分野の進歩は、基本モデルの革新を促進し、インターネット時代から人工知能時代への移行を加速するのに役立ちます。 「欧州AI春節祭典」のメインフォーラムに、カンファレンスに招待された唯一の中国人起業家として、ロビン・リー氏が新たに登場し、再び中国のAIを「代弁」した。フランスのパリで開催されるこのカンファレンスの正式名称は「欧州科学技術イノベーション展示会」(Viva Technology)で、ヨーロッパ最大級のテクノロジーイベントです。今年の講演者には、ロビン・リー氏に加えて、マスク賞とチューリング賞受賞者のヨシュア・ビー氏が参加します。
- AI 606 2024-06-10 22:55:23
-
- 多機能 RNA 解析、Transformer に基づく Baidu チームの RNA 言語モデルが Nature サブジャーナルに掲載
- Editor | Radish コアの事前トレーニング済み言語モデルは、ヌクレオチド配列の解析において有望であることが示されていますが、単一の事前トレーニング済み重みセットを使用して、さまざまなタスクで適切に機能する多機能モデルを実現するにはまだ課題があります。 Baidu Big Data Lab (BDL) と上海交通大学のチームは、Transformer アーキテクチャに基づいた RNA 中心の事前トレーニング モデルである RNAErnie を開発しました。研究者らは 7 つのデータセットと 5 つのタスクでモデルを評価し、教師あり学習と教師なし学習の両方における RNAErnie の優位性を実証しました。 RNAErnie はベースラインを上回り、分類精度が 1.8%、相互作用予測精度が 2.2%、構造予測 F1 スコアが 3.3% 向上しました。
- AI 678 2024-06-10 22:21:12
-
- 透明!適切な機械学習アルゴリズムを選択する方法
- アルゴリズムの選択に関する考慮事項 タスクに適切な機械学習アルゴリズムの選択には複数の要素が関係しており、それぞれの要素が最終的な決定に大きな影響を与える可能性があります。意思決定プロセス中に留意すべきいくつかの側面を次に示します。 1. データ セットのサイズと品質: 機械学習アルゴリズムは、入力データの要件が異なります。一部のアルゴリズムは小規模なデータ セットで適切に機能しますが、他のアルゴリズムは大規模なデータ セットで適切に機能します。さらに、データの精度、完全性、代表性も 1. データセットの特性 データセットの特性は、アルゴリズムの選択にとって重要です。データセットのサイズ、データセットに含まれるデータ要素のタイプ、データが構造化されているか非構造化されているかなどの要素はすべて重要な要素です。構造化データのアルゴリズムを非構造化データの問題に適用することを想像してください。おそらく、それほど遠くには到達しないでしょう!大規模なデータセットが必要になる
- AI 893 2024-06-10 22:18:30
-
- NVIDIA Riva を使用して、エンタープライズレベルの中国語音声 AI サービスを迅速に導入し、最適化および高速化します。
- 1. Riva の概要 1. 概要Riva は、リアルタイム SpeechAI サービスのために NVIDIA によって開始された SDK です。これは高度にカスタマイズ可能なツールであり、GPU アクセラレーションを使用します。多くの事前トレーニング済みモデルが NGC で提供されており、これらのモデルはすぐに使用でき、Riva が提供する ASR および TTS ソリューションを使用して直接デプロイできます。特定の分野のニーズを満たすため、またはカスタマイズされた機能を開発するために、ユーザーは NeMo を使用してこれらのモデルを再トレーニングまたは微調整することもできます。これにより、モデルのパフォーマンスがさらに向上し、ユーザーのニーズにより適応できるようになります。 Riva+Skills は、GPU アクセラレーションによるリアルタイム ストリーミング音声認識を活用した、高度にカスタマイズ可能なツールです。
- AI 1167 2024-06-10 21:57:48
-
- 超強い!知っておくべき機械学習アルゴリズムのトップ 10
- 1. 線形回帰 線形回帰は、予測モデリングに最も単純で最も広く使用されている機械学習アルゴリズムの 1 つです。これは、1 つ以上の独立変数に基づいて従属変数の値を予測するために使用される教師あり学習アルゴリズムです。線形回帰の定義の核心は、線形モデルを観測データに適合させることです。線形モデルは次の方程式で表されます。 ここで、 は従属変数 (予測する変数) は独立変数 (予測を行うために使用する変数) は直線の傾き は y 切片 (線と y 軸の交点) 線形回帰 アルゴリズムには、データ ポイントを通る最適な線を見つけることが含まれます。これは通常、観測値と予測値の間の二乗差を最小化することによって行われます。評価指標の平均二乗誤差 (MSE): 測定誤差の二乗の平均。値が低いほど良好です。 R二乗:根を意味します
- AI 1011 2024-06-10 21:53:52
-
- 使用中の AI | 100,000 件を超える記事で「クレイジーな」コピーライティングを作成するために Kim を使用する
- 機械の力に関するレポートの編集者: Wenhua 大型モデルや AIGC に代表される人工知能の波は、私たちの生活や働き方を静かに変えていますが、ほとんどの人はまだその使い方を知りません。そこで、直感的で興味深く簡潔な人工知能のユースケースを通じてAIの活用方法を詳しく紹介し、皆様の思考を刺激するコラム「AI in Use」を立ち上げました。また、読者が革新的な実践的な使用例を提出することも歓迎します。最近は、アクセスを集めるために、誰もがハゲるほど心配しています。今日は、トラフィックを獲得するアムウェイの方法について学びましょう。AI を使用して一般アカウント向けに「クレイジーな」コピーライティングを書き、記事ごとに 100,000 以上を獲得します。このタイプのコピーライティングの公開アカウントには、従うべきルーチンがあります。 1. 興味深いタイトル 2. 深刻な病気を患っていると思われるコピーライティング 3. 癒しまたは面白いと思われる写真をいくつか これは、A を使用します。
- AI 1159 2024-06-10 21:22:30
-
- RAG に加えて、大きなモデルの錯覚を排除する 5 つの方法があります
- 51CTO テクノロジー スタックによって作成 (WeChat ID: blog51cto) LLM が幻覚を引き起こす可能性があること、つまり、不正確、誤解を招く、または無意味な情報を生成する可能性があることはよく知られています。興味深いことに、OpenAI CEO のサム・アルトマンのように、AI の想像力を創造性とみなす人もいれば、想像力が新しい科学的発見に役立つかもしれないと信じている人もいます。しかし、ほとんどの場合、正しい答えを提供することが重要であり、幻覚は特徴ではなく欠点です。では、LLM の錯覚を軽減するにはどうすればよいでしょうか?長い文脈ですか?ラグ?微調整?実際、ロングコンテキスト LLM は確実ではなく、ベクトル検索 RAG は満足できるものではなく、微調整には独自の課題と制限が伴います。使用できるものをいくつか紹介します
- AI 1540 2024-06-10 20:25:51
-
- ICML2024ハイスコア!魔法のように注意力を変化させ、小さなモデルでも大きなモデルの 2 倍戦えるようにします
- Transformer のコアメカニズムを集中的に改善し、小さなモデルを使用して 2 倍のサイズのモデルを作成できるようにしました。 ICML+2024 の高得点論文で、Caiyun Technology チームは、Transformer コア コンポーネント アテンション モジュール (MHA) を置き換える DCFormer フレームワークを構築し、動的に結合可能なマルチヘッド アテンション (DCMHA) を提案しました。 DCMHA は、MHA アテンション ヘッドの検索、選択ループ、変換ループの固定バインドを取り除き、入力に基づいて動的に組み合わせることができるようにし、モデルの表現能力を根本的に向上させます。本来の意味は、各層が固定の H アテンション ヘッドを持っていたということですが、ほぼ同じ量のパラメータと計算能力で、最大 Hx まで動的に組み合わせることができることがわかりました。
- AI 905 2024-06-10 20:18:19
-
- TigerGraph CoPilot がグラフ拡張 AI を実装する方法
- AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/ をご覧ください。この記事では、他の商用 LLM の欠点を比較しながら、AIGC の主な機能、利点、および 2 つの重要なポイントを詳しく紹介します。 TigerGraphCoPilot の例。近年、生産要素としてのデータにより、さまざまな業界にわたって革新的なビジネスの洞察が得られるようになりました。しかし、利用可能なビッグデータをどのように活用するかは、しばしば大きな課題をもたらします。一方ではデータが過負荷になっており、他方では十分に活用されていないデータアイランドが多数存在します。多くのプロのデータ サイエンティストやアナリストは、専門知識を活用して、組織が犠牲にすることなく運営できるようにすることを緊急に必要としています。
- AI 926 2024-06-10 18:38:14
-
- ICML 2024 | LoRA アーキテクチャから脱却し、トレーニング パラメータが大幅に削減され、新しいタイプのフーリエ微調整が登場
- AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。投稿メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この記事は、大規模モデルの効率的な微調整 (LLMPEFTFine-tuning)「Parameter-EfficientFine-TuningwithDis」に関する香港科技大学 (広州) の論文を紹介します。
- AI 1270 2024-06-10 17:58:01