目次
1. DataWind のビジュアル モデリング機能はこちらです
2. ゼロしきい値 SQL ツール
2.1 [シナリオ 1] 思ったとおりの結果が得られ、データ処理プロセスは視覚的に完了します。
2.2 [シナリオ 2] 複数のテーブルをすばやく結合して、複数データの関連付けの計算を簡単に解決する
3. AI データ マイニングはもはや手の届かないものではありません
4. マルチシナリオとマルチタスクの構築、管理はもはや分散化ではない
5. 会社概要
ホームページ テクノロジー周辺機器 AI 火山エンジン ツール テクノロジーの共有: AI を使用してデータ マイニングを完了し、ゼロしきい値で SQL 書き込みを完了します

火山エンジン ツール テクノロジーの共有: AI を使用してデータ マイニングを完了し、ゼロしきい値で SQL 書き込みを完了します

May 18, 2023 pm 08:19 PM
ai データマイニング

火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

BI ツールを使用するときに、よく遭遇する質問は次のとおりです。「SQL を知らない場合、データをどのように生成および処理できますか? 知らない場合、マイニング分析を行うことはできますか?」

プロのアルゴリズム チームがデータ マイニングを行う場合、データ分析と視覚化も比較的断片化されているように見えます。アルゴリズムのモデリングとデータ分析の作業を合理的な方法で完了することも、効率を向上させる良い方法です。

同時に、プロのデータ ウェアハウス チームにとって、同じテーマのデータ コンテンツは「繰り返し構築され、比較的分散して使用および管理される」という問題に直面しています。それを同時に作成する方法はあるのでしょうか?同じテーマの 1 つのタスクですか? 異なるコンテンツのデータセットですか?生成されたデータセットをデータ構築に再参加するための入力として使用できますか?

1. DataWind のビジュアル モデリング機能はこちらです

Volcano Engine によって開始された BI プラットフォーム DataWind インテリジェント データ インサイトは、新しい高度な機能ビジュアル モデリングを開始しました。

ユーザーは、視覚的なドラッグ、プル、接続操作を通じて、複雑なデータ処理とモデリングのプロセスを明確で理解しやすいキャンバス プロセスに簡素化できます。あらゆる種類のユーザーが、彼らが何を考えているか、それが得られるものであるというアイデアを実現し、それによってデータの生成と取得の敷居を下げます。

Canvas は、キャンバス プロセスの複数グループの同時構築をサポートしており、1 つのピクチャで複数のデータ モデリング タスクの構築を実現できるため、データ構築の効率が向上し、タスク管理コストが削減されます。さらに、Canvas は統合およびカプセル化を行います。 40 種類を超えるデータ クリーニング、特徴量エンジニアリング オペレーターにより、複雑なデータ機能を完成させるためのコーディングを必要とせずに、主要なデータ生成機能から高レベルのデータ生成機能までカバーします。

2. ゼロしきい値 SQL ツール

データの生成と処理は、データを取得して分析するための最初のステップです。

技術者以外のユーザーの場合、SQL 構文の使用には一定のしきい値があり、同時にローカル ファイルを定期的に更新できないため、毎回ダッシュボードを手動でやり直す必要があります。データを取得するために必要な技術的な人員は多くの場合スケジュール設定が必要であり、データ取得の適時性と満足度が大幅に低下するため、ゼロコード データ構築ツールを使用することが特に重要です。

以下に、ゼロしきい値データ処理が業務にどのように適用されるかを示す 2 つの典型的なシナリオを示します。

2.1 [シナリオ 1] 思ったとおりの結果が得られ、データ処理プロセスは視覚的に完了します。

製品操作の繰り返しでさまざまなデータのタイムリーな入力フィードバックが緊急に必要な場合、データ処理プロセスは視覚化によって抽象化および構築できます。モジュラー ドラッグ オペレーターはデータ処理プロセスを構築します。

日付と都市の粒度で注文件数と注文金額を取得し、日別消費量データ上位10位の都市データを取得したい場合の操作は以下のとおりです。

火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

2.2 [シナリオ 2] 複数のテーブルをすばやく結合して、複数データの関連付けの計算を簡単に解決する

データ処理プロセスでは、複数のデータ ソースを処理する必要があります。従来、Vlookup などの高度なアルゴリズムを Excel で使いこなすのは難しく、時間もかかりました。同時に、データ量が大きい場合、コンピュータのパフォーマンスがデータの結合計算を完了できない場合があります。

比較的データ量の多い注文と顧客属性情報テーブルが2つある場合、請求金額と原価金額から利益額を計算し、上位100位のユーザー注文情報を取得する必要があります。利益貢献に基づく

#一般的なデータ処理プロセス

ビジュアル モデリング プロセス #

  1. 技術学生は、注文 ID/注文金額/ユーザー ID/注文日の都市などを含む注文の詳細データを取得してください。
  2. パースペクティブ操作、注文日、都市を通じてデータを設定します。インジケーターは注文金額の合計、注文 ID の合計です
  3. ピボット結果を金額順に並べ替え、シリアル番号を書き込みます。
  4. #フィルターを使用して上位 10 データをフィルターします
  1. データ ソースを選択するか、データベース テーブルを選択するか、CSV ファイルをアップロードするか、LarkSheet に接続します。
  2. 使用する必要があるフィールド情報をフィルタリングし、独自に定義したフィールド名と形式を構成します
  3. 集計する集計演算子を選択します日付と都市に基づいて注文量と注文金額を計算します
  4. 上位値演算子を選択し、上位 10 位の金額を取得します
  5. Fengshen に適用できるデータ セットを出力します。 グラフを描画します。

一般的なデータ処理プロセス

ビジュアルモデリングプロセス

  1. #2 つ必要です 注文データを開いた後、コピー データがファイルにマージされます
  2. VloopUp を使用して、注文内のユーザー データと注文内のユーザー データを検索します
  3. ピボット テーブルを使用してユーザーの請求金額とコスト金額を計算し、利益金額を計算します。
  4. 利益額ごとに並べ替えられた上位 N の顧客情報を取得します
CSV ファイル/LaskSheet をアップロードしてデータ入力を構築できます
  1. その後、3 月/4 月の注文データを 1 つのデータにマージできます
  2. 顧客情報属性テーブルを接続し、顧客属性情報をバインドします。
  3. ## 集計方法を選択して、次に従って請求金額と費用金額を計算します。顧客固有の番号
  4. 計算列を選択して、請求金額と原価金額に基づいて利益金額を計算します。
  5. #利益額に従って並べ替えられた上位 N の顧客情報を取得します
  6. 火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    3. AI データ マイニングはもはや手の届かないものではありません

    基本的なデータ クリーニングではデータ構築とデータ分析を満足できなくなった場合、AI アルゴリズムのサポートが必要になりますデータにさらに隠れた価値がある場合。アルゴリズム チームの学生は、ビジュアル チャートをうまく操作できず、すぐに適用できる優れたデータを生成できないことに悩む可能性がありますが、一般のユーザーは、このアルゴリズムの出現を抑制するための AI コードの高いしきい値によって直接抑制される可能性があり、需要が高まっていますしかし需要が怖い 浅すぎて価値が評価できない 現時点ではアルゴリズムマイニングは贅沢品になってしまいます。

    DataWind のビジュアル モデリングには、30 を超える一般的な AI オペレーター機能がカプセル化されています。ユーザーは、アルゴリズムの機能を理解し、構成を通じてアルゴリズム オペレーターの入力とトレーニング目標を構成するだけで、モデルのトレーニングを完了できます。予測を迅速に取得できます。他の構成されたデータコンテンツに基づく結果。

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写


    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写


    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写


    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    ######################################################################################################################################################################################################################################################################################################################################################################################################################### Python の書き方を知らなくてもデータ マイニングを完了できます。 ### #########3.1 【初級】Python を知らなくてもデータマイニングができる######ユーザーの日常業務では基本的に Python を書くことはありませんが、データマイニングの需要シナリオ。彼は、既存の高い意図を持った顧客サンプルに基づいて顧客の意図をマイニングする必要があります。この時点で、データ マイニング プロセスはビジュアル モデリングを通じて構築できます。 ######### サンプル データとすべてのデータをデータ入力としてドラッグします。 ######モデル トレーニング用の XGB アルゴリズムなどの分類アルゴリズムにドラッグします。 ######予測演算子をドラッグして、モデルと予測用のすべてのデータの間の関係を構築します。 ######実際のデータと予測結果を出力データセットと組み合わせて、すべてのユーザーデータの意図分布を分析します。 #####################3.2 [上級] Python を記述せずに複雑なアルゴリズム モデルを構築できます######ユーザーは既存のデータに基づいてモデルを構築する必要がありますユーザー再購入モデル。モデル構築中に、データ クリーニングと形式変換後に勾配ブースティング ツリーを使用して予測モデルを構築する必要があります。このとき、再購入モデル プロセスはビジュアル モデリングに基づいて構築できます: ########## ####### #行の結合: n 個の演算子の出力データ テーブル (図の四角形) を、一貫したヘッダーに基づいて 1 つの全体的なデータ テーブルに結合します。ユーザーの販売データに新しい属性が追加または削除されない場合、変更はありませんここでは必要となります。 ######欠損値の置換: 属性列に null 値 (null) がある場合、後続のモデル計算に影響します。欠損値の置換演算子を使用して、null 値を指定されたデフォルト値に置き換えます。ユーザーの販売データは新しい属性を追加または削除しません。ここでの変更は必要ありません。 ######one-hot エンコーディング: テキスト タイプの属性はモデル トレーニングで直接使用できないため、one_hot によって数値ベクトルにエンコードする必要があります。例: ############## ###### #Gradient Boosting Tree: トレーニング データのフィッティングと、予測に使用できるモデルの出力を担当します (図でマークされていないパラメーターは、保守者が変更する必要はありません): ####### ########## #######Aggregation_1: 予測データの重複を削除し、最大の確率を取得します。 ######フィールドの抽出: 必要なラベルと確率値の出力を抽出します。 ##################

    4. マルチシナリオとマルチタスクの構築、管理はもはや分散化ではない

    データ アナリストとして、データ セットを構築し、データ ダッシュボードを構築するための日々の作業もたくさんあります。ただし、通常、データ ウェアハウスから取得される下部テーブルは幅の広いテーブルになり、これに基づいて、さまざまなシナリオ要件に従ってさまざまなデータ セット タスクが構築されます。

    その後の使用では、類似したデータ セットがさらに多くなることがよくありますが、特定のロジックを十分に比較および確認することはできません。このとき、すべてのデータセットロジックが 1 つのデータセット内に構成および生成され、各データセットがタスクプロセスを通じて判断および定義できるようになれば素晴らしいと思います。

    このシナリオでは、DataWind のビジュアル モデリング機能も非常にうまく完成させることができます。ビジュアル モデリング機能は、単一のデータ セットを複数のロジック プロセスで同時に処理して複数のデータ セットを生成することをサポートします。注文データとユーザー データの処理を例に挙げます。

    1. ユーザーが注文統計を確認したい場合は、 注文統計データ セットのデータ処理プロセスで次のことができます。建てられる。
    2. 詳細データを見たいが、詳細フィールドを処理してクリーンアップする必要があるユーザーがいる場合、注文詳細テーブル データセットの処理フローを構築できます。 。
    3. 一部のユーザーは、ユーザー属性を組み合わせてユーザーの注文分布をカウントし、インジケーター集計と組み合わせた複数のテーブルの関連付けを構築して、完全な ユーザー注文統計データ セットを生成したいと考えています。
    4. 同じロジックで、複数テーブル関連付けの下で ユーザー注文詳細データ セットを生成できます。

    このように、1 つのタスクと 2 つのデータ入力によって 4 つのデータ セットが生成され、これら 4 つのデータ セットでデータ主体ドメインを構築し、以降の関連データを使用できるようになります。タスクが出力したデータセットが使用されます。

    火山引擎工具技术分享:用 AI 完成数据挖掘,零门槛完成 SQL 撰写

    5. 会社概要

    Volcano Engine Intelligent Data Insight DataWind は、詳細なレベルでのセルフサービス分析をサポートする強化されたプラットフォームです。ビッグデータのレベル、ABI プラットフォーム。データ アクセス、データ統合からクエリと分析に至るまで、データは最終的にビジュアル データ ポータル、デジタル大型スクリーン、管理コックピットの形でビジネス ユーザーに提供され、データが価値を発揮できるようになります。

以上が火山エンジン ツール テクノロジーの共有: AI を使用してデータ マイニングを完了し、ゼロしきい値で SQL 書き込みを完了しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Debian Apacheログ形式の構成方法 Debian Apacheログ形式の構成方法 Apr 12, 2025 pm 11:30 PM

この記事では、Debian SystemsでApacheのログ形式をカスタマイズする方法について説明します。次の手順では、構成プロセスをガイドします。ステップ1:Apache構成ファイルにアクセスするDebianシステムのメインApache構成ファイルは、/etc/apache2/apache2.confまたは/etc/apache2/httpd.confにあります。次のコマンドを使用してルートアクセス許可を使用して構成ファイルを開きます。sudonano/etc/apache2/apache2.confまたはsudonano/etc/apache2/httpd.confステップ2:検索または検索または

Tomcatログがメモリの漏れのトラブルシューティングに役立つ方法 Tomcatログがメモリの漏れのトラブルシューティングに役立つ方法 Apr 12, 2025 pm 11:42 PM

Tomcatログは、メモリリークの問題を診断するための鍵です。 Tomcatログを分析することにより、メモリの使用状況とガベージコレクション(GC)の動作に関する洞察を得ることができ、メモリリークを効果的に見つけて解決できます。 Tomcatログを使用してメモリリークをトラブルシューティングする方法は次のとおりです。1。GCログ分析最初に、詳細なGCロギングを有効にします。 Tomcatの起動パラメーターに次のJVMオプションを追加します:-xx:printgcdetails-xx:printgcdateStamps-xloggc:gc.logこれらのパラメーターは、GCタイプ、リサイクルオブジェクトサイズ、時間などの情報を含む詳細なGCログ(GC.log)を生成します。分析GC.LOG

Debian Readdirによるファイルソートを実装する方法 Debian Readdirによるファイルソートを実装する方法 Apr 13, 2025 am 09:06 AM

Debian Systemsでは、Readdir関数はディレクトリコンテンツを読み取るために使用されますが、それが戻る順序は事前に定義されていません。ディレクトリ内のファイルを並べ替えるには、最初にすべてのファイルを読み取り、QSORT関数を使用してソートする必要があります。次のコードは、debianシステムにreaddirとqsortを使用してディレクトリファイルを並べ替える方法を示しています。

Debian Readdirのパフォーマンスを最適化する方法 Debian Readdirのパフォーマンスを最適化する方法 Apr 13, 2025 am 08:48 AM

Debian Systemsでは、Directoryコンテンツを読み取るためにReadDirシステム呼び出しが使用されます。パフォーマンスが良くない場合は、次の最適化戦略を試してください。ディレクトリファイルの数を簡素化します。大きなディレクトリをできる限り複数の小さなディレクトリに分割し、Readdirコールごとに処理されたアイテムの数を減らします。ディレクトリコンテンツのキャッシュを有効にする:キャッシュメカニズムを構築し、定期的にキャッシュを更新するか、ディレクトリコンテンツが変更されたときに、頻繁な呼び出しをreaddirに削減します。メモリキャッシュ(memcachedやredisなど)またはローカルキャッシュ(ファイルやデータベースなど)を考慮することができます。効率的なデータ構造を採用する:ディレクトリトラバーサルを自分で実装する場合、より効率的なデータ構造(線形検索の代わりにハッシュテーブルなど)を選択してディレクトリ情報を保存およびアクセスする

Debian syslogを学ぶ方法 Debian syslogを学ぶ方法 Apr 13, 2025 am 11:51 AM

このガイドでは、Debian SystemsでSyslogの使用方法を学ぶように導きます。 Syslogは、ロギングシステムとアプリケーションログメッセージのLinuxシステムの重要なサービスです。管理者がシステムアクティビティを監視および分析して、問題を迅速に特定および解決するのに役立ちます。 1. syslogの基本的な知識Syslogのコア関数には以下が含まれます。複数のログ出力形式とターゲットの場所(ファイルやネットワークなど)をサポートします。リアルタイムのログ表示およびフィルタリング機能を提供します。 2。syslog(rsyslogを使用)をインストールして構成するDebianシステムは、デフォルトでrsyslogを使用します。次のコマンドでインストールできます:sudoaptupdatesud

Debian Syslogのファイアウォールルールを構成する方法 Debian Syslogのファイアウォールルールを構成する方法 Apr 13, 2025 am 06:51 AM

この記事では、Debian SystemsでiPtablesまたはUFWを使用してファイアウォールルールを構成し、Syslogを使用してファイアウォールアクティビティを記録する方法について説明します。方法1:Iptablesiptablesの使用は、Debian Systemの強力なコマンドラインファイアウォールツールです。既存のルールを表示する:次のコマンドを使用して現在のiPtablesルールを表示します。Sudoiptables-L-N-vでは特定のIPアクセスを許可します。たとえば、IPアドレス192.168.1.100がポート80にアクセスできるようにします:sudoiptables-input-ptcp - dport80-s192.166

Debian Mail Server SSL証明書のインストール方法 Debian Mail Server SSL証明書のインストール方法 Apr 13, 2025 am 11:39 AM

Debian Mail ServerにSSL証明書をインストールする手順は次のとおりです。1。最初にOpenSSL Toolkitをインストールすると、OpenSSLツールキットがシステムに既にインストールされていることを確認してください。インストールされていない場合は、次のコマンドを使用してインストールできます。sudoapt-getUpdatesudoapt-getInstalopenssl2。秘密キーと証明書のリクエストを生成次に、OpenSSLを使用して2048ビットRSA秘密キーと証明書リクエスト(CSR)を生成します:Openss

Debian Nginxログパスはどこですか Debian Nginxログパスはどこですか Apr 12, 2025 pm 11:33 PM

Debianシステムでは、nginxのアクセスログとエラーログのデフォルトのストレージ場所は次のとおりです。アクセスログ(アクセスログ):/var/log/nginx/access.logエラーログ(errorlog):/var/log/nginx/error.log上記のパスは、標準のdebiannginxインストールのデフォルト構成です。インストールプロセス中にログファイルストレージの場所を変更した場合は、nginx構成ファイル(通常は/etc/nginx/nginx.confまたは/etc/etc/nginx/sites-abailable/directoryにあります)を確認してください。構成ファイル

See all articles