ホームページ > データベース > mysql チュートリアル > Apache Spark DataFrame で列を連結するにはどうすればよいですか?

Apache Spark DataFrame で列を連結するにはどうすればよいですか?

Patricia Arquette
リリース: 2025-01-18 18:42:13
オリジナル
258 人が閲覧しました

How to Concatenate Columns in an Apache Spark DataFrame?

Apache Spark DataFrame での列の連結

Apache Spark では、生の SQL または Spark 1.5.0 で導入された DataFrame API を使用して DataFrame 内の列を連結できます。 .

生の使用SQL

生の SQL を使用して列を連結するには、CONCAT 関数を使用します。

Python の場合:

df = sqlContext.createDataFrame([("foo", 1), ("bar", 2)], ("k", "v"))
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")
ログイン後にコピー

でScala:

import sqlContext.implicits._

val df = sc.parallelize(Seq(("foo", 1), ("bar", 2))).toDF("k", "v")
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")
ログイン後にコピー

DataFrame API の使用

Spark 1.5.0 以降、DataFrame API:concat

関数を使用できます。 🎜>

でPython:

from pyspark.sql.functions import concat, col, lit

df.select(concat(col("k"), lit(" "), col("v")))
ログイン後にコピー

Scala の場合:

import org.apache.spark.sql.functions.{concat, lit}

df.select(concat($"k", lit(" "), $"v"))
ログイン後にコピー
concat_ws の使用

concat_ws もあります最初の文字列区切り文字を受け取る関数引数:

以上がApache Spark DataFrame で列を連結するにはどうすればよいですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート