首頁 > 資料庫 > mysql教程 > 如何連接 Apache Spark DataFrame 中的欄位?

如何連接 Apache Spark DataFrame 中的欄位?

Patricia Arquette
發布: 2025-01-18 18:42:13
原創
258 人瀏覽過

How to Concatenate Columns in an Apache Spark DataFrame?

連接Apache Spark DataFrame 中的列

在Apache Spark 中,您可以使用原始SQL 或Spark 1.5.0 中引入的DataFrame API 連接DataFrame 中的列.

使用原始SQL

使用下列方式連接列原始SQL,使用 CONCAT 函數:

在 Python 中:

df = sqlContext.createDataFrame([("foo", 1), ("bar", 2)], ("k", "v"))
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")
登入後複製

在 Scala 中:

import sqlContext.implicits._

val df = sc.parallelize(Seq(("foo", 1), ("bar", 2))).toDF("k", "v")
df.registerTempTable("df")
sqlContext.sql("SELECT CONCAT(k, ' ',  v) FROM df")
登入後複製
在 Scala 中:

在 Scala 中:

使用資料框API從Spark 1.5.0 開始,您可以將

concat
from pyspark.sql.functions import concat, col, lit

df.select(concat(col("k"), lit(" "), col("v")))
登入後複製
函數與DataFrame API 結合使用:

在Python 中:

import org.apache.spark.sql.functions.{concat, lit}

df.select(concat($"k", lit(" "), $"v"))
登入後複製

在Scala:

df.select(concat_ws("-", col("k"), col("v")))
登入後複製
使用concat_ws還有concat_ws 函數,它將字串分隔符作為其第一個參數:

以上是如何連接 Apache Spark DataFrame 中的欄位?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
作者最新文章
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板