Подтвердить что ты не робот

Как запросить столбцы данных JSON, используя Spark DataFrames?

У меня есть таблица Cassandra, которая для простоты выглядит примерно так:

key: text
jsonData: text
blobData: blob

Я могу создать базовый фрейм данных для этого, используя искру и искро-кассандра-коннектор, используя:

val df = sqlContext.read
  .format("org.apache.spark.sql.cassandra")
  .options(Map("table" -> "mytable", "keyspace" -> "ks1"))
  .load()

Я изо всех сил пытаюсь расширить данные JSON в своей базовой структуре. В конечном итоге я хочу иметь возможность фильтровать на основе атрибутов в строке json и возвращать данные blob. Что-то вроде jsonData.foo = "bar" и return blobData. Возможно ли это в настоящее время?

4b9b3361

Ответ 1

Spark> = 2,4

Если необходимо, схему можно определить с помощью функции schema_of_json (обратите внимание, что это предполагает, что произвольная строка является действительным представителем схемы).

import org.apache.spark.sql.functions.{lit, schema_of_json, from_json}

val schema = schema_of_json(lit(df.select($"jsonData").as[String].first))
df.withColumn("jsonData", from_json($"jsonData", schema, Map[String, String]()))

Spark> = 2.1

Вы можете использовать функцию from_json :

import org.apache.spark.sql.functions.from_json
import org.apache.spark.sql.types._

val schema = StructType(Seq(
  StructField("k", StringType, true), StructField("v", DoubleType, true)
))

df.withColumn("jsonData", from_json($"jsonData", schema))

Spark> = 1.6

Вы можете использовать get_json_object, который принимает столбец и путь:

import org.apache.spark.sql.functions.get_json_object

val exprs = Seq("k", "v").map(
  c => get_json_object($"jsonData", s"$$.$c").alias(c))

df.select($"*" +: exprs: _*)

и извлекает поля в отдельные строки, которые затем могут быть преобразованы в ожидаемые типы.

Аргумент path выражается с использованием точечного синтаксиса, при этом начальный $. обозначает корень документа (поскольку в приведенном выше коде используется интерполяция строк, $ необходимо экранировать, следовательно, $$.).

Spark & lt; = 1,5:

Возможно ли это в настоящее время?

Насколько я знаю, это напрямую невозможно. Вы можете попробовать что-то похожее на это:

val df = sc.parallelize(Seq(
  ("1", """{"k": "foo", "v": 1.0}""", "some_other_field_1"),
  ("2", """{"k": "bar", "v": 3.0}""", "some_other_field_2")
)).toDF("key", "jsonData", "blobData")

Я предполагаю, что поле blob не может быть представлено в JSON. В противном случае вы не сможете разделить и присоединиться:

import org.apache.spark.sql.Row

val blobs = df.drop("jsonData").withColumnRenamed("key", "bkey")
val jsons = sqlContext.read.json(df.drop("blobData").map{
  case Row(key: String, json: String) =>
    s"""{"key": "$key", "jsonData": $json}"""
}) 

val parsed = jsons.join(blobs, $"key" === $"bkey").drop("bkey")
parsed.printSchema

// root
//  |-- jsonData: struct (nullable = true)
//  |    |-- k: string (nullable = true)
//  |    |-- v: double (nullable = true)
//  |-- key: long (nullable = true)
//  |-- blobData: string (nullable = true)

Альтернативный (более дешевый, хотя и более сложный) подход заключается в использовании UDF для анализа JSON и вывода столбца struct или map. Например что-то вроде этого:

import net.liftweb.json.parse

case class KV(k: String, v: Int)

val parseJson = udf((s: String) => {
  implicit val formats = net.liftweb.json.DefaultFormats
  parse(s).extract[KV]
})

val parsed = df.withColumn("parsedJSON", parseJson($"jsonData"))
parsed.show

// +---+--------------------+------------------+----------+
// |key|            jsonData|          blobData|parsedJSON|
// +---+--------------------+------------------+----------+
// |  1|{"k": "foo", "v":...|some_other_field_1|   [foo,1]|
// |  2|{"k": "bar", "v":...|some_other_field_2|   [bar,3]|
// +---+--------------------+------------------+----------+

parsed.printSchema

// root
//  |-- key: string (nullable = true)
//  |-- jsonData: string (nullable = true)
//  |-- blobData: string (nullable = true)
//  |-- parsedJSON: struct (nullable = true)
//  |    |-- k: string (nullable = true)
//  |    |-- v: integer (nullable = false)

Ответ 2

Функция from_json - это именно то, что вы ищете. Ваш код будет выглядеть примерно так:

val df = sqlContext.read
  .format("org.apache.spark.sql.cassandra")
  .options(Map("table" -> "mytable", "keyspace" -> "ks1"))
  .load()

//You can define whatever struct type that your json states
val schema = StructType(Seq(
  StructField("key", StringType, true), 
  StructField("value", DoubleType, true)
))

df.withColumn("jsonData", from_json(col("jsonData"), schema))

Ответ 3

лежащая в основе строка JSON

"{ \"column_name1\":\"value1\",\"column_name2\":\"value2\",\"column_name3\":\"value3\",\"column_name5\":\"value5\"}";

Ниже script для фильтрации JSON и загрузки необходимых данных в Cassandra.

  sqlContext.read.json(rdd).select("column_name1 or fields name in Json", "column_name2","column_name2")
            .write.format("org.apache.spark.sql.cassandra")
            .options(Map("table" -> "Table_name", "keyspace" -> "Key_Space_name"))
            .mode(SaveMode.Append)
            .save()

Ответ 4

Я использую следующее

(доступно с версии 2.2.0, и я предполагаю, что ваш строковый столбец json имеет индекс столбца 0)

def parse(df: DataFrame, spark: SparkSession): DataFrame = {
    val stringDf = df.map((value: Row) => value.getString(0), Encoders.STRING)
    spark.read.json(stringDf)
}

Он автоматически выведет схему в вашем JSON. Документировано здесь: https://spark.apache.org/docs/2.3.0/api/java/org/apache/spark/sql/DataFrameReader.html.