欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Spark SQL操作JSON字段的小技巧

 更新時間:2018年04月25日 11:50:07   作者:祝威廉  
這篇文章主要給大家介紹了關(guān)于Spark SQL操作JSON字段的小技巧,文中通過示例代碼介紹的非常詳細(xì),對大家學(xué)習(xí)或者使用spark sql具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧。

前言

介紹Spark SQL的JSON支持,這是我們在Databricks中開發(fā)的一個功能,可以在Spark中更容易查詢和創(chuàng)建JSON數(shù)據(jù)。隨著網(wǎng)絡(luò)和移動應(yīng)用程序的普及,JSON已經(jīng)成為Web服務(wù)API以及長期存儲的常用的交換格式。使用現(xiàn)有的工具,用戶通常會使用復(fù)雜的管道來在分析系統(tǒng)中讀取和寫入JSON數(shù)據(jù)集。在Apache Spark 1.1中發(fā)布Spark SQL的JSON支持,在Apache Spark 1.2中增強(qiáng),極大地簡化了使用JSON數(shù)據(jù)的端到端體驗(yàn)。

很多時候,比如用structure streaming消費(fèi)kafka數(shù)據(jù),默認(rèn)可能是得到key,value字段,key是偏移量,value是一個byte數(shù)組。很可能value其實(shí)是一個Json字符串。這個時候我們該如何用SQL操作這個json里的東西呢?另外,如果我處理完的數(shù)據(jù),我想寫入到kafka,但是我想把整條記錄作為json格式寫入到Kafka,又該怎么寫這個SQL呢?

get_json_object

第一個就是get_json_object,具體用法如下:

select get_json_object('{"k": "foo", "v": 1.0}','$.k') as k

需要給定get_json_object 一個json字段名(或者字符串),然后通過類似jsonPath的方式去拿具體的值。
這個方法其實(shí)有點(diǎn)麻煩,如果要提取里面的是個字段,我就要寫是個類似的東西,很復(fù)雜。

from_json

具體用法如下:

select a.k from (
select from_json('{"k": "foo", "v": 1.0}','k STRING, v STRING',map("","")) as a
)

這個方法可以給json定義一個Schema,這樣在使用時,就可以直接使用a.k這種方式了,會簡化很多。

to_json

該方法可以把對應(yīng)字段轉(zhuǎn)化為json字符串,比如:

select to_json(struct(*)) AS value

可以把所有字段轉(zhuǎn)化為json字符串,然后表示成value字段,接著你就可以把value字段寫入Kafka了。是不是很簡單。

處理具有大量字段的JSON數(shù)據(jù)集

JSON數(shù)據(jù)通常是半結(jié)構(gòu)化、非固定結(jié)構(gòu)的。將來,我們將擴(kuò)展Spark SQL對JSON支持,以處理數(shù)據(jù)集中的每個對象可能具有相當(dāng)不同的結(jié)構(gòu)的情況。例如,考慮使用JSON字段來保存表示HTTP標(biāo)頭的鍵/值對的數(shù)據(jù)集。每個記錄可能會引入新的標(biāo)題類型,并為每個記錄使用一個不同的列將產(chǎn)生一個非常寬的模式。我們計劃支持自動檢測這種情況,而是使用map類型。因此,每行可以包含Map,使得能夠查詢其鍵/值對。這樣,Spark SQL將處理具有更少結(jié)構(gòu)的JSON數(shù)據(jù)集,推動了基于SQL的系統(tǒng)可以處理的那種查詢的邊界。

總結(jié)

以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。

相關(guān)文章

  • 新推出的金融版eXtremeDB 6.0功能改進(jìn)預(yù)覽

    新推出的金融版eXtremeDB 6.0功能改進(jìn)預(yù)覽

    這篇文章主要介紹了新推出的金融版eXtremeDB 6.0功能改進(jìn)預(yù)覽,如運(yùn)用SQL, Python實(shí)現(xiàn)的基于矢量的統(tǒng)計功能、分布式的查詢處理、市場數(shù)據(jù)壓縮等內(nèi)容,需要的朋友可以參考下
    2014-10-10
  • 比較SQL Server與Oracle、DB2數(shù)據(jù)庫的一些知識

    比較SQL Server與Oracle、DB2數(shù)據(jù)庫的一些知識

    本文比較大型數(shù)據(jù)庫SQL Server與Oracle、DB2的一些不同應(yīng)用之處。對于以后開發(fā)選擇什么樣的數(shù)據(jù)庫。
    2010-03-03
  • 數(shù)據(jù)計算中間件技術(shù)綜述

    數(shù)據(jù)計算中間件技術(shù)綜述

    這篇文章主要介紹了數(shù)據(jù)計算中間件技術(shù)綜述 ,傳統(tǒng)企業(yè)大數(shù)據(jù)架構(gòu)的問題,通過一張圖就能看懂,感興趣的朋友跟隨小編一起通過本文學(xué)習(xí)吧
    2018-11-11
  • SQL的各種連接Join案例詳解

    SQL的各種連接Join案例詳解

    SQL JOIN 子句用于把來自兩個或多個表的行結(jié)合起來,基于這些表之間的共同字段,下面就為大家分享一下
    2020-09-09
  • SunlightDB 2017新型區(qū)塊鏈數(shù)據(jù)庫

    SunlightDB 2017新型區(qū)塊鏈數(shù)據(jù)庫

    這篇文章主要為大家詳細(xì)介紹了SunlightDB 2017新型區(qū)塊鏈數(shù)據(jù)庫的相關(guān)資料,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-01-01
  • sql注入報錯之注入原理實(shí)例解析

    sql注入報錯之注入原理實(shí)例解析

    所謂報錯注入,就是通過運(yùn)行SQL查詢語句回顯查詢結(jié)果,下面這篇文章主要給大家介紹了關(guān)于sql注入報錯之注入原理的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2022-06-06
  • 站內(nèi)群發(fā)消息三種不同用戶量的數(shù)據(jù)庫設(shè)計

    站內(nèi)群發(fā)消息三種不同用戶量的數(shù)據(jù)庫設(shè)計

    很多SNS網(wǎng)站和一部分CMS網(wǎng)站都廣泛地應(yīng)用了站內(nèi)信這一模塊,這個看似簡單的東西其實(shí)背后隱藏著很多需要設(shè)計師重視的設(shè)計細(xì)節(jié),要做好這個“郵遞員”是很不容易的,本文講述站內(nèi)群發(fā)消息三種不同用戶量的數(shù)據(jù)庫設(shè)計,逐漸設(shè)計一個百萬級用戶量的站內(nèi)信群發(fā)數(shù)據(jù)庫
    2023-12-12
  • 關(guān)于hive中SQL的執(zhí)行原理解析

    關(guān)于hive中SQL的執(zhí)行原理解析

    這篇文章主要介紹了關(guān)于hive中SQL的執(zhí)行原理解析,Hive是基于Hadoop的一個數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張表,并提供類SQL查詢功能,需要的朋友可以參考下
    2023-07-07
  • 使用Dbeaver遠(yuǎn)程連接Hive的詳細(xì)方法

    使用Dbeaver遠(yuǎn)程連接Hive的詳細(xì)方法

    這篇文章主要介紹了使用Dbeaver遠(yuǎn)程鏈接Hive的詳細(xì)方法,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2021-03-03
  • 大數(shù)據(jù)量時提高分頁的效率

    大數(shù)據(jù)量時提高分頁的效率

    當(dāng)我們在處理大量數(shù)據(jù)的時候,就需要注意分頁的效率問題了,下面大家可以看看
    2009-03-03

最新評論