python導出hive數據表的schema實例代碼
本文研究的主要問題是python語言導出hive數據表的schema,分享了實現代碼,具體如下。
為了避免運營提出無窮無盡的查詢需求,我們決定將有查詢價值的數據從mysql導入hive中,讓他們使用HUE這個開源工具進行查詢。想必他們對表結構不甚了解,還需要為之提供一個表結構說明,于是編寫了一個腳本,從hive數據庫中將每張表的字段即類型查詢出來,代碼如下:
#coding=utf-8 import pyhs2 from xlwt import * hiveconn = pyhs2.connect(host='10.46.77.120', port=10000, authMechanism='PLAIN', user='hadoop', database='hibiscus_data', ) def create_excel(): sql = 'show tables' tables = [] with hiveconn.cursor() as cursor: cursor.execute(sql) res = cursor.fetch() for table in res: tables.append(table[0]) tableinfo = [] for table in tables: tableinfo.append(get_column_info(table)) create_excel_ex(tableinfo) def create_excel_ex(tableinfo): w = Workbook() sheet = w.add_sheet(u'表結構') row = 0 for info in tableinfo: row = write_tale_info(info,sheet,row) w.save('hive_schema.xls') def write_tale_info(tableinfo,sheet,row): print row sheet.write_merge(row,row,0,2,tableinfo['table']) row += 1 sheet.write(row,0,u'名稱') sheet.write(row,1,u'類型') sheet.write(row,2,u'解釋') row += 1 fields = tableinfo['fields'] for field in fields: sheet.write(row,0,field['name']) sheet.write(row,1,field['type']) row += 1 return row + 1 def get_column_info(table): sql = 'desc {table}'.format(table=table) info = {'table':table,'fields':[]} with hiveconn.cursor() as cursor: cursor.execute(sql) res = cursor.fetch() for item in res: if item[0] == '': break info['fields'].append({'name':item[0],'type':item[1]}) return info if __name__ == '__main__': create_excel()
其實,我們的hive數據庫將所有的元數據存儲在了mysql當中,分析這些元數據也可以獲得表結構信息。
總結
以上就是本文關于python導出hive數據表的schema實例代碼的全部內容,希望對大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站其他相關專題,如有不足之處,歡迎留言指出。感謝朋友們對本站的支持!
相關文章
關于Pycharm配置翻譯插件Translation報錯更新TTK失敗不能使用的問題
這篇文章主要介紹了關于Pycharm配置翻譯插件Translation報錯更新TTK失敗不能使用的問題,本文通過圖文并茂的形式給大家分享解決方案,需要的朋友可以參考下2022-04-04使用Python快速打開一個百萬行級別的超大Excel文件的方法
這篇文章主要介紹了使用Python快速打開一個百萬行級別的超大Excel文件的方法,本文通過實例代碼給大家介紹的非常想詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-03-03