python ETL工具 pyetl
pyetl是一個(gè)純python開(kāi)發(fā)的ETL框架, 相比sqoop, datax 之類的ETL工具,pyetl可以對(duì)每個(gè)字段添加udf函數(shù),使得數(shù)據(jù)轉(zhuǎn)換過(guò)程更加靈活,相比專業(yè)ETL工具pyetl更輕量,純python代碼操作,更加符合開(kāi)發(fā)人員習(xí)慣
安裝
pip3 install pyetl
使用示例
數(shù)據(jù)庫(kù)表之間數(shù)據(jù)同步
from pyetl import Task, DatabaseReader, DatabaseWriter
reader = DatabaseReader("sqlite:///db1.sqlite3", table_name="source")
writer = DatabaseWriter("sqlite:///db2.sqlite3", table_name="target")
Task(reader, writer).start()
數(shù)據(jù)庫(kù)表到hive表同步
from pyetl import Task, DatabaseReader, HiveWriter2
reader = DatabaseReader("sqlite:///db1.sqlite3", table_name="source")
writer = HiveWriter2("hive://localhost:10000/default", table_name="target")
Task(reader, writer).start()
數(shù)據(jù)庫(kù)表同步es
from pyetl import Task, DatabaseReader, ElasticSearchWriter
reader = DatabaseReader("sqlite:///db1.sqlite3", table_name="source")
writer = ElasticSearchWriter(hosts=["localhost"], index_name="tartget")
Task(reader, writer).start()
原始表目標(biāo)表字段名稱不同,需要添加字段映射
添加
# 原始表source包含uuid,full_name字段
reader = DatabaseReader("sqlite:///db.sqlite3", table_name="source")
# 目標(biāo)表target包含id,name字段
writer = DatabaseWriter("sqlite:///db.sqlite3", table_name="target")
# columns配置目標(biāo)表和原始表的字段映射關(guān)系
columns = {"id": "uuid", "name": "full_name"}
Task(reader, writer, columns=columns).start()
字段的udf映射,對(duì)字段進(jìn)行規(guī)則校驗(yàn)、數(shù)據(jù)標(biāo)準(zhǔn)化、數(shù)據(jù)清洗等
# functions配置字段的udf映射,如下id轉(zhuǎn)字符串,name去除前后空格
functions={"id": str, "name": lambda x: x.strip()}
Task(reader, writer, columns=columns, functions=functions).start()
繼承Task類靈活擴(kuò)展ETL任務(wù)
import json
from pyetl import Task, DatabaseReader, DatabaseWriter
class NewTask(Task):
reader = DatabaseReader("sqlite:///db.sqlite3", table_name="source")
writer = DatabaseWriter("sqlite:///db.sqlite3", table_name="target")
def get_columns(self):
"""通過(guò)函數(shù)的方式生成字段映射配置,使用更靈活"""
# 以下示例將數(shù)據(jù)庫(kù)中的字段映射配置取出后轉(zhuǎn)字典類型返回
sql = "select columns from task where name='new_task'"
columns = self.writer.db.read_one(sql)["columns"]
return json.loads(columns)
def get_functions(self):
"""通過(guò)函數(shù)的方式生成字段的udf映射"""
# 以下示例將每個(gè)字段類型都轉(zhuǎn)換為字符串
return {col: str for col in self.columns}
def apply_function(self, record):
"""數(shù)據(jù)流中對(duì)一整條數(shù)據(jù)的udf"""
record["flag"] = int(record["id"]) % 2
return record
def before(self):
"""任務(wù)開(kāi)始前要執(zhí)行的操作, 如初始化任務(wù)表,創(chuàng)建目標(biāo)表等"""
sql = "create table destination_table(id int, name varchar(100))"
self.writer.db.execute(sql)
def after(self):
"""任務(wù)完成后要執(zhí)行的操作,如更新任務(wù)狀態(tài)等"""
sql = "update task set status='done' where name='new_task'"
self.writer.db.execute(sql)
NewTask().start()
目前已實(shí)現(xiàn)Reader和Writer列表
| Reader | 介紹 |
|---|---|
| DatabaseReader | 支持所有關(guān)系型數(shù)據(jù)庫(kù)的讀取 |
| FileReader | 結(jié)構(gòu)化文本數(shù)據(jù)讀取,如csv文件 |
| ExcelReader | Excel表文件讀取 |
| Writer | 介紹 |
|---|---|
| DatabaseWriter | 支持所有關(guān)系型數(shù)據(jù)庫(kù)的寫(xiě)入 |
| ElasticSearchWriter | 批量寫(xiě)入數(shù)據(jù)到es索引 |
| HiveWriter | 批量插入hive表 |
| HiveWriter2 | Load data方式導(dǎo)入hive表(推薦) |
| FileWriter | 寫(xiě)入數(shù)據(jù)到文本文件 |
項(xiàng)目地址pyetl
總結(jié)
到此這篇關(guān)于python ETL工具 pyetl的文章就介紹到這了,更多相關(guān)python ETL工具 pyetl內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
matlab中imadjust函數(shù)的作用及應(yīng)用舉例
這篇文章主要介紹了matlab中imadjust函數(shù)的作用及應(yīng)用舉例,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-02-02
解決Keras 中加入lambda層無(wú)法正常載入模型問(wèn)題
這篇文章主要介紹了解決Keras 中加入lambda層無(wú)法正常載入模型問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-06-06
用Python寫(xiě)一個(gè)無(wú)界面的2048小游戲
這篇文章主要介紹了用Python寫(xiě)一個(gè)無(wú)界面的2048小游戲的相關(guān)資料,需要的朋友可以參考下2016-05-05
pandas數(shù)據(jù)處理之 標(biāo)簽列字符轉(zhuǎn)數(shù)字的實(shí)現(xiàn)
這篇文章主要介紹了pandas數(shù)據(jù)處理之 標(biāo)簽列字符轉(zhuǎn)數(shù)字的實(shí)現(xiàn)方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2021-03-03

