Canal搭建?idea設(shè)置及采集數(shù)據(jù)到kafka的操作方法
Canal GitHub:https://github.com/alibaba/canal#readme
實(shí)時(shí)采集工具canal:利用mysql主從復(fù)制的原理,slave定期讀取master的binarylog對(duì)binarylog進(jìn)行解析。
canal工作原理
canal模擬MySQL slave的交互協(xié)議,偽裝自己為MySQL slave,向MySQL master發(fā)送dump協(xié)議
MySQL master收到dump請(qǐng)求,開(kāi)始推送binary log給slave(即canal)
canal解析binary log對(duì)像(原始為bye流)
官網(wǎng)配置:https://github.com/alibaba/canal/wiki/QuickStart
1.在mysql中開(kāi)啟binlog日志功能
mysql上配置
linux>vi /etc/my.cnf server-id=1 log-bin=mysql-bin binlog_format=row binlog-do-db=testdb //指定數(shù)據(jù)庫(kù)
2.重啟mysql服務(wù)
linux>systemctl restart mysqld
3.查看binlog是否生效:
linux>ls /var/lib/mysql
4.解壓canal壓縮包
linux>tar -zxvf canal-* -C canal
5.數(shù)據(jù)庫(kù)設(shè)置
登陸mysql
mysql>GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal'; mysql>flush privileges;
6.配置文件
1.修改canal.properties配置文件
linux>vi conf/canal.properties canal.instance.parser.parallelThreadSize = 1
2.修改instance.properties配置文件
linux>vi conf/example/instance.properties canal.instance.mysql.slaveId=21 canal.instance.master.address=192.168.58.203:3306
7.啟動(dòng)服務(wù)并查看進(jìn)程
linux>bin/startup.sh linux>jps xxxx CanalLauncher
查看日志
linux>cat /opt/install/canal/logs/canal/canal.log
idea客戶端
pom.xml
<dependency>
<groupId>com.alibaba.otter</groupId>
<artifactId>canal.client</artifactId>
<version>1.1.2</version>
</dependency>
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-clients</artifactId>
<version>2.4.1</version>
</dependency>import java.net.InetSocketAddress;
import java.util.List;
import com.alibaba.otter.canal.client.CanalConnectors;
import com.alibaba.otter.canal.client.CanalConnector;
import com.alibaba.otter.canal.common.utils.AddressUtils;
import com.alibaba.otter.canal.protocol.CanalEntry;
import com.alibaba.otter.canal.protocol.Message;
import com.alibaba.otter.canal.protocol.CanalEntry.Column;
import com.alibaba.otter.canal.protocol.CanalEntry.Entry;
import com.alibaba.otter.canal.protocol.CanalEntry.EntryType;
import com.alibaba.otter.canal.protocol.CanalEntry.EventType;
import com.alibaba.otter.canal.protocol.CanalEntry.RowChange;
import com.alibaba.otter.canal.protocol.CanalEntry.RowData;
public class CanalClientDemo {
public static void main(String args[]) {
// 創(chuàng)建鏈接
CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress("192.168.58.203)",
11111), "example", "", "");
int batchSize = 1000;
int emptyCount = 0;
try {
//testdb庫(kù)中的所有表
connector.connect();
connector.subscribe("testdb.*");
connector.rollback();
int totalEmptyCount = 120;
while (emptyCount < totalEmptyCount) {
Message message = connector.getWithoutAck(batchSize); // 獲取指定數(shù)量的數(shù)據(jù)
long batchId = message.getId();
int size = message.getEntries().size();
if (batchId == -1 || size == 0) {
emptyCount++;
System.out.println("empty count : " + emptyCount);
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
}
} else {
emptyCount = 0;
// System.out.printf("message[batchId=%s,size=%s] \n", batchId, size);
printEntry(message.getEntries());
}
connector.ack(batchId); // 提交確認(rèn)
// connector.rollback(batchId); // 處理失敗, 回滾數(shù)據(jù)
}
System.out.println("empty too many times, exit");
} finally {
connector.disconnect();
}
}
private static void printEntry(List<CanalEntry.Entry> entrys) {
for (Entry entry : entrys) {
if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
continue;
}
RowChange rowChage = null;
try {
rowChage = RowChange.parseFrom(entry.getStoreValue());
} catch (Exception e) {
throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(),
e);
}
EventType eventType = rowChage.getEventType();
System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
eventType));
for (RowData rowData : rowChage.getRowDatasList()) {
if (eventType == EventType.DELETE) {
printColumn(rowData.getBeforeColumnsList());
} else if (eventType == EventType.INSERT) {
printColumn(rowData.getAfterColumnsList());
} else {
System.out.println("-------> before");
printColumn(rowData.getBeforeColumnsList());
System.out.println("-------> after");
printColumn(rowData.getAfterColumnsList());
}
}
}
}
private static void printColumn(List<Column> columns) {
for (Column column : columns) {
System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated());
}
}
}注意:canal只能在java8中運(yùn)行,如果canal進(jìn)程CanalLauncher起不來(lái),檢查本地java環(huán)境
CanalClientDemo運(yùn)行提示拒絕連接,檢查腳本中的連接地址是不是運(yùn)行canal的主機(jī) CanalConnector connector = CanalConnectors.newSingleConnector(new InetSocketAddress(“192.168.58.203(canal))”,
xxxx");
Canal kafka github 配置官網(wǎng):github.com/alibaba/canal/wiki/Canal-Kafka-RocketMQ-QuickStart
使用canal將數(shù)據(jù)同步到kafka上
#重新解壓一個(gè)canal到nodefour上進(jìn)行配置
1.修改canal.properties配置文件
linux>vi canal.properties canal.serverMode = kafka canal.instance.parser.parallel = false canal.mq.servers = 192.168.58.201:9092,192.168.58.202:9092,192.168.58.203:9092
2.修改instance.properties配置文件
linux>vi instance.properties canal.instance.mysql.slaveId=21 canal.instance.master.address=192.168.58.203:3306 canal.mq.topic=example
3.可以創(chuàng)建topic,也可以不創(chuàng)建
在kafka上啟動(dòng)一個(gè)消費(fèi)者
bin/kafka-console-consumer.sh --topic example --from-beginning --bootstrap-server 192.168.58.201:9092,192.168.58.202:9092,192.168.58.203:9092
啟動(dòng) canal
linux>bin/startup.sh
結(jié)果:

到此這篇關(guān)于Canal搭建 idea設(shè)置及采集數(shù)據(jù)到kafka的操作方法的文章就介紹到這了,更多相關(guān)Canal搭建 idea內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- MySQL高性能實(shí)現(xiàn)Canal數(shù)據(jù)同步神器
- Canal監(jiān)聽(tīng)MySQL的實(shí)現(xiàn)步驟
- 使用Canal實(shí)現(xiàn)PHP應(yīng)用程序與MySQL數(shù)據(jù)庫(kù)的實(shí)時(shí)數(shù)據(jù)同步
- 使用Canal實(shí)現(xiàn)MySQL主從同步的流程步驟
- Canal實(shí)現(xiàn)MYSQL實(shí)時(shí)數(shù)據(jù)同步的示例代碼
- Java使用Canal同步MySQL數(shù)據(jù)到Redis
- Canal入門(mén)使用小結(jié)
相關(guān)文章
springboot的java配置方式(實(shí)例講解)
下面小編就為大家分享一篇實(shí)例講解springboot的java配置方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2017-11-11
IDEA運(yùn)行SSM項(xiàng)目的超詳細(xì)圖解教程
SSM項(xiàng)目部署其實(shí)很簡(jiǎn)單,下面這篇文章主要給大家介紹了關(guān)于IDEA運(yùn)行SSM項(xiàng)目的超詳細(xì)圖解教程,文中通過(guò)圖文介紹的非常詳細(xì),需要的朋友可以參考下2023-10-10
springboot3.x版本集成log4j遇到Logging?system?failed?to?initial
使用Springboot?3.x集成Log4j時(shí)可能會(huì)遇到版本沖突的問(wèn)題,這通??梢酝ㄟ^(guò)檢查Maven依賴樹(shù)來(lái)識(shí)別,一旦發(fā)現(xiàn)沖突,將Log4j的版本統(tǒng)一更新到最新的兼容版本,例如2.21.1,即可解決問(wèn)題,此方法有效解決了日志打印錯(cuò)誤,是處理類(lèi)似問(wèn)題的一個(gè)實(shí)用參考2024-09-09
解決springboot整合cxf-jaxrs中json轉(zhuǎn)換的問(wèn)題
這篇文章主要介紹了解決springboot整合cxf-jaxrs中json轉(zhuǎn)換的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2021-07-07
springboot+vue實(shí)現(xiàn)oss文件存儲(chǔ)的示例代碼
對(duì)象存儲(chǔ)服務(wù)是一種海量、安全、低成本、高可靠的云存儲(chǔ)服務(wù),本文主要介紹了springboot+vue實(shí)現(xiàn)oss文件存儲(chǔ)的示例代碼,具有一定的參考價(jià)值,感興趣的可以了解一下2024-02-02
Mybatis-plus apply函數(shù)使用場(chǎng)景分析
Mybatis-plus 里面的 apply方法 是用于拼接自定義的條件判斷,自定義時(shí)間查詢,根據(jù)傳進(jìn)來(lái)的開(kāi)始日期,查詢所有該日期是數(shù)據(jù),但是數(shù)據(jù)庫(kù)中保存是時(shí)間,所以需要使用apply查詢方式并格式化,這篇文章給大家介紹Mybatis-plus apply函數(shù)使用,感興趣的朋友一起看看吧2024-02-02
Java實(shí)現(xiàn)字符串的分割(基于String.split()方法)
Java中的我們可以利用split把字符串按照指定的分割符進(jìn)行分割,然后返回字符串?dāng)?shù)組,下面這篇文章主要給大家介紹了關(guān)于Java實(shí)現(xiàn)字符串的分割的相關(guān)資料,是基于jDK1.8版本中的String.split()方法,需要的朋友可以參考下2022-09-09
Java中Spring Boot支付寶掃碼支付及支付回調(diào)的實(shí)現(xiàn)代碼
這篇文章主要介紹了Java中Spring Boot支付寶掃碼支付及支付回調(diào)的實(shí)現(xiàn)代碼,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-02-02

