使用Java 壓縮文件打包tar.gz 包的詳細(xì)教程
一、背景
最近,小哈主要在負(fù)責(zé)日志中臺的開發(fā)工作, 等等,啥是日志中臺?
俺只知道中臺概念,這段時間的確很火,但是日志中臺又是用來干啥的?
這里小哈盡量地通俗的說下日志中臺的職責(zé),再說日志中臺之前,我們先扯點(diǎn)別的?
相信大家對集中式日志平臺 ELK 都知道一些,生產(chǎn)環(huán)境中, 稍復(fù)雜的架構(gòu),服務(wù)一般都是集群部署,這樣,日志就會分散在每臺服務(wù)器上,一旦發(fā)生問題,想要查看日志就會非常繁瑣,你需要登錄每臺服務(wù)器找日志,因?yàn)槟悴淮_定請求被打到哪個節(jié)點(diǎn)上。另外,任由開發(fā)人員登錄服務(wù)器查看日志本身就存在安全隱患,不小心執(zhí)行了 rm -rf *
咋辦?
通過 ELK , 我們可以方便的將日志收集到一處(Elasticsearch
集群)來進(jìn)行多維度的分析。
但是部署高性能、高可用的 ELK 是有門檻的,業(yè)務(wù)組想要快速的擁有集中式日志分析的能力,往往需要經(jīng)過前期的技術(shù)調(diào)研,測試,踩坑,才能將這個平臺搭建起來。
日志中臺的使命就是讓業(yè)務(wù)線能夠快速擁有這種能力,只需傻瓜式的在日志平臺完成接入操作即可。
臭嗨!說了這么多,跟你這篇文章的主題有啥關(guān)系?
額,小哈這就進(jìn)入主題。
既然想統(tǒng)一管理日志,總得將這些分散的日志采集起來吧,那么,就需要一個日志采集器,Logstash
和 Filebeat
都有采集日志的能力,但是 Filebeat
相較于 Logstash
的笨重, 它更輕量級,幾乎零占用服務(wù)器系統(tǒng)資源,這里我們選型 Filebeat
。
業(yè)務(wù)組在日志平臺完成相關(guān)接入流程后,平臺會提供一個采集器包。接入方需要做的就是,下載這個采集器包并扔到指定服務(wù)器上,解壓運(yùn)行,即可開始采集日志,然后,就可以在日志平臺的管控頁面分析&搜索這些被收集的日志了。
這個 Filebeat
采集器包里面,包含了采集日志文件路徑,輸出到 Kafka
集群,以及一些個性化的采集規(guī)則等等。
怎么樣?是不是感覺很棒呢?
二、如何通過 Java 打包文件?
2.1 添加 Maven 依賴
<dependency> <groupId>org.apache.commons</groupId> <artifactId>commons-compress</artifactId> <version>1.12</version> </dependency>
2.2 打包核心代碼
通過 Apache compress
工具打包思路大致如下:
①:創(chuàng)建一個 FileOutputStream
到輸出文件(.tar.gz)文件。
②:創(chuàng)建一個GZIPOutputStream
,用來包裝FileOutputStream
對象。
③:創(chuàng)建一個TarArchiveOutputStream
,用來包裝GZIPOutputStream
對象。
④:接著,讀取文件夾中的所有文件。
⑤:如果是目錄,則將其添加到 TarArchiveEntry
。
⑥:如果是文件,依然將其添加到 TarArchiveEntry
中,然后還需將文件內(nèi)容寫入 TarArchiveOutputStream
中。
接下來,直接上代碼:
import org.apache.commons.compress.archivers.tar.TarArchiveEntry; import org.apache.commons.compress.archivers.tar.TarArchiveOutputStream; import org.apache.commons.io.IOUtils; import java.io.*; import java.util.zip.GZIPOutputStream; /** * @author 犬小哈 (公眾號: 小哈學(xué)Java) * @date 2019-07-15 * @time 16:15 * @discription **/ public class TarUtils { /** * 壓縮 * @param sourceFolder 指定打包的源目錄 * @param tarGzPath 指定目標(biāo) tar 包的位置 * @return * @throws IOException */ public static void compress(String sourceFolder, String tarGzPath) throws IOException { createTarFile(sourceFolder, tarGzPath); } private static void createTarFile(String sourceFolder, String tarGzPath) { TarArchiveOutputStream tarOs = null; try { // 創(chuàng)建一個 FileOutputStream 到輸出文件(.tar.gz) FileOutputStream fos = new FileOutputStream(tarGzPath); // 創(chuàng)建一個 GZIPOutputStream,用來包裝 FileOutputStream 對象 GZIPOutputStream gos = new GZIPOutputStream(new BufferedOutputStream(fos)); // 創(chuàng)建一個 TarArchiveOutputStream,用來包裝 GZIPOutputStream 對象 tarOs = new TarArchiveOutputStream(gos); // 若不設(shè)置此模式,當(dāng)文件名超過 100 個字節(jié)時會拋出異常,異常大致如下: // is too long ( > 100 bytes) // 具體可參考官方文檔: http://commons.apache.org/proper/commons-compress/tar.html#Long_File_Names tarOs.setLongFileMode(TarArchiveOutputStream.LONGFILE_POSIX); addFilesToTarGZ(sourceFolder, "", tarOs); } catch (IOException e) { e.printStackTrace(); }finally{ try { tarOs.close(); } catch (IOException e) { e.printStackTrace(); } } } public static void addFilesToTarGZ(String filePath, String parent, TarArchiveOutputStream tarArchive) throws IOException { File file = new File(filePath); // Create entry name relative to parent file path String entryName = parent + file.getName(); // 添加 tar ArchiveEntry tarArchive.putArchiveEntry(new TarArchiveEntry(file, entryName)); if (file.isFile()) { FileInputStream fis = new FileInputStream(file); BufferedInputStream bis = new BufferedInputStream(fis); // 寫入文件 IOUtils.copy(bis, tarArchive); tarArchive.closeArchiveEntry(); bis.close(); } else if (file.isDirectory()) { // 因?yàn)槭莻€文件夾,無需寫入內(nèi)容,關(guān)閉即可 tarArchive.closeArchiveEntry(); // 讀取文件夾下所有文件 for (File f : file.listFiles()) { // 遞歸 addFilesToTarGZ(f.getAbsolutePath(), entryName + File.separator, tarArchive); } } } public static void main(String[] args) throws IOException { // 測試一波,將 filebeat-7.1.0-linux-x86_64 打包成名為 filebeat-7.1.0-linux-x86_64.tar.gz 的 tar 包 compress("/Users/a123123/Work/filebeat-7.1.0-linux-x86_64", "/Users/a123123/Work/tmp_files/filebeat-7.1.0-linux-x86_64.tar.gz"); } }
至于,代碼每行的作用,小伙伴們可以看代碼注釋,說的已經(jīng)比較清楚了。
接下來,執(zhí)行 main
方法,測試一下效果,看看打包是否成功:
生成采集器 tar.gz
包成功后,業(yè)務(wù)組只需將 tar.gz
下載下來,并扔到指定服務(wù)器,解壓運(yùn)行即可完成采集任務(wù)啦~
三、結(jié)語
本文主要還是介紹如何通過 Java 來完成打包功能,關(guān)于 ELK 相關(guān)的知識,小哈會在后續(xù)的文章中分享給大家,本文只是提及一下,歡迎小伙伴們持續(xù)關(guān)注喲,下期見~
到此這篇關(guān)于使用Java 壓縮文件打包tar.gz 包的詳細(xì)教程的文章就介紹到這了,更多相關(guān)Java 壓縮文件打包tar.gz 包內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Spring Boot使用RestTemplate消費(fèi)REST服務(wù)的幾個問題記錄
這篇文章主要介紹了Spring Boot使用RestTemplate消費(fèi)REST服務(wù)的幾個問題記錄,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-06-06Java實(shí)現(xiàn)FIFO任務(wù)調(diào)度隊(duì)列策略
在工作中,很多高并發(fā)的場景中,我們會用到隊(duì)列來實(shí)現(xiàn)大量的任務(wù)請求。當(dāng)任務(wù)需要某些特殊資源的時候,我們還需要合理的分配資源,讓隊(duì)列中的任務(wù)高效且有序完成任務(wù)。本文將為大家介紹通過java實(shí)現(xiàn)FIFO任務(wù)調(diào)度,需要的可以參考一下2021-12-12SpringBoot+Echarts實(shí)現(xiàn)請求后臺數(shù)據(jù)顯示餅狀圖
這篇文章主要介紹了SpringBoot+Echarts實(shí)現(xiàn)請求后臺數(shù)據(jù)顯示餅狀圖,文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2019-12-12SpringBoot詳解MySQL如何實(shí)現(xiàn)讀寫分離
當(dāng)響應(yīng)的瓶頸在數(shù)據(jù)庫的時候,就要考慮數(shù)據(jù)庫的讀寫分離,當(dāng)然還可以分庫分表,那是單表數(shù)據(jù)量特別大,當(dāng)單表數(shù)據(jù)量不是特別大,但是請求量比較大的時候,就要考慮讀寫分離了.具體的話,還是要看自己的業(yè)務(wù)...如果還是很慢,那就要分庫分表了...我們這篇就簡單講一下讀寫分離2022-09-09springboot docker原理及項(xiàng)目構(gòu)建
這篇文章主要介紹了springboot docker原理及項(xiàng)目構(gòu)建,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-11-11詳解Intellij IDEA 2017 debug斷點(diǎn)調(diào)試技巧(總結(jié))
這篇文章主要介紹了詳解Intellij IDEA 2017 debug斷點(diǎn)調(diào)試技巧(總結(jié)),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-11-11tdesign的文件上傳功能實(shí)現(xiàn)(微信小程序+idea的springboot)
這篇文章主要介紹了tdesign的文件上傳(微信小程序+idea的springboot)的相關(guān)知識,本文通過圖文實(shí)例代碼相結(jié)合給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友參考下吧2023-09-09