kafka生產(chǎn)數(shù)據(jù)命令 日志采集系統(tǒng)flume和kafka有什么區(qū)別及聯(lián)系?
日志采集系統(tǒng)flume和kafka有什么區(qū)別及聯(lián)系?flume和Kafka的一些功能是相同的,但總的來(lái)說(shuō),它們是完全不同的;它們的場(chǎng)景是不同的,但它們可以一起使用。簡(jiǎn)而言之,flume是一個(gè)分布式日志
日志采集系統(tǒng)flume和kafka有什么區(qū)別及聯(lián)系?
flume和Kafka的一些功能是相同的,但總的來(lái)說(shuō),它們是完全不同的;它們的場(chǎng)景是不同的,但它們可以一起使用。
簡(jiǎn)而言之,flume是一個(gè)分布式日志收集系統(tǒng),它從各種服務(wù)器收集日志并將其傳輸?shù)街付ǖ奈恢?,如HDFS。
Kafka是一個(gè)分布式消息中間件,有自己的存儲(chǔ),提供推拉數(shù)據(jù)訪問(wèn)功能。
整個(gè)過(guò)程如下:
登錄服務(wù)器<--flume-->kafka-->hdfs-->離線計(jì)算
登錄服務(wù)器<--flume-->kafka-->storm
希望我的回答能對(duì)您有所幫助
從kafka讀取數(shù)據(jù)后,數(shù)據(jù)會(huì)自動(dòng)刪除嗎?
基于接收器的實(shí)現(xiàn)將使用kakfa的高級(jí)消費(fèi)API。與所有其他接收器一樣,接收到的數(shù)據(jù)將保存到執(zhí)行器,然后sparkstreaming將啟動(dòng)作業(yè)來(lái)處理數(shù)據(jù)。
在默認(rèn)配置中,如果出現(xiàn)故障,此方法將丟失數(shù)據(jù)。為了確保零數(shù)據(jù)丟失,我們需要啟用wal(writeaheadlogs)。它將接收到的數(shù)據(jù)同步保存到分布式文件系統(tǒng),如HDFS。因此,在發(fā)生錯(cuò)誤時(shí)可以恢復(fù)數(shù)據(jù)。
使用兩個(gè)步驟:1。添加依賴項(xiàng):Spark streaming Kafka 2.10-1.3.0
2導(dǎo)入器g.apache.spark. 卡夫卡._