欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

SparkStreaming結(jié)合Flume和Kafka的日志分析是怎樣的

今天就跟大家聊聊有關(guān)Spark Streaming結(jié)合Flume和Kafka的日志分析是怎樣的,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。

創(chuàng)新互聯(lián)總部坐落于成都市區(qū),致力網(wǎng)站建設(shè)服務(wù)有做網(wǎng)站、成都網(wǎng)站制作、網(wǎng)絡(luò)營銷策劃、網(wǎng)頁設(shè)計、網(wǎng)站維護、公眾號搭建、微信平臺小程序開發(fā)、軟件開發(fā)等為企業(yè)提供一整套的信息化建設(shè)解決方案。創(chuàng)造真正意義上的網(wǎng)站建設(shè),為互聯(lián)網(wǎng)品牌在互動行銷領(lǐng)域創(chuàng)造價值而不懈努力!

Spark Streaming結(jié)合Flume、Kafka的日志分析

1.修改相應(yīng)的配置文件

按照 http://my.oschina.net/sunmin/blog/692994

整合安裝Flume+Kafka+SparkStreaming

將flume/conf/producer.conf將需要監(jiān)控的日志輸出文件修改為本地的log 路徑:
/var/log/nginx/www.eric.aysaas.com-access.log

2.導(dǎo)入相關(guān) jar 包

(快捷鍵 Ctrl + Alt + Shift + s),點擊Project Structure界面左側(cè)的“Modules”顯示下圖界面

Spark Streaming結(jié)合Flume和Kafka的日志分析是怎樣的

jar 包自己編譯,或者去載  http://search.maven.org/#search|ga|1|g%3A%22org.apache.spark%22%20AND%20v%3A%221.6.1%22

3.新建log/KafkaTest.scala 代碼如下

import kafka.serializer.StringDecoder
import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.DStream
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka.KafkaUtils

/**
  * flume+kafka+SparkStreaming 實時 nginx 日志獲取
  * Created by eric on 16/6/29.
  */
object KafkaLog {

  def main(agrs: Array[String]): Unit = {

    val sparkConf = new SparkConf().setMaster("local[1]").setAppName("StreamingTest")
    val ssc = new StreamingContext(sparkConf, Seconds(20))//代表一個給定的秒數(shù)的實例

    val topic = "HappyBirthDayToAnYuan"
    val topicSet = topic.split(" ").toSet

    //用 brokers and topics 創(chuàng)建 direct kafka stream
    val kafkaParams = Map[String, String]("metadata.broker.list" -> "localhost:9092")

    //直接從 kafka brokers 拉取信息,而不使用任何接收器.
    val messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](
      ssc, kafkaParams, topicSet
    )
    val lines = messages.map(_._2)
    lines.print()
    val words: DStream[String] = lines.flatMap(_.split("\n"))
    words.count().print()

    //啟動
    ssc.start()
    ssc.awaitTermination()
  }
}

4.Test

訪問本地頁面產(chǎn)生日志 http://www.eric.aysaas.com/app/admin

在這20秒內(nèi)總共產(chǎn)生的日志行數(shù)為:

Spark Streaming結(jié)合Flume和Kafka的日志分析是怎樣的

看完上述內(nèi)容,你們對Spark Streaming結(jié)合Flume和Kafka的日志分析是怎樣的有進一步的了解嗎?如果還想了解更多知識或者相關(guān)內(nèi)容,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。

網(wǎng)站題目:SparkStreaming結(jié)合Flume和Kafka的日志分析是怎樣的
地址分享:http://aaarwkj.com/article28/jjigcp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設(shè)計公司網(wǎng)站制作、ChatGPT軟件開發(fā)、網(wǎng)站策劃動態(tài)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

搜索引擎優(yōu)化
日韩欧美亚洲综合久久精品| 欧美日韩国产特级性生活| 激情婷婷亚洲五月综合网| 精品人妻aⅴ一区二区| 91免费人成网站在线观看| 欧美 日韩一区二区在线| 91精品国产综合久蜜臂| 熟女精品国产一区二区三区 | 欧美v日韩v亚洲综合国产高清| 欧美性生活在线视频观看| 欧美日本精品在线观看| 国产真人作爱视频免费| 久草手机福利在线观看| 少妇太爽高潮在线播放| 免费女同一区二区三区| 国产一区在线视频无卡顿| 黄色大片黄色大片黄色大片| 午夜性色在线视频福利| 日韩一区二区三区中文字幕| 日日摸夜夜添添出白浆| 欧美激情韩国三级日本| 日本熟妇一区二区三区在线视频| 亚洲午夜天堂精品福利天堂| 国产精品中文字幕欧美日韩| 国产美女主播一二三区| 中文字幕日韩欧美第一页| 久久精品国产亚洲av清纯| 欧美成人黄片免费播放| 国产精品一级片一区二区| 国产av无毛一区二区三区| 强d乱码中文字幕在线| 亚洲1区2区中文字幕| 欧美生活一区二区三区| av日韩在线一区二区三区| 国产黄色一区二区三区,| 熟女自拍偷拍视频播放| 亚洲国产精品自拍第一页| 亚洲免费三级黄色片| 中文字幕av免费专区| 国产精品99久久久久久| 一区二区精品人妻av|