亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        構(gòu)建大數(shù)據(jù)在線運(yùn)行環(huán)境初探

        2019-05-16 03:06:02劉永濤院志超
        中文信息 2019年4期

        劉永濤 院志超

        摘 要:大數(shù)據(jù)分析和應(yīng)用在高校得到廣泛的發(fā)展,在線運(yùn)行平臺(tái)是其基礎(chǔ),因此,本文運(yùn)用開(kāi)源軟件Apache Hadoop、Flume、Spark以及Kafka構(gòu)建了一個(gè)大數(shù)據(jù)采集、計(jì)算、存儲(chǔ)平臺(tái)。

        關(guān)鍵詞:Apache Hadoop Apache Flume Apache Spark Apache Kafka

        中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1003-9082(2019)04-000-01

        在進(jìn)行大數(shù)據(jù)分析之前,需要構(gòu)建一個(gè)支持?jǐn)?shù)據(jù)在線采集、分析和存儲(chǔ)的運(yùn)行環(huán)境。本文使用分布式日志收集系統(tǒng)Apache Flume、數(shù)據(jù)分發(fā)中間件Kafka、分布式實(shí)時(shí)計(jì)算框架Spark Streaming構(gòu)建了一個(gè)在線數(shù)據(jù)平臺(tái)。通過(guò)使用該平臺(tái),完成了數(shù)據(jù)信息的實(shí)時(shí)采集、計(jì)算和存儲(chǔ)。

        一、大數(shù)據(jù)平臺(tái)整體設(shè)計(jì)

        分布式大數(shù)據(jù)計(jì)算框架由6個(gè)節(jié)點(diǎn)構(gòu)成,服務(wù)器集群中的服務(wù)器操作系統(tǒng)為Centos6.5,服務(wù)器集群軟件為Apache Hadoop。1臺(tái)服務(wù)器為數(shù)據(jù)采集平臺(tái),運(yùn)行分布式日志收集系統(tǒng)Apache Flume,1臺(tái)服務(wù)器為消息中間件,運(yùn)行分布式的日志系統(tǒng)Kafka,一臺(tái)服務(wù)器為Apache Hadoop集群的NameNode,負(fù)責(zé)作業(yè)的調(diào)度和管理,剩余3臺(tái)服務(wù)器為數(shù)據(jù)處理服務(wù)器,運(yùn)行分布式計(jì)算框架Spark,為大數(shù)據(jù)的采集、計(jì)算和存儲(chǔ)提供平臺(tái)支撐。

        二、運(yùn)行環(huán)境的安裝與配置

        運(yùn)行在Centos6.5中,在系統(tǒng)上線運(yùn)行之前,需要安裝一系列的環(huán)境軟件來(lái)支撐其運(yùn)行。環(huán)境運(yùn)行支撐軟件有Java、Scala等,由于系統(tǒng)運(yùn)行對(duì)軟件的運(yùn)行版本有一定的要求,因此,在選擇正確的軟件版本后進(jìn)行安裝。

        1.Java的安裝和配置

        由于Spark streaming僅僅支持Java8以上的版本,因此,使用wget命令從Oracle的官方網(wǎng)站上下載Java SE Development Kit 9.0.1并保存在源碼文件夾下。使用解壓命令tar zxvf jdk-9.0.1_linux-x64_bin.tar.gz-C/home/用戶名/application,將Java的tar文件解壓至目錄/home/用戶名/application。然后使用vi命令編輯./bash_profile文件,添加Java的環(huán)境變量以及將java的運(yùn)行路徑進(jìn)行映射,配置后使用source ./bash_profile命令啟用環(huán)境變量。

        2.Scala的安裝與配置

        由于Spark2.2.0版本對(duì)Scala的版本要求是2.11,因此,使用wget命令從Scala的官方網(wǎng)站上下載scala-2.11.tgz并保存在源碼文件夾下。使用解壓命令tar zxvf scala-2.11.tgz-C /home/用戶名/application,將Scala的tar文件解壓至目錄/home/用戶名/application。然后使用vi命令編輯./bash_profile文件,添加Scala的環(huán)境變量以及將Scala的運(yùn)行路徑進(jìn)行映射,配置后使用source ./bash_profile命令啟用環(huán)境變量。

        三、數(shù)據(jù)流量的采集

        網(wǎng)絡(luò)數(shù)據(jù)的采集使用Apache Flume,通過(guò)使用端口鏡像技術(shù)將數(shù)據(jù)流截獲并發(fā)送到Apach Flume所在的服務(wù)器41414端口上,從而實(shí)現(xiàn)數(shù)據(jù)流量的準(zhǔn)實(shí)時(shí)獲取,從而為后續(xù)的數(shù)據(jù)處理提供數(shù)據(jù)消費(fèi)源。Apache Flume會(huì)啟動(dòng)Flume Agent監(jiān)控上網(wǎng)日志采集服務(wù)器41414端口從而獲取數(shù)據(jù)信息。該數(shù)據(jù)信息被Flume Agent發(fā)送到消息隊(duì)列Channel中,消息隊(duì)列Channel中的數(shù)據(jù)信息被Kafka作為數(shù)據(jù)源進(jìn)行消費(fèi),在這種情況下,kafka就是Apache Flume的sink。而Kafaka的數(shù)據(jù)作為spark streaming應(yīng)用程序的數(shù)據(jù)源,被其進(jìn)行業(yè)務(wù)邏輯處理。

        四、Apache Flume的編譯、安裝與設(shè)置

        由于默認(rèn)的Apache Flume在接收數(shù)據(jù)時(shí),會(huì)對(duì)接收的數(shù)據(jù)進(jìn)行自動(dòng)裁剪,其source端單event的body數(shù)據(jù)部分只會(huì)留下16字節(jié)的信息,為了使其接收的數(shù)據(jù)不被自動(dòng)裁剪,就需要修改源碼并對(duì)源碼進(jìn)行編譯,編譯后進(jìn)行安裝使用。通過(guò)對(duì)EventHelper.java以及LogerSink.java源文件的閱讀,發(fā)現(xiàn)該文件定義了一個(gè)靜態(tài)私有整數(shù)型變量DEFAULT_MAX_BYTES來(lái)進(jìn)行body數(shù)據(jù)信息的大小,因此,需要對(duì)該文件中的變量進(jìn)行修改,修改完成后使用maven insatll-DskipTests-Dtar來(lái)對(duì)源碼包進(jìn)行編譯處理。

        編譯成功后,有一個(gè)編譯完成后的壓縮包apache-flume-1.8.0-bin.tar.gz。使用解壓命令tar zxvf apache-flume-1.8.0-bin.tar.gz-C /home/用戶名/application,將Apache Flume的tar文件解壓至目錄/home/用戶名/application。然后使用vi命令編輯./bash_profile文件,添加Apache Flume的環(huán)境變量以及將Apache Flume的運(yùn)行路徑進(jìn)行映射,配置后使用source ./bash_profile命令啟用環(huán)境變量。

        由于Apache Flume使用代理Agent作為部署的基本單元,因此,在使用時(shí)需要定義一個(gè)或者更多的Agent。又由于Source組件(源)、Channel組件(通道)以及Sink組件(接收器)構(gòu)成了一個(gè)Flume Agent,因此,在配置文件中既要定義Agent又要定義這些組件。在配置文件中,一個(gè)Flume Agent的三個(gè)構(gòu)成部分必須唯一。

        五、Kafka的安裝和配置

        使用wget命令從Zookeeper的官方網(wǎng)站中下載Zookeeper的壓縮文件并保存在源碼文件夾下。使用解壓命令tar zxvf zookeeper-3.4.10.tar.gz-C/home/用戶名/application,將Zookeeper的壓縮文件解壓至目錄/home/用戶名/application。然后使用vi命令編輯./bash_profile文件,添加Zookeeper的環(huán)境變量以及將Zookeeper的運(yùn)行路徑進(jìn)行映射,配置后使用source ./bash_profile命令啟用環(huán)境變量。

        Apache Hadoop和Apache Spark的安裝過(guò)程和Apache Flume雷同,在此不在贅述。通過(guò)使用開(kāi)源軟件Apache Hadoop、Flume、Kafka和Spark搭建一個(gè)實(shí)時(shí)數(shù)據(jù)采集、計(jì)算和存儲(chǔ)平臺(tái),為大數(shù)據(jù)后續(xù)的分析提供基本的運(yùn)行環(huán)境支持。

        成年无码av片完整版| 自拍成人免费在线视频| 麻豆国产精品久久人妻| 亚洲性啪啪无码av天堂| 国产香蕉尹人综合在线观| 在线免费观看国产视频不卡| 少妇被按摩出高潮了一区二区| 国产精品一卡二卡三卡| 妺妺窝人体色www在线图片| 最新福利姬在线视频国产观看| 亚洲本色精品一区二区久久| 亚洲欧美国产精品久久| 少妇熟女视频一区二区三区| 无码久久精品蜜桃| 国产三级精品和三级男人| 色欲aⅴ亚洲情无码av| 日韩精品成人一区二区三区| 无码天堂在线视频| 99久久国内精品成人免费| 无码尹人久久相蕉无码| 岛国成人在线| 亚洲一区视频中文字幕| 色天使久久综合网天天| 少妇白浆高潮无码免费区| 999久久久免费精品国产牛牛 | 午夜av天堂精品一区| 成人午夜视频精品一区| 亚洲手机国产精品| 国内偷拍第一视频第一视频区| 亚洲youwu永久无码精品| 国产午夜精品一区二区三区不卡| 99综合精品久久| 午夜亚洲精品视频在线| 又爽又黄又无遮挡的视频| 亚洲无码一二专区| 翘臀诱惑中文字幕人妻| 国产中文三级全黄| 亚洲自偷自偷偷色无码中文| 青青草国内视频在线观看| 亚洲成av人片女在线观看| 国产精品黄在线观看免费软件|