实训笔记8.29
- 8.29笔记
- 一、《白龙马电商用户行为日志分析平台》项目概述--大数据离线项目
- 1.1 项目的预备知识
- 1.1.1 电商平台
- 1.1.2 用户行为数据
- 1.1.3 常见的软件/网站的组成和技术实现
- 1.1.4 大数据中数据计算场景
- 1.2 项目的开发背景和开发意义
- 1.3 项目的开发流程和技术选项
- 1.4 本次项目的统计指标
- 1.5 本次项目的数据格式
- 二、项目的第一个环节:数据产生环节
- 2.1 作用
- 2.2 实现
- 2.3 部署运行
- 三、项目的第二个环节(大数据环节的第一个阶段):数据采集存储阶段
- 3.1 概念
- 3.2 技术选项
- 3.3 开发流程
- 3.3.1 核心思想
- 3.3.2 设计Flume的Agent中三个组件
- 3.3.3 采集存储的流程
- 3.3.4 编写项目的采集脚本
- 3.3.5 采集数据
- 四、项目的第三个环节(大数据环节的第二个阶段):数据清洗预处理阶段
- 4.1 概念
- 4.2 数据清洗预处理的技术选项
- 4.3 项目的数据清洗预处理的规则
- 4.3.1 清洗规则的问题
- 4.3.2 规则
- 4.4 开发数据清洗预处理程序(MapReduce编写)
- 五、相关代码
8.29笔记
一、《白龙马电商用户行为日志分析平台》项目概述–大数据离线项目
1.1 项目的预备知识
1.1.1 电商平台
1.1.2 用户行为数据
- 访客的用户信息
- 访客的终端信息
- 请求网址信息
- 请求来源信息
- 请求的产品信息
1.1.3 常见的软件/网站的组成和技术实现
- 前端
- 后端
- 数据库
1.1.4 大数据中数据计算场景
- 离线计算
- 实时计算
- 图计算
- 算法挖掘推荐等等
1.2 项目的开发背景和开发意义
1.3 项目的开发流程和技术选项
-
数据产生环节(不属于我们项目的一部分,只不过因为我们没有数据产生的源头,所以我们需要根据白龙马网站脱敏数据格式我们模拟数据产生即可)–才有数据供大数据环境去存储和处理,同时数据产生是不会停止的,除非网站不使用了。
-
数据采集存储阶段:将网站产生的用户行为数据采集存储到大数据环境中,保证数据能持久化、海量化、高可靠的保存下来
技术选项:Flume+HDFS
执行周期:7*24小时不停止的执行的
-
数据清洗预处理阶段:采集存储的数据中把数据质量不好的数据剔除,把格式不规整的数据统一格式,得到高质量数据。
技术选项:MapReduce+HDFS
执行周期:周期性调度执行的(一天执行一次,第二天处理前一天采集存储的数据)
-
数据统计分析阶段:在清洗预处理完成的高质量数据基础之上,我们采用一些统计分析的技术,从数据中统计分析相关的功能指标
技术选项:Hive
执行周期:同数据清洗预处理的周期
-
数据迁移导出阶段:将Hive统计分析完成的结果指标迁移导出到RDBMS中,留备后期的大数据环节操作 技术选项:sqoop+mysql 执行周期:同数据统计分析的执行周期
步骤3~5:大数据离线计算环节–周期性(一天执行一次)调度执行 而是7、任务调度阶段(azkaban)
步骤2~5:大数据开发人员的工作
-
数据可视化阶段(严格意义上不属于大数据开发工程师的工作范围):将指标结果以图表的形式进行展示
技术选项:代码可视化、DataV
执行周期:7*24小时执行的
1.4 本次项目的统计指标
- 终端纬度——统计不同浏览器的使用占比
- 用户纬度
- 不同年龄段用户的占比
- 网站的新老用户访问量
- 网站的独立访客数
- 来源纬度——网站的站外和站内来源占比
- 时间纬度——不同年份/不同月份/每天/每小时/每季度的用户访问量
- 地理纬度——不同地理位置的用户访问量
1.5 本次项目的数据格式
254.126.32.169 - - 2018-02-10 05:14:31 "POST https://www.bailongma.com/category/a HTTP/1.0" 500 92077 https://www.bailongma.com/category/a Safari webkitwindows 甘肃 36.04 103.51 27
二、项目的第一个环节:数据产生环节
2.1 作用
模拟电商网站中用户触发行为之后,网站后端自动记录用户行为数据到日志文件的过程
2.2 实现
通过Java代码+IO流+随机数+for循环+时间格式化类 实现的数据模拟
2.3 部署运行
让数据产生更加契合真实的业务数据产生场景。将数据产生的代码打成JAR包,然后再服务器上借助java -jar|-cp xxx.jar [全限定类名]
三、项目的第二个环节(大数据环节的第一个阶段):数据采集存储阶段
3.1 概念
电商网站产生的用户行为数据记录到一个日志文件中**/root/project/data-gen/userBehavior.log**,但是文件是直接存储在我们服务器的硬盘上的,但是服务器的硬盘是有大小的,而且服务器的硬盘也不是分布式的,因此无法存储海量数据,而我们网站的用户行为数据因为它是7*24小时不停止的采集的,因此就会出现计算机无法存储userBehavior.log海量的数据。所以我们需要通过数据采集存储技术将userBehavior.log产生的用户行为数据采集存储到大数据分布式文件系统HDFS中。 同时因为userBehavior.log无法记录海量数据,userBehavior.log文件真正的业务场景下会有定期的清理规则。
3.2 技术选项
大数据中数据采集技术有很多的 Flume、SQOOP、DataX、Cancl…
采集日志文件数据到大数据环境中,符合要求的只有一个技术Flume技术
Flume+HDFS
3.3 开发流程
3.3.1 核心思想
核心思想就是编写Flume数据采集存储脚本,脚本中指定Flume的agent进程中source、channel、sink的类型
3.3.2 设计Flume的Agent中三个组件
- source
- 需要采集的是我们网站产生的用户行为数据文件userBehavior.log中源源不断记录的用户行为数据
- exec
- channel——memory
- sink
- 需要把数据下沉到HDFS
- hdfs
- 在HDFS存储的规则必须是一个动态目录(基于时间的)形式 /dataCollect/%Y-%m-%d
3.3.3 采集存储的流程
3.3.4 编写项目的采集脚本
# 1、给Flume进程agent起名别 source channel sink组件起别名
project.sources=s1
project.channels=c1
project.sinks=k1# 2、配置source关联的数据源 记录用户行为数据的日志文件/root/project/data-gen/userBehavior.log
project.sources.s1.type=exec
project.sources.s1.command=tail -F /root/project/data-gen/userBehavior.log# 3、配置channel管道 基于内存的
project.channels.c1.type=memory
project.channels.c1.capacity=20000
project.channels.c1.transactionCapacity=10000
project.channels.c1.byteCapacity=104857600# 4、配置sink关联的目的地 HDFS HDFS的目的地是一个基于时间的动态目录
project.sinks.k1.type=hdfs
project.sinks.k1.hdfs.path=hdfs://single:9000/dataCollect/%Y-%m-%d
project.sinks.k1.hdfs.round=true
project.sinks.k1.hdfs.roundValue=24
project.sinks.k1.hdfs.roundUnit=hour
project.sinks.k1.hdfs.filePrefix=data
project.sinks.k1.hdfs.fileSuffix=.log
project.sinks.k1.hdfs.useLocalTimeStamp=true
# 文件滚动设置只基于文件的大小的滚动 不基于event滚动、时间滚动
project.sinks.k1.hdfs.rollInterval=0
project.sinks.k1.hdfs.rollCount=0
project.sinks.k1.hdfs.rollSize=134217728
project.sinks.k1.hdfs.fileType=DataStream# 5、关联agent的各个组件
project.sources.s1.channels=c1
project.sinks.k1.channel=c1
【问题】:采集到HDFS上文件的格式文件
3.3.5 采集数据
- 先启动HDFS和采集脚本
- 再启动数据产生程序模拟数据的产生
四、项目的第三个环节(大数据环节的第二个阶段):数据清洗预处理阶段
4.1 概念
采集存储的数据我们是没有做任何的校验的,也就意味着不管数据正确与否(价值密度低),全部采集存储了下来,但是这样的话,我们对数据在进行统计分析的时候,有问题的数据可能就会造成我们的统计结果准确性收到影响。
其中数据正确与否的问题在大数据中是有一个专业的名词–数据质量问题。
简而言之,数据清洗预处理就是把采集的数据中质量不好的数据过滤掉,同时把数据格式统一化,得到高质量数据。
4.2 数据清洗预处理的技术选项
数据清洗预处理其实说白就是一种数据计算。而且因为我们采集的数据量比较庞大,因此我们不能使用普通技术完成数据的计算过程,最起码我们得使用大数据计算框架才能完成。
本次我们项目对计算的时间没有要求,同时因为数据中到底哪些数据有问题我们都不太清楚,所以我们可以选择使用MapReduce技术完成,使用Hive的话因为数据问题可能导致表格出现很大的偏差。
4.3 项目的数据清洗预处理的规则
4.3.1 清洗规则的问题
不同的网站/软件采集的用户行为数据都是不一样的,因此我们数据的清洗预处理的规则(哪些数据是合法数据、哪些数据是不合法的数据)不是固定的。而是基于不同的业务场景,不同的数据场景给出合适的清洗预处理规则。
清洗之前的数据格式如下:
120.191.181.178 - - 2018-02-18 20:24:39 "POST https://www.bailongma.com/item/b HTTP/1.1" 203 69172 https://www.bailongma.com/register UCBrowser Webkit X3android 8.0 海南 20.02 110.20 36
采集的一条完整的用户行为日志是以空格分割的多个字段组成的
ip 两个无意义的中划线字段 时间字段(两个字段组成的) 行为触发之后访问网址(三个字段组成的) 响应状态码
响应字节数 来源网址 用户使用的浏览器信息(至少有一个字段) 地址信息(三个字段组成的) 年龄
一条完成的用户行为数据最少应该由16个字段组成。
4.3.2 规则
- 如果以空格分割以后,一条用户行为数据的字段个数少于16,那么代表数据不完成,清洗掉
- 用户行为数据中有一个字段是响应状态码,如果响应状态码大于等于400,那么代表用户访问网站失败了,这是一条错误的访问数据,清洗掉
- 如果用户没有开启定位权限,或者用户没有登录网站,那么用户行为数据中地理位置信息和用户年龄字段会使用中划线(-)替代,因此如果用户行为数据中 省份、纬度、经度、年龄等字段是中划线(-)那么代表数据缺失了,清洗掉
- 我们通过以上三个规则把数据中我们认为质量不好的数据过滤清洗掉,清洗完成的数据我们最终需要输出,但是我们输出高质量数据时我们不能原模原样的输出(因为原始的数据中有很多字段对于我们目前统计分析的指标没有作用 因此输出数据时,应该直接把无用字段给剔除出去—预处理)。 清洗之后的数据我们还需要按照我们统计指标的要求把数据预处理一下然后输出,输出的格式主要: ip地址,访问时间,请求网站Url,来源URL,浏览器信息,省份,纬度,经度,年龄 预处理完成之后多字段之间以逗号(,)分割
4.4 开发数据清洗预处理程序(MapReduce编写)
因为我们只需要对数据进行过滤和预处理操作,不涉及到聚合操作,因此MR程序中不需要包含Reduce阶段,只需要有Map阶段即可
MapReduce程序在去处理数据时,周期性调度执行的,第二天处理前一天采集存储的数据,因此MR程序在编写时,待处理的输入文件路径应该是一个动态目录(采集存储的昨天的数据目录)
五、相关代码
package com.sxuek;import java.io.*;
import java.text.SimpleDateFormat;
import java.util.*;/*** 专门用来产生用户行为数据的 而且通过这个类模拟白龙马用户行为数据产生过程* 120.191.181.178 - - 2018-02-18 20:24:39 "POST https://www.bailongma.com/item/b HTTP/1.1" 203 69172 https://www.bailongma.com/register UCBrowser Webkit X3android 8.0 海南 20.02 110.20 36* ip地址 两个中划线 日期 时间 用户的请求网站(三个字段组成的) 请求网站的响应码 请求的响应字节数 来源网站 浏览器信息(n个字段) 省份 纬度 经度 年龄** 模拟数据的时候--数据的真实性,IP地址随机生成 时间生成-数据产生的时间 来源网站和请求网址可以从脱敏数据中获取回来* 浏览器信息(从文件读取)*/
public class DataGenerator {//1、定义一个存储IP地址的集合 一会产生模拟数据的时候,模拟数据当中ip地址从集合中随机获取一个private static List<String> ipList = new ArrayList<>();//2、定义一个集合,集合存放请求的白龙马的网址 模拟数据当中请求网址时从集合中随机获取一个即可private static List<String> requestList = new ArrayList<>();//3、定义一个集合,集合存放来源网站信息,模拟数据的来源网站时候我们可以从集合中随机获取一个即可private static List<String> refererList = new ArrayList<>();//4、定义一个集合 存放请求的响应状态码private static List<String> codeList = new ArrayList<>();//5、定义一个集合 存放浏览器信息 一会模拟产生数据时,浏览器信息从集合中随机获取private static List<String> userAgentList = new ArrayList<>();//6、定义一个集合,集合存放地理位置信息private static List<String> addressList = new ArrayList<>();/*** 初始化方法,初始化方法主要是给我们上面定义的集合先填充一点数据*/private static void init(){/*** 1、填充状态码集合 一会随机从集合获取一条数据,默认情况下每一条数据的获取概率都是一样* 如果你想让某一个值获取概率大一点那么可以将这个值在集合多添加几次*/codeList.addAll(Arrays.asList("200","203","300","301","200","203","300","301","200","203","300","301","200","203","300","301","400","401","403","500","503"));/*** 2、填充浏览器信息集合*/userAgentList.add("Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Win64; x64; Trident/4.0)");userAgentList.add("Mozilla/5.0 (Windows; U; Windows NT 5.2) Gecko/2008070208 Firefox/3.0.1");userAgentList.add("Mozilla/5.0 (Macintosh; PPC Mac OS X; U; en) Opera 8.0");userAgentList.add("Mozilla/5.0 (Windows; U; Windows NT 5.2) AppleWebKit/525.13 (KHTML, like Gecko) Version/3.1 Safari/525.13");userAgentList.add("Mozilla/5.0 (Windows; U; Windows NT 5.2) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.2.149.27 Safari/525.13");userAgentList.add("Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11");userAgentList.add("Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; QQBrowser/7.0.3698.400) ");userAgentList.add("Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0");userAgentList.add("Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/2.0 Safari/536.11");/*** 填充ip地址 请求网站 来源网站 省份地理位置信息 四个集合* 四个集合的填充不能随便瞎写 集合从脱敏数据文件中读取对应的值填充进来*/BufferedReader bufferedReader = null;try {//如果将项目打成jar包之后,a.log文件不识别,此时我们需要使用类加载器读取jar包中的文件 要求文件必须在一个resources格式的目录下//这行代码只能在jar包中使用 如果项目没有打jar包的话 这行代码无法识别a.log文件InputStream inputStream = DataGenerator.class.getClassLoader().getResourceAsStream("b.log");bufferedReader = new BufferedReader(new InputStreamReader(inputStream));
// bufferedReader = new BufferedReader(new FileReader("a.log"));String line = null;//这个数据是我们给大家发送的脱敏数据 脱敏数据大数据没法使用 原因是因为是旧数据while((line = bufferedReader.readLine()) != null){String[] array = line.split(" ");//脱敏数据中的IP地址放到ipList集合中ipList.add(array[0]);//需要把请求方式 请求网站 请求协议三个字段以空格组合放到requestList集合中requestList.add(array[5]+" "+array[6]+" "+array[7]);//来源信息把它加到来源列表当中refererList.add(array[10]);refererList.add("https://www.baidu.com/search");refererList.add("https://www.baidu.com/search");refererList.add("https://www.baidu.com/search");refererList.add("https://www.sougou.com/search");refererList.add("https://www.google.com/search");//把省份 维度 经度 加到地理位置数据中addressList.add(array[array.length-4]+" "+array[array.length-3]+" "+array[array.length-2]);}} catch (FileNotFoundException e) {throw new RuntimeException(e);} catch (IOException e) {throw new RuntimeException(e);} finally {if (bufferedReader != null){try {bufferedReader.close();} catch (IOException e) {throw new RuntimeException(e);}}}}/*** 程序执行入口* @param args*/public static void main(String[] args) throws IOException, InterruptedException {//1、填充模拟数据集合init();/*** 2、模拟数据的目的是为了模拟真实的数据产生逻辑,* 真实场景下 数据是源源不断的产生的。所以我们模拟程序也是源源不断的产生的,不会停止的 除非你手动停止* 产生数据的时候,数据得有一个存放的一个文件路径 文件中通过IO流写入数据*/Scanner scanner = new Scanner(System.in);System.out.println("请输入网站产生的用户行为日志数据文件的路径");String path = scanner.next();//定义IO输出流 用于模拟一会数据产生之后输出到日志文件的的过程BufferedWriter bufferedWriter = new BufferedWriter(new FileWriter(path));//随机类 用于产生随机数的Random random = new Random();//定义时间格式类 用于格式化时间的SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");while (true){/*** 真实情况下 虽然数据是7*24小时产生的,但是并不是每时每刻都在产生数据,* 而是会间断性的产生的 比如每隔1-10s 产生10-50条数据* 尤其是在凌晨12:00 -6:00的时候 数据产生的非常缓慢*///1、先获取数据产生的一个时间Calendar calendar = Calendar.getInstance();boolean judgeNight = isJudgeNight(calendar);// num代表一次产生num条数据int num = 0;// time代表产生一次数据 休息多长时间int time = 0;if (judgeNight){//代表是凌晨的时间num = random.nextInt(10);time = 30000+random.nextInt(60001);}else{//代表的是非凌晨的时间num = random.nextInt(50);time = 1000+ random.nextInt(20001);}/*** for循环代表产生num条数据*/for (int i = 0; i < num; i++) {/*** 获取数据对应的值 然后拼接 输出即可*///1、获取ip地址 [0,ipList.size()-1]String ip = ipList.get(random.nextInt(ipList.size()));//2、获取数据的生成时间Date date = new Date();//2023-08-28 18:00:00String dataGenTime = sdf.format(date);//3、随机获取请求的网址--行为触发之后请求的网址String request = requestList.get(random.nextInt(requestList.size()));//4、随机获取一个状态码String code = codeList.get(random.nextInt(codeList.size()));//5、随机产生一个响应字节数int bytes = random.nextInt(100000);//6、随机获取一个来源网站String referer = refererList.get(random.nextInt(refererList.size()));//7、随机获取一个浏览器信息String userAgent = userAgentList.get(random.nextInt(userAgentList.size()));//8、随机获取一个地理位置信息String address = addressList.get(random.nextInt(addressList.size()));//9、随机产生一个年龄int age = 18+ random.nextInt(71);//组装数据 可以使用StringBuffer完成 数据和数据之间一定要以空格分割String data = ip+" - - "+dataGenTime+" "+request+" "+code+" "+bytes+" "+referer+" "+userAgent+" "+address+" "+age;//将数据输出bufferedWriter.write(data);//写出一个换行符 保证一条用户行为数据独占一行bufferedWriter.newLine();//bufferWriter是处理流 输出数据必须加flushbufferedWriter.flush();}//生成num条数据之后 间隔time时间之后再继续生成Thread.sleep(time);System.out.println("间隔了"+time+"秒之后生成了"+num+"条数据");}}/*** 方法是用来判断是否为凌晨的时间* @param cal* @return*/public static boolean isJudgeNight(Calendar cal){//先获取当前的时间Date currentTime = cal.getTime();//先获取当前日期下的凌晨时间段 两个时间 一个是开始的时间 一个是结束的时间//开始的时间是当天的00:00:00 结束时间 06:00:00cal.set(Calendar.HOUR_OF_DAY,0);cal.set(Calendar.MINUTE,0);cal.set(Calendar.SECOND,0);//获取当前时间对应的凌晨的开始时间Date startTime = cal.getTime();cal.set(Calendar.HOUR_OF_DAY,6);cal.set(Calendar.MINUTE,0);cal.set(Calendar.SECOND,0);//获取当前时间对应的结束时间Date endTime = cal.getTime();if (currentTime.after(startTime) && currentTime.before(endTime)){return true;}else{return false;}}
}