大数据精准营销应用(一)

文章目录​​​​​​​

前言

一、精准营销简介

二、大数据精准营销过程

三、大数据精准营销方式

四、项目目标

五、项目流程

六、数据的处理​​​​​​​

数据的预览

数据的读取

数据的解析

数据预处理

异常值处理 

 缺失值处理

 时间格式和时区转换

 量纲转化

重复数据处理

总结

前言

随着大数据时代的不断发展,大数据在生活方面的应用这门技术也越来越重要,很多人都开启了学学习大数据及家属,本文就介绍了大数据在精准营销方面的应用。


一、精准营销简介

        精准营销是指企业通过定量和定性相结合的方法,对目标市场的不同消费者进行细致分析,并根据他们不同的消费心理和行为特征,采用有针对性的现代技术、方法和指向明确的策略,从而实现对目标市场不同消费者群体强有效性、高投资回报的营销沟通。

      精准营销最大的优点在于“精准”,即在市场细分的基础上,对不同消费者进行细致分析,确定目标对象。

      精准营销的主要特点有以下几点:

      1)精准的客户定位是营销策略的基础。

      2)精准营销能提供高效、投资高回报的个性化沟通。过去营销活动面对的是大众,目标不够明确,沟通效果不明显。精准营销是在确定目标对象后,划分客户生命周期的各个阶段,抓住消费者的心理,进行细致、有效的沟通。

      3)精准营销为客户提供增值服务,为客户细致分析,量身定做,避免了用户对商品的挑选,节约了客户的时间成本和精力,同时满足客户的个性化需求,增加了顾客让渡价值。

      4)发达的信息技术有益于企业实现精准化营销,“大数据”和“互联网+”时代的到来,意味着人们可以利用数字中的镜像世界映射出现实世界的个性特征。

二、大数据精准营销过程

        传统的营销理念是根据顾客的基本属性,如顾客的性别、年龄、职业和收入等来判断顾客的购买力和产品需求,从而进行市场细分,以及制定相应的产品营销策略,这是一种静态的营销方式。 大数据精准营销不仅记录了人们的行为轨迹,还记录了人们的情感与生活习惯,能够精准预测顾客的需求,从而实现以客户生命周期为基准的精准化营销,这是一个动态的营销过程。

      1)助力客户信息收集与处理

      2)客户细分与市场定位

      3)辅助营销决策与营销战略设计

      4)精准的营销服务

      5)营销方案设计

      6)营销结果反馈

三、大数据精准营销方式

      在大数据的背景下,百度等公司掌握了大量的调研对象的数据资源,这些用户的前后行为将能够被精准地关联起来。具体方式包括以下几点

      1)实时竞价(RTB)

      2)交叉销售

      3)点告

      4)窄告

      5)定向广告推送

四、项目目标

1.通过对海量交易流水数据的深度分析和挖掘,构建全方位的客户标签体系。

2.基于客户标签体系,从基本信息、消费能力、行为习惯等多个维度对客户进行精准画像。

3.计算客户商品兴趣度排行榜,支持精准目标客户筛选。

五、项目流程

      先找到符合要求的数据集,导入MySQL数据库,使用pymsql将数据源提取到python,再进行数据预处理,再进行客户交易行为的分析,客户标签体系的构建最后进行精准营销的应用。

六、数据的处理​​​​​​​

数据的预览

数据来源于sql文件数据。

其中包含本项目包含客户在某平台的367万脱敏交易流水数据,交易时间跨度为5年。每条交易记录包含客户ID、交易时间、交易金额和交易附言四个字段,如下表所示︰ 

数据的读取

主要包括以下三个步骤︰

数据描述︰字段中英文、取值范围和备注信息·

数据调用:MySQL数据库的连接和数据提取·

数据解析︰将数据格式转换为DataFrame

主要涉及PyMySQL、Pandas等模块的基本使用

首先创建数据库sell

再将sql文件导入到数据库中

创建表business

再使用source语句导入sql文件

查看导入的数据:

数据的解析

选择使用python来进行数据解析

Python对于数据预处理和数据再加工非常的友好,但是缺少了一些数据预处理和清洗部分。Pandas使得可以只使用Python完成完整的数据清洗流程,并且不用依靠其他的特定领域的语言·使用非常广泛,功能强大,得到很多公司和个人的认可

使用python中的pymysql库来连接MySQL数据库

从数据库中读入全部数据(select * from business),并将其命名为sql。但目前的数据是以嵌套的形式存储的,所以需要将其转化为Pandas内置的DataFrame对象,再进行后续操作。

db为数据库的database

查看导入的result,有40000行数据,说明导入成功!

再将列名进行处理修改成MySQL数据库中相对应的表名:


数据预处理

由于原始数据存在一些质量问题,为了便于后续的数据分析,我们需要进行数据预处理。利用Pandas提供的便利工具和函数,对交易数据进行预处理的流程如下图所示∶

数据预处理主要包括以下五个步骤:

1) 统计分析:对数据进行统计分析,初步了解数据特点。

2) 异常值处理:对交易时间等字段中出现的异常数据进行诊断,并确定异常值处理方法。

3) 缺失值处理∶对于存在缺失值的交易金额和交易附言字段,诊断缺失值产生的原因,确定缺失值处理方法。

4) 数据格式转换∶为了便于后续分析,对于金额字段的量纲、交易时间字段的时间格式进行转换。

5) 重复数据过滤︰检测交易数据中存在的重复交易记录,并删除重复的记录。

主要涉及NumPy、Pandas等模块的基本使用

查看导入的数据:

客户交易流水记录中正值为金额流出,负值为金额流入

交易附言信息为中文描述,该列数据之后可能要进行文本处理·

交易时间列为unix时间戳,转换为标准北京时间更易处理。

发现其中的一些多余的符号需要去除。

查看result数据的总列数和总行数,分别在变量rows和cols中

查看数据的前五行,将结果保存到变量head中。

查看数据的基本情况:

查看客户总数,将客户数保存在数值变量user_num中

计算交易次数,保存在变量user_counts中

异常值处理 

 Unix时间戳是指格林尼治时间1970年01月01日00时00分00秒起至现在的总秒数。我们已经知道交易时间(unix_time )字段无缺失值,还需要检测数据中是否有异常的情况。Unix时间戳为10位数字(如果精确到毫秒为13位),我们使用正则表达式对数据进行匹配,检测是否存在位数异常的值。

发现数据中没有空缺数值的异常值,通常时间戳为10位,数据中出现了9位和11位的时间戳视为异常值处理,处理方法是将这些九位的数据在第一位加1.11位的时间戳删除其最后一位。

处理完之后查看数据

再次使用正则表达式查找异常值发现无异常值,说明异常值处理成功

 缺失值处理

 

查看交易时间是否存在缺失值

结果为0不存在缺失值

查看交易附言是否存在缺失值

结果为0不存在缺失值

查看交易金额是否存在缺失值

可以看出payment这一列含有45个缺失值,应该将其删除,删除缺失值以后再次查询缺失值的数据为0条

 查看result数据

删除了45条缺失值以后还有39955条正常的数据

 时间格式和时区转换

将时间戳转换为“年-月-日 时:分:秒”

查看结果:

 时区转化:将林格威治时间转换为北京时间并查看最后五条数据

 量纲转化

在以上处理的过程中,我们会观察到 payment全部为整型数值。在这里,我们将其转换为更符合我们观察的形式,将其小数点向左平移两位,形式为'元.角分'。

重复数据处理

      接下来对数据进一步分析,检测是否存在重复交易记录,并进行处理。DataFrame的duplicated()函数可以判断数据中的行是否有重复,返回值为一个Series对象。其中无重复值的行标记为False ,有重复值的行标记为True 。

可以发现重复数据有0行

总结

至此,数据的处理已经完成,下一步将进行客户交易行为的分析。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/48895.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

最新版本的ChatGPT代码解释器使用指南来了

ChatGPT推出至今最强最有用的功能是什么? 可能要非代码解释器(Code Interpreter)莫属了。 如果你还无法体验和享受plus带来的极致体验,可以选择共享plus的方式或者自行升级,更多内容访问:链接&#xff1a…

北大斩获ICLR 2023杰出论文奖!清华人大、LeCun获提名

来源:新智元 近日,ICLR公布了2023年的获奖名单,共有4篇获最佳论文奖,5篇获荣誉提名。 其中,来自北京大学的张博航、罗胜杰、王立威、贺笛荣获杰出论文奖,来自清华大学的孔祥哲、刘洋,中国人民大…

什么是技术美术?

前言 技术美术,英文名是Technical Art,简称TA. 说白了就是一群既懂程序又懂美术的人。 至于技术美术是属于程序还是属于美术我们在这里不做过多讨论,要不然会打起来的。。。 反正我认为技术美术就是一名特殊的美术,要不然的话为什…

基于Java+SpringBoot+Vue实现前后端分离美术馆管理系统

博主介绍:✌全网粉丝20W,csdn特邀作者、博客专家、CSDN新星计划导师、java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ 🍅文末获取源码联系🍅 👇🏻 精彩专…

基于GTSRB数据集的交通标志识别实验(Tensorflow)

基于GTSRB的交通标志识别实验 一、数据数据读取 二、搭建网络三、模型预测四、附录模块导入Code 结语 一、数据 官网下载太慢,然后我找到了一个整理好的数据集 链接: GTSRB-德国交通标志识别图像数据 . 数据集很干净,直接用就好了,它把所有的…

MOOC TensorFlow入门实操课程代码回顾总结(二)

欢迎来到TensorFlow入门实操课程的学习 MOOC TensorFlow入门实操课程代码回顾总结(一) MOOC TensorFlow入门实操课程代码回顾总结(三) 注: 用于表示python代码粘贴运行结果 目录 5 图像分类基础应用——猫狗分类案例5…

基于jupyter notebook的python编程-----猫狗数据集的阶段分类得到模型精度并进行数据集优化

基于jupyter notebook的python编程-----猫狗数据集的阶段分类并得到模型精度和后续优化 一、名词解释1、什么是overfit(过拟合)?2、什么是数据增强?3、什么是猫狗数据集? 二、猫狗数据集下载1、猫狗数据集下载2、数据集…

【动手撸深度学习】深度挖掘AI的图像分类能力!

欢迎来到动手撸深度学习~ cv君力挺的:最值得看的专栏系列:动手撸深度学习, 学习完本系列,你能从调包侠到一个能独立打比赛的朋友周边的神!文章付费,不想让太多人白嫖!!!因为全部原创,珍很贵 !!今天给大家来分享一下调参技巧,看完你会感谢我的~ 今天第一节 介绍如何…

卷积神经网络的猫狗识别

文章目录 一、准备工作二、猫狗识别2.1、下载数据集2.1.1、 图片分类2.1.2、图片数量统计 2.2、卷积神经网络CNN2.2.1、网络模型搭建2.2.2、图像生成器读取文件中数据2.2.3、训练2.2.4、保存模型2.2.5、结果可视化 2.3、对模型进行调整2.3.1、图像增强方法2.3.2、模型调整2.3.3…

Python基于keras训练简单微笑识别

文章目录 一、数据预处理二、训练模型创建模型训练模型训练结果 三、预测效果 四、源代码pretreatment.pytrain.pypredict.py 一、数据预处理 实验数据来自genki4k 提取含有完整人脸的图片 def init_file():num 0bar tqdm(os.listdir(read_path))for file_name in bar:bar…

猫狗识别与分类

猫狗识别与分类 文章目录 猫狗识别与分类一、前言二、环境配置三、源码以及数据集四、基础猫狗识别程序如下1、train.pytrain.py程序结构: 2、detect.pydetect.py程序结构: 五、配置环境过程1、打开Anaconda Prompta、创建一个叫MNIST4的环境b、创建成功…

基于卷积神经网络(CNN)的猫狗识别

目录 引言 1.什么是卷积神经网络? 1.1什么是神经网络? 1.2什么是卷积? 2.准备工作 2.1一些知识: 2.2keras 2.3Conv2D 2.4 MaxPooling2D 3.基于卷积神经网络的猫狗识别 3.1导入必要库 3.2模型定义 3.3实例化模型并训练…

使用卷积神经网络构建图像分类模型检测肺炎

在本篇文章中,我将概述如何使用卷积神经网络构建可靠的图像分类模型,以便从胸部x光图像中检测肺炎的存在。 肺炎是一种常见的感染,它使肺部的气囊发炎,引起呼吸困难和发烧等症状。尽管肺炎并不难治疗,但及时诊断是至关…

实验3:卷积神经网络图像分类

卷积神经网络图像分类 1 理解卷积神经网络1.1 搭建环境1.2 猫狗分析实例 2 卷积神经网络2.1 网络模型搭建2.2 使用图像生成器读取图片 本次实验将完成以下任务: 按照 python笔记本深度学习,利用TensorFlow和Keras,自己搭建卷积神经网络完成狗猫数据集的分…

Python-猫狗数据集两阶段分类 原始数据直接训练;数据增强后训练

本博客运行环境为Jupyter Notebook-Python3.7。 由于我使用的是Anaconda3配置的jupyter环境,我也将直接在anaconda下搭建keras环境。 博客目录 下载tensorflow、keras下载数据集并重新划分数据预处理训练数据增强 由于我电脑性能不是很好,又是AMD显卡的…

python+基于Jupyter notebook完成卷积神经网络笑脸识别

一、用卷积神经网络实现,做笑脸、非笑脸等表情识别 1.数据集 2.将下载里面的datasets,放到D盘新建的smile中, 1.根据猫狗数据集训练的方法来训练笑脸数据集 1.首先将train_folder文件夹下俩个文件夹内的图片的名字做修改。(修…

使用预先训练网络和特征抽取大力提升图像识别率

神经网络在项目实践中遇到的一大问题是数据不足。任何人工智能项目,在数据不足面前都会巧妇难为无米之炊,算法再精巧,只要数据量不足,最后的效果都不尽如人意,我们目前正在做的图像识别就是如此,要想让网络…

笑脸数据集、口罩数据集划分、训练、测试(jupyter notebook)

一、HOG,Dlib,卷积神经网络介绍 1、HoG ①方法简介 方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的描述子。通过计算和统计局部区域的梯度方向直方图来构成特征。Ho…

Deep Learning with Python 系列笔记(三):计算机视觉

计算机视觉的深度学习 我们将深入探讨卷积的原理以及为什么它们在计算机视觉任务中如此成功。但首先,让我们来看看一个非常简单的“convnet”示例,我们将使用我们的convnet来对MNIST数字进行分类。 下面的6行代码展示了基本的convnet是什么样子的。它是…

基于Keras实现Kaggle2013--Dogs vs. Cats12500张猫狗图像的精准分类

【下载数据集】 下载链接–百度网盘 【整理数据集】 将训练数据集分割成训练集、验证集、测试集,目录结构如图所示: 在Pycharm中新建项目,创建split_dataset.pyimport os, shutil# 数据集解压之后的目录 original_dataset_dir = D:\kaggle\dogsvscats\\train # 存放小数据集…