Pandas-Numpy-Matplotlib-PyEcharts——综合案例(豆瓣电影Top_250数据分析)

豆瓣电影Top_250_Data_analysis( 运行在jupyter notebook环境)

      • 一、 数据收集、加载数据 并查看
          • 1.1 收集数据 爬虫详细过程请点击
          • 1.2 抓取数据问题:
          • 1.3 加载数据并查看:
      • 二、数据合并(将这两个互有缺失值的DataFrame合并)
      • 三、数据清洗(消耗40%时间)
          • 3.1 查看所有数据 : 数据去重 df.duplicated()
            • 3.2 数据格式,内容清洗
            • 3.2.1 国家(地区)内容清洗
            • 3.2.2 电影类型genre(类似于区域内容清洗)
            • 3.2.3 电影语言:
            • 3.2.4 导演
            • 3.2.5 演员(cast)
            • 3.2.5 时长(movie_duration)
            • 3.2.6 电影标记(tags)
            • 3.2.7 上映时间(init_year)
          • 3.2 缺失值检查与查看
      • 四、数据统计与分析
          • 4.1 数值型列的数据统计
          • 4.2 电影排名分析
          • 4.3 按评分-top10分析
          • 4.4 上榜次数统计分析
      • 五、数据分析与可视化展示(matplotlib)
          • 5.1 matplotlib 可视化包基本环境配置
          • 5.2 评分 与排名
          • 5.3 评论人数 与排名
          • 5.4 电影时长 与排名
          • 5.5 上映年份 与排名
          • 5.6 国家/地区 与排名
          • 5.7 语言 与排名
          • 5.8 电影类型 与排名
          • 5.9 电影标签热度词云统计 与排名
      • 六、数据分析与可视化展示
          • 6.1 安装pyecharts 可视化基本环境配置
          • 6.2 电影类型-排名
          • 6.3 按评分占比统计
          • 6.4 国家地区-排名

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
from pyecharts import Bar,Line,Pie
from pandas import DataFrame,Series

一、 数据收集、加载数据 并查看

1.1 收集数据 爬虫详细过程请点击
抓取排名,电影名,导演,主演,上映日期,制片国家/地区,类型。
评分,评论数量,一句话评价,已经电影链接top250 网址:https://movie.douban.com/top250
选用Python3 引入 url.requests BeautifulSoup4 来抓取
1.2 抓取数据问题:
    原来页面的缺失信息(如:导演,演员等)原来页面的本来就没有电影语言,时长,tag
解决方法:取出当前数据的最后一列的url解析url取出电影唯一的id根据id得到详细页面,抓取信息https://api.douban.com/v2/movie/id
1.3 加载数据并查看:
df_1 = pd.read_csv('./csv/top250_f1.csv',sep = '#')
df_2 = pd.read_csv('./csv/top250_f2.csv',sep = '#')
df_1.head()     #查看前五条数据#df_2.head()   #查看前五条数据
  numtitledirectorroleinit
_year
areagenrerat
ing_
num
com
ment_
num
commenturl
01肖申克的救赎弗兰克·德拉邦特 Frank Darabont蒂姆·罗宾斯 Tim Robbins1994美国[‘犯罪 剧情’]9.6964842希望让人自由。https://movie.
douban.com
/subject/1292052/
12霸王别姬陈凯歌 Kaige Chen张国荣 Leslie Cheung1993中国大陆 香港[‘剧情 爱情 同性’]9.5699930风华绝代。https://movie.
douban.com
/subject/1291546/
23这个杀手不太冷吕克·贝松 Luc Besson让·雷诺 Jean Reno1994法国[‘剧情 动作 犯罪’]9.4912435怪蜀黍和小萝莉不得不说的故事。https://movie.
douban.com
/subject/1295644/
34阿甘正传Robert ZemeckisTom Hanks1994美国[‘剧情 爱情’]9.4775889一部美国近现代史。https://movie.
douban.com/
subject/1292720/
45美丽人生罗伯托·贝尼尼 Roberto Benigni罗伯托·贝尼尼 Roberto Beni…’]1997意大利[‘剧情 喜剧 爱情 战争’]9.5453651最美的谎言。https://movie.
douban.com/
subject/1292063/

二、数据合并(将这两个互有缺失值的DataFrame合并)

将df_1与df_2合并数据

数据分布在两个文件中:
取 top250_f1.csv 中的 num(排名),title(电影名),init_year(上映时间),area(国家/地区)
和 top250_f2.csv 中的 language(语言),director(导演),cast(主演),movie_duration(时长),\
tags(标签)这些列进行分析。df_1_cut = df_1[['num','title','init_year','area','genre','rating_num','comment_num']]
df_2_cut = df_2[['num','language','director','cast','movie_duration','tags']]
df = df.merge(df_1_cut,df_2_cut,how = 'outer',on = 'num')   #外连接,合并标准on = 'num'
df.head()           #查看前五条信息#df.tail()   查看后五条信息#df.info()   查看整个数据集的信息
 nu
m
title   init
_year
areagenrerat
ing_
num
com
ment_
num
lang
uage
directorcastmovie_
duration
tags
01肖申克的救赎1994美国[‘犯罪 剧情’]9.6964842[‘英语’][‘弗兰克·德拉邦特 Frank Darabont’][‘蒂姆·罗宾斯 Tim Robbins’, ‘摩根·弗里曼 Morgan Freeman’…[‘142 分钟’][{‘count’: 197742, ‘name’: ‘经典’}, {‘count’: 16…
12霸王别姬1993中国大陆 香港[‘剧情 爱情 同性’]9.5699930[‘汉语普通话’][‘陈凯歌 Kaige Chen’][‘张国荣 Leslie Cheung’, ‘张丰毅 Fengyi Zhang’, ‘巩俐 …[‘171 分钟’][{‘count’: 124150, ‘name’: ‘经典’}, {‘count’: 63…
23这个杀手不太冷1994法国[‘剧情 动作 犯罪’]9.4912435[‘英语’, ‘意大利语’, ‘法语’][‘吕克·贝松 Luc Besson’][‘让·雷诺 Jean Reno’, ‘娜塔莉·波特曼 Natalie Portman’, …[‘110分钟(剧场版)’, ‘133分钟(国际版)’][{‘count’: 150097, ‘name’: ‘经典’}, {‘count’: 85…
34阿甘正传1994美国[‘剧情 爱情’]9.4775889[‘英语’][‘Robert Zemeckis’][‘Tom Hanks’, ‘Robin Wright Penn’, ‘Gary Sinis…[‘142 分钟’][{‘count’: 179046, ‘name’: ‘励志’}, {‘count’: 13…
45美丽人生1997意大利[‘剧情 喜剧 爱情 战争’]9.5453651[‘意大利语’, ‘德语’, ‘英语’][‘罗伯托·贝尼尼 Roberto Benigni’][‘罗伯托·贝尼尼 Roberto Benigni’, ‘尼可莱塔·布拉斯基 Nicolet…[‘116分钟’][{‘count’: 70710, ‘name’: ‘意大利’}, {‘count’: 67…

三、数据清洗(消耗40%时间)

3.1 查看所有数据 : 数据去重 df.duplicated()
df.duplicated().head() #返回 True,则有重复项,反之亦然
df.duplicated().value_counts()
df.title.unique()      #检查某一列是否有重复电影名
df.num.unique()        #检查某一列是否有并列排名
3.2 数据格式,内容清洗
◆去除多余字段-去除字段两侧['']形式,可以用str分数字符串
df['genre'] = df['genre'].str[2:-2]
df['language'] = df['language'].str[2:-2]
df['director'] = df['director'].str[2:-2]
df['cast'] = df['cast'].str[2:-2]
df['movie_duration'] = df['movie_duration'].str[2:-2]
df.head()
 numgenrerating
_num
comme
nt_num
lang
uage
directorcastmovie_
duration
tags
01犯罪 剧情9.6964842英语弗兰克·德拉邦特 Frank Darabont蒂姆·罗宾斯 Tim Robbins’, ‘摩根·弗里曼 Morgan Freeman’, …142 分钟[{‘count’: 197742, ‘name’: ‘经典’}, {‘count’: 16…
12剧情 爱情 同性9.5699930汉语普通话陈凯歌 Kaige Chen张国荣 Leslie Cheung’, ‘张丰毅 Fengyi Zhang’, ‘巩俐 Li…171 分钟[{‘count’: 124150, ‘name’: ‘经典’}, {‘count’: 63…
23剧情 动作 犯罪9.4912435英语’, ‘意大利语’, ‘法语吕克·贝松 Luc Besson让·雷诺 Jean Reno’, ‘娜塔莉·波特曼 Natalie Portman’, ‘加…110分钟(剧场版)’, ‘133分钟(国际版)[{‘count’: 150097, ‘name’: ‘经典’}, {‘count’: 85…
34剧情 爱情9.4775889英语Robert ZemeckisTom Hanks’, ‘Robin Wright Penn’, ‘Gary Sinise’…142 分钟[{‘count’: 179046, ‘name’: ‘励志’}, {‘count’: 13…
45剧情 喜剧 爱情 战争9.5453651意大利语’, ‘德语’, ‘英语罗伯托·贝尼尼 Roberto Benigni罗伯托·贝尼尼 Roberto Benigni’, ‘尼可莱塔·布拉斯基 Nicoletta…116分钟[{‘count’: 70710, ‘name’: ‘意大利’}, {‘count’: 67…
3.2.1 国家(地区)内容清洗
 #对于area列,由多个国家地区之间合作的电影,中间用空格隔开,#用str.split()分列,再应用apply(pd.Series)作用到每一行或列area_split = df['area'].str.split('').apply(pd.Series)
area_split.head()#对每列的值重合的作了一个汇总统计,同时NaN用0填充
a = area_split.apply(df.value_counts).fillna('0')#更改列名,转换数据类型(object->int)
a.columns = ['area_1','area_2','area_3','area_4','area_5']
a['area_1'] = a['area_1'].astype(int)
a['area_2'] = a['area_2'].astype(int)
a['area_3'] = a['area_3'].astype(int)
a['area_4'] = a['area_4'].astype(int)
a['area_5'] = a['area_5'].astype(int)#将每一行的数据汇总后,变成一列显示(行汇总)
a = a.apply(lambda x:x.sum().axis=1)#包装成一个标准的 DataFrame 
area_c = df.DataFrame(a,column = ['counts'])
area_c.head()

这里写图片描述

3.2.2 电影类型genre(类似于区域内容清洗)
 #对于genre列,中间用空格隔开的,用str.split()分列,再应用apply(pd.split)作用到每一行或列
genre_split = df['genre'].str.split('').apply(pd.Series)
genre_split.head()#拆分列,Na 用 0 填充
genre_split = genre_split.apply(pd.value_counts).fillna(0)
genre_split.head()#统计电影类型
g = genre_split.apply(lambda row : row.sum(),axis = 1)
g.head()#将Series转成DataFrame
g = DataFrame(g,columns = ['counts'])
g.head()
-------------------------------方法2----------------------------------#对每列的值重合的作了一个汇总统计
a = genre_split.apply(df.value_counts)#利用 unstack() 函数做一个行列转换,同时删除NaN,转换成DataFrame
g = g.unstack().dropna().reset_index()
g.head()#数据行列重命名
g.columns = ['level_0','level_1','counts']#删除(level_0)第一列,同时按照'level_1'字段的值进行分组,同时汇总
genre_c = g.drop(['level_0'],axis = 1).groupby('level_1').sum()#按 'counts' 字段降序排列
genre_c.sort_values('counts'.ascending = False).head()

这里写图片描述

3.2.3 电影语言:
 #类似的方法处理 language 列
language_split = df['language'].str.replace("\', \'",' ').str.split(' ').apply(pd.Series)
l = language_split.apply(pd.value_counts).stack().dropna().reset_index()
language = ['level_0','level_1','counts']
language_c = l.groupby('level_0').sum()
language_c = language_c.drop(['level_1'],axis = 1)
language_c.head()
3.2.4 导演
df.director
director_split = df['director'].str.replace("\', \'",'#').str.split('#').apply(pd.Series)
director_split.head()
director = director.split[0].str.strip()
df['director'] = director
df['director'].head()
3.2.5 演员(cast)
df.cast
cast_split = df['cast'].str.replace("\', \'",'#').str.split('#').apply(pd.Series)#[[0,1,2,3]].column = ['performar_1','performar_2','performar_3','performar_4']
out_split.head()选取六位演员分析
c = cast_split[[0,1,2,3,4,5]]   #column = ['performar_1','performar_2'...'performar_6']
c.columns = ['performar_1','performar_2','performar_3','performar_4','performar_5','performar_6']
c = cast_split.unstack().dropna().reset_index()
c.head()c.columns = ['level_0','level_1','performars']
c['performars'] = c['performars'].str.strip()
c.head()#演员表中名字有:中英文,只有中文,只有英文#下面是单独找出中文/英文命,并将其补全
for i in c['performars']:for j in [c['performars'].str.contains(i)]['performars']:if (len(j) > len(i)):row = c[c['performars'] == i]level_0 = row['level_0']level_1 = row['level_1']c[c['performars'] == i] = [level_0,level_1,j]else:continue
c.head()#根据演员名臣进行分组并计数
c = c.groupby('performars').count()
c.head()#此时,'level_0''level_1'的数据完全是一样的,删除'level_0'列
c = c.drop(['level_0'],axis = 1)
c.columns = ['counts']
cats_c = c
3.2.5 时长(movie_duration)
df['movie_duration']
movie_duration_split = df['movie_duration'].str.strip().str.replace('\',\'','#').str.split('#').apply(pd.Series)
movie_duration_split.head()#有些电影存在多种版本,一般情况下,第一个版本观看数量较多,因此取第一个
duration = movie_duration_split[0].str.split('分').apply(pd.Series)[0].str.strip()
duration.head()#观看数量发现:#duration.str.len().value_counts() 检查放映时间是否大于三位数
duration[duration.str.len() > 3]#放映时间大于三位数,数据异常,要额外处理
duration[244] = duration[244].split(' ')[1]#现在更改数据类型:
duration = duration.astyle(int)
duration.dtypesdf['movie_duration'] = duration
df['movie_duration'].head()
3.2.6 电影标记(tags)
先查看'tags'列,先看一下基本情况
df['tags'][0]   tags_split = df['tags'].str.replace('count\':',' ').str.replace(',\'name\':\'',' ').str.replace('\'},{\'','').str.split(' ').apply(pd.Series)
tags_split#删除第一列
del tags_split[0]#处理掉最后一列的特殊字符:'}]
tags_split[] = tags_split[16].str.replace('\}]','')
tags_split.head()#一般阅读习惯是先看标签类别,再看标签数量,调整一下位置比较便于阅读
tags_split = tags_split.reindex(columns = [2,1,3,6,5,8,7,10,9,12,11,14,13,16,15])
tags_split.head()#更改列名
tags_split.columns= ['tags_1','tags_count_1','tags_2','tags_count_2','tags_3','tags_count_3','tags_4','tags_count_4','tags_5','tags_count_5','tags_6','tags_count_6','tags_7','tags_count_7','tags_8','tags_count_8',]
tags_split.head()
3.2.7 上映时间(init_year)
 #有的电影给出多个不同上映时间,为方便,我们取第一个。year_split = df['init_year'].str.split('/').apply(pd.Series)[0].str.strip()#主要为了处理第78条:大闹天宫:1961(中国大陆)/1964(中国大陆)/1978(中国大陆)/2004(中国大陆)/
year_split = year_split.str.slice(0,4)df['init_year'] = year_split.astyle(int)
df['init_year'].head()
3.2 缺失值检查与查看
df[df.isnull().values == True] 
df.info()

四、数据统计与分析

4.1 数值型列的数据统计
    df.describe()           #用 describe() 看数值型数据的统计信息
4.2 电影排名分析
    df[['num','title']].head(10)   #先看数据(查看前10名数据)
4.3 按评分-top10分析
Top10_rating_num = df[['rating_num','title']].sort_values(by = ['rating_num'],ascending = False).head(10).reset_index()#Top10_rating_num.index = [1,2,3,4,5,6,7,8,9,10]
Top10_rating_num按评价数量排名-top10分析
Top10_comment_num = df[['comment_num','title']].srot_values(by = ['comment_num'],ascending = False).head(10).reset_index()#Top10_comment_num.index = [1,2,3,4,5,6,7,8,9,10]
Top10_comment_num
4.4 上榜次数统计分析
4.4.1上榜次数最多的导演
df['director'].value_counts().head()4.4.2 上榜次数最多的演员
cast_c.sort_values(by = ['counts'],ascending = False).head()

五、数据分析与可视化展示(matplotlib)

5.1 matplotlib 可视化包基本环境配置
import matplotlib.pyplot as plt
import matplotlib
matplotlib.rcParams['font.family'] = 'SimHei'   #配置中文字体
matplotlib.rcParams['font.size'] = 15           #更改默认字体大小
5.2 评分 与排名
plt.scatter(df['rating_num'].df['num']) #绘制散点图
plt.xlabel('rating_num')                # x 轴标签
plt.ylabel('ranking list')              # y 轴标签
plt.show()由于观看不便,可以通过 invert_yaxis() 改变y轴标签顺序
重构:plt.figure(figsize = (14,6))            #画布大小(14,6)plt.subplot(1,2,1)plt.scatter(df['rating_num'].df['num']) #绘制散点图plt.xlabel('rating_num')                # x 轴标签plt.ylabel('ranking list')              # y 轴标签plt.gca().invert_yaxis()                #更改y轴标签顺序plt.subplot(1,2,2)plt.hist(df['rating_num'],bins = 15)plt.xlabel('rating_num')plt.show()

这里写图片描述

    df['num'].corr(df['rating_num'])    #利用 泊松分布 显示相关性
5.3 评论人数 与排名
plt.figure(figsize = (14,6))                #画布大小(14,6)
plt.subplot(1,2,1)
plt.scatter(df['comment_num'].df['num'])    #绘制散点图
plt.xlabel('comment_num')                   # x 轴标签
plt.ylabel('ranking list')                  # y 轴标签
plt.gca().invert_yaxis()                    #更改y轴标签顺序plt.subplot(1,2,2)
plt.hist(df['comment_num'])
plt.xlabel('comment_num')plt.show()

这里写图片描述

df['num'].corr(df['comment_num'])           #利用 泊松分布 显示相关性
5.4 电影时长 与排名
plt.figure(1)
plt.figure(figsize = (14,6))                #画布大小(14,6)
plt.subplot(1,2,1)
plt.scatter(df['movie_duration'].df['num']) #绘制散点图
plt.xlabel('movie_duration')                # x 轴标签
plt.ylabel('ranking list')                  # y 轴标签
plt.gca().invert_yaxis()                    #更改y轴标签顺序plt.subplot(1,2,2)
plt.hist(df['movie_duration']bins = 50)
plt.xlabel('movie_duration')plt.show()

这里写图片描述

df['num'].corr(df['movie_duration'])       #利用 泊松分布 显示相关性
5.5 上映年份 与排名
plt.figure(1)
plt.figure(figsize = (14,6))            #画布大小(14,6)
plt.subplot(1,2,1)
plt.scatter(df['init_year'].df['num'])  #绘制散点图
plt.xlabel('init_year')                 # x 轴标签
plt.ylabel('ranking list')              # y 轴标签
plt.gca().invert_yaxis()                #更改y轴标签顺序plt.subplot(1,2,2)
plt.hist(df['init_year']bins = 30)
plt.xlabel('init_year')plt.show()df['num'].corr(df['init_year'])        #利用 泊松分布 显示相关性
5.6 国家/地区 与排名
area_c.sort_values(by='counts',ascending = False).plot(king='bar',figsize = (12,6))
plt/show()

这里写图片描述

5.7 语言 与排名
language_c.sort_values(by = 'counts',ascending = False)[:30].plot(king='bar',figsize = (12,6))
plt.show()
5.8 电影类型 与排名
genre_c.sort_values(by = 'counts',ascending = False).plot(king='bar',figsize = (12,6))
plt.show()
5.9 电影标签热度词云统计 与排名
tag_name = tags_split[['tags_1','tags_2','tags_3','tags_4','tags_5','tags_6','tags_7','tags_8']]
tag_name = tag_name.values.flatten()
len(tag_name)from pyecharts import WordCloud
values=np.arange(10000,step=5)
wordcloud = WordCloud(width=1300, height=620)  #板块
wordcloud.add("",tag_name,values, word_size_range=[20, 100])#单词大小区间范围
wordcloud.render("wordcloud.html")

这里写图片描述

六、数据分析与可视化展示

6.1 安装pyecharts 可视化基本环境配置
import pip
def import(package):pip.main(['install',package])
install('pyecharts==0.1.8')
6.2 电影类型-排名
from pyecharts import Bar
mybar = Bar('电影类型分析')
new_g = g.sort_values(by = 'counts',ascending = False)
attr = new_g.index
value = new_g.counts
mybar.add('电影类型',attr,value,mark_line = ['max'],mark_point = ['average'])
mybar.render('movie_01.html')
mybar

这里写图片描述

6.3 按评分占比统计
from pyecharts import Pie
Top10_rating_num = df[['rating_num','title']].sort_values(by = 'rating_num',ascending = False).head(10).reset_index()
sttr = data['level_1'].tolist()
v1 = data['rating_num'].tolist()pie = Pie('排名前10电影评分占比',title_pos = 'center')
pie.add('',sttr,v1,is_label_show = True,legend_orient = 'vertical',legend_pos = 'right')
bar.render_notebook()
6.4 国家地区-排名
from pyecharts import Line
areas = area_c.reset_index()
v1 = area['counts'].tolist()
attr = area['index'].tolistline = Line('国家地区电影排名')
line.add('国家',attr,v1,mark_point = ['min','max'],is_smooth=True,mark_line['max','average'])
line.render_notebook()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/52623.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

张国荣一生57部电影海报全集

https://www.toutiao.com/a6674763436297028100/ 2019-04-01 11:58:29 片名:《红楼春上春》 上映时间:1978年1月19日 导演:金鑫 主演:张国荣、黄杏秀、陈维英 片名:《狗咬狗骨》 上映时间:1978年6月23…

十一的浪迹天涯

今年的十一破天荒的来了一次不太一样的旅游,特点主要有几个:远、人多、地方多。简略说下十一十天的行程,没错,我们国庆节有十天,它比七天多三天。 日期大事件地点09.28开始放假,主要是休息,收拾…

推荐系统与知识图谱

个性化推荐系统作为一种信息过滤的重要手段,是当前解决信息超载问题的最有效的方法之一,是面向用户的互联网产品的核心技术。 推荐系统的任务和难点 按照预测对象的不同,推荐系统一般可以分成两类:一类是评分预测(rat…

【数据分析】豆瓣电影Top250爬取的数据的可视化分析

豆瓣Top250网址 将之前爬取到的豆瓣电影进行简单的可视化: 数据列表保存为CSV格式,如图 导入数据 做好准备 #!-*- coding:utf-8 -*- import pandas as pd import numpy as np import matplotlib.pylab as plt import re from numpy import rank from bu…

1984-1999:中国电影的黄金十五年

https://www.toutiao.com/a6711956018126914059/ 2019-07-10 18:11:26 1984年6月,在黄土高原的群山之间,电影《黄土地》剧组的工作人员大声呼喊着一个人的名字。 他们在寻找这部电影的摄影师张艺谋。 这是张艺谋第二次担任电影摄影师,不久前…

ELK 可视化分析热血电影《长津湖》15万+影评

1、《长津湖》观后 2018 年有了孩子后,近 3 年没有再看过电影。 念于《长津湖》的确大热,我对战争片心念神往、对中国近现代史非常好奇,加上老婆的男神段奕宏参演。一拍即合,我俩在国庆假期的最后一天看了这部鸿篇巨制、热血催泪电…

python爬取百部电影数据,我分析出了一个残酷的真相

2019年就这么匆匆过去了,就在前几天国家电影局发布了2019年中国电影市场数据,数据显示去年总票房为642.66亿元,同比增长5.4%;国产电影总票房411.75亿元,同比增长8.65%,市场占比 64.07%;城市院线…

214 情人节来袭,电视剧 《点燃我温暖你》李峋同款 Python爱心表白代码,赶紧拿去用吧

大家好,我是徐公,六年大厂程序员经验,今天为大家带来的是动态心形代码,电视剧 《点燃我温暖你》同款的,大家赶紧看看,拿去向你心仪的对象表白吧,下面说一下灵感来源。 灵感来源 今天&#xff…

ChatGPT提示词分享1/100 写作助手

作为一名中文写作改进助理,你的任务是改进所提供文本的拼写、语法、清晰、简洁和整体可读性,同时分解长句,减少重复,并提供改进建议。请只提供文本的更正版本,避免包括解释。请从编辑以下文本开始:[文章内容…

家庭教育的重要性,家庭教育是一切教育的基石

在孩子整个教育的过程中,学校教育是处于主导地位的,而家庭教育起着关键的作用。 家庭教育,是国民教育体系的重要组成部分,是社会、学校教育的基础、补充和延伸。家庭教育伴随人的一生,影响人的一生,对一个…

关注家庭教育-父母对子女的期望

关注家庭教育 - 孩子有自己的追求 文章目录 关注家庭教育 - 孩子有自己的追求简要正文期望家庭教育公众号 简要 人对自己的子女都免不了有一些期望。我们对子女实际上只能存品德方面的期望,因为品德它是放之四海而皆准的。你可以希望你的小孩以后长大待人很热忱&am…

如何才能做好家庭教育?家庭教育的五个主要方面

家庭教育的重要性家庭教育自古以来就受到人们的关注,但近年来在中国被作为一门学科来研究。这是时代发展、人才需求、人民整体素质提高必须涉及的问题。在这里,我们和家长一起探讨家庭教育的重要性,让家庭、社会、教育部门共同承担起教育下一…

家庭教育中如何使用批评教育?

孩子做错了事,作为父母,你知道应该怎么批评孩子吗?在家庭教育中,如果批评用得不好,就会比较麻烦,会严重限制孩子的发展。 在一次线下活动中,我看到一个妈妈带着孩子,准备进行乐器表演&#xff…

使用tushare大数据平台对几种股票因子进行计算

写在前面 去年七月,笔者开始接触买入股票,近一年下来,投入的的钱亏了一半,股票市场不是基金市场,其中的残酷给我这个初来乍到的年轻人上了一课。当时,我就在想,买卖股票是否能够赚钱&#xff0c…

利用tushare获取股票数据-V2 +股票数据分析

一、利用tushare获取股票数据 上次利用tushare的API获取了一部分的数据,感觉不够齐全,所以现在更新程序 import tushare as ts import pandas as pdpro ts.pro_api() data pro.query(stock_basic, exchange, list_statusL, fieldsts_code) #实例化一个…

免费获取股票历史交易数据方法与代码获取股票实时数据方法集合

现在网上有越来越多开源的股票数据的获取方法,言简意赅,小编在这里提供2种方法去获取股票数据,第一种呢还是针对于所有的用户,通过使用第三方平台提供的方法来获取到所需要的股票数据。 方法一:使用免费的网站进行 详…

获取股票交易数据的Tushare的使用方法

博客:https://www.cnblogs.com/DreamRJF/p/8660630.html 以前不知道怎么从网上直接获取数据,都是从交易软件上下载数据,也只有个别的软件才能下载,例如通达信可以导出数据,现在学到了一种新的方法,利用tush…

四万字歌词分析:那些年,我们一起追的五月天到底在唱什么?

大数据文摘出品 作者:蒋宝尚、曹培信 你见过自带荧光棒、中途大合唱、放完不离场的电影观众么? 如果你去电影院看了《五月天人生无限公司》,那么,你一定明白文摘菌在说什么。 如果你还没有看过,文摘菌这里弱剧透一下&a…

歌词生成(一)-SongNet简述

歌词生成相较于普通文本生成,需要配合特定的乐曲,并演唱。因而要求,每句歌词演唱的长度正好合拍,即不同曲子,每句歌词的字符个数是要受限制于乐曲。 本文暂不考虑曲配词问题,只是将问题抽象为,…

Android 开源歌词控件 LyricViewX

Android 开源歌词控件 LyricViewX 开源地址 Github https://github.com/Moriafly/LyricViewX LyricViewX 是一个美观的安卓歌词控件。 基于 LrcView 设计。 效果展示 Dso Music Github https://github.com/Moriafly/DsoMusic 双语 拖动 单语 比较与 LrcView 100% Kotlin…