基于Python语言的Spark数据处理分析——2020年美国新冠肺炎疫情数据分析

基于Python语言的Spark数据处理分析——2020年美国新冠肺炎疫情数据分析

  • 一、实验环境
  • 二、数据集
    • 1.数据集下载来源
    • 2.转换文件格式
    • 3.上传文件至HDFS文件系统
  • 三、使用Spark进行数据分析
    • 1.读取文件并生成DataFrame
    • 2.采用python编程语言进行数据分析
    • 3.将HDFS上结果文件保存到本地文件系统
  • 四、数据可视化
    • 1.可视化工具
    • 2.数据可视化代码
    • 3.可视化结果
  • 五、总结
  • 六、参考材料

一、实验环境

(1)操作系统:Ubuntu 64位14.04.6
(2)Hadoop版本:3.2.1(安装教程)
(3)Python版本:3.7.6
(4)Spark版本:2.4.7(安装教程)
(5)Jupyter Notebook(安装和使用方法教程)

二、数据集

1.数据集下载来源

本次数据分析所使用的数据集来源于数据网站Kaggle的美国新冠肺炎疫情数据集,该数据集以数据表us-counties.csv组织,包含了美国发现首例新冠肺炎确诊病例至2020年5月19日的相关数据。以下为数据包含的字段:

字段名称字段含义
date日期
county区县(州的下一级单位)
state
cases截止该日期该区县的累计确诊人数
deaths截止该日期该区县的累计死亡人数

在这里插入图片描述

2.转换文件格式

(1)将下载好的us-counties.csv文件放到/home/hadoop目录下。
在这里插入图片描述
(2)由于数据集是以.csv文件组织的,需要先将us-counties.csv转换为.txt格式的文件,方便spark读取生成RDD或者DataFrame。使用python实现转换,首先在终端输入命令jupyter notebook来运行Jupyter Notebook;然后在浏览器中输入http://localhost:8888打开jupyter界面。
在这里插入图片描述在这里插入图片描述
(3)在Jupyter Notebook中新建一个.ipynb文件,命名为toTxt.ipynb,并写入以下代码。

import pandas as pd#.csv->.txt
data = pd.read_csv('/home/hadoop/us-counties.csv')
with open('/home/hadoop/us-counties.txt','a+',encoding='utf-8') as f:for line in data.values:f.write((str(line[0])+'\t'+str(line[1])+'\t'+str(line[2])+'\t'+str(line[3])+'\t'+str(line[4])+'\n'))

(4)运行代码查看结果如下。
在这里插入图片描述
在这里插入图片描述

3.上传文件至HDFS文件系统

(1)将.txt文件上传到HDFS中,需确保已启动Hadoop。使用如下命令:

./sbin/start-dfs.sh

在这里插入图片描述
(2)将本地文件系统/home/hadoop/目录下的us-counties.txt文件上传到HDFS文件系统中。使用如下命令:

./bin/hdfs dfs -put /home/hadoop/us-counties.txt /user/hadoop

可使用ls命令查看该文件是否成功上传。

三、使用Spark进行数据分析

1.读取文件并生成DataFrame

由于使用的数据集数据为结构化数据,这里使用spark读取源文件生成DataFrame,以便后续进行分析。读取us-counties.txt生成DataFrame的代码如下:

from pyspark import SparkConf,SparkContext
from pyspark.sql import Row
from pyspark.sql.types import *
from pyspark.sql import SparkSession
from datetime import datetime
import pyspark.sql.functions as funcdef toDate(inputStr):newStr = ""if len(inputStr) == 8:s1 = inputStr[0:4]s2 = inputStr[5:6]s3 = inputStr[7]newStr = s1+"-"+"0"+s2+"-"+"0"+s3else:s1 = inputStr[0:4]s2 = inputStr[5:6]s3 = inputStr[7:]newStr = s1+"-"+"0"+s2+"-"+s3date = datetime.strptime(newStr, "%Y-%m-%d")return date#主程序:
spark = SparkSession.builder.config(conf = SparkConf()).getOrCreate()fields = [StructField("date", DateType(),False),StructField("county", StringType(),False),StructField("state", StringType(),False),StructField("cases", IntegerType(),False),StructField("deaths", IntegerType(),False),]
schema = StructType(fields)rdd0 = spark.sparkContext.textFile("/user/hadoop/us-counties.txt")
rdd1 = rdd0.map(lambda x:x.split("\t")).map(lambda p: Row(toDate(p[0]),p[1],p[2],int(p[3]),int(p[4])))shemaUsInfo = spark.createDataFrame(rdd1,schema)shemaUsInfo.createOrReplaceTempView("usInfo")

在这里插入图片描述

2.采用python编程语言进行数据分析

在计算过程中采用了DataFrame自带的操作函数以及spark sql。
(1)以date作为分组字段,对cases和deaths字段进行汇总统计,统计美国截止每日的累计确诊人数和累计死亡人数。

#1.计算每日的累计确诊病例数和死亡数
df = shemaUsInfo.groupBy("date").agg(func.sum("cases"),func.sum("deaths")).sort(shemaUsInfo["date"].asc())#列重命名
df1 = df.withColumnRenamed("sum(cases)","cases").withColumnRenamed("sum(deaths)","deaths")
df1.repartition(1).write.json("result/result1.json")                               #写入hdfs#注册为临时表供下一步使用
df1.createOrReplaceTempView("ustotal")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(2)因为新增数=今日数-昨日数,所以以t1.date=t2.date+1为连接条件,使用t1.totalCases-t2.totalCases计算美国每日较昨日的新增确诊人数和新增死亡人数。

#2.计算每日较昨日的新增确诊病例数和死亡病例数
df2 = spark.sql("select t1.date,t1.cases-t2.cases as caseIncrease,t1.deaths-t2.deaths as deathIncrease from ustotal t1,ustotal t2 where t1.date = date_add(t2.date,1)")df2.sort(df2["date"].asc()).repartition(1).write.json("result/result2.json")           #写入hdfsprint('Success') # 判断程序是否已成功运行

在这里插入图片描述
(3)筛选出2020.5.19的数据,以state作为分组字段,对cases和deaths字段进行汇总统计,统计截止2020.5.19美国各州的累计确诊人数和死亡人数。

#3.统计截止5.19日 美国各州的累计确诊人数和死亡人数
df3 = spark.sql("select date,state,sum(cases) as totalCases,sum(deaths) as totalDeaths,round(sum(deaths)/sum(cases),4) as deathRate from usInfo  where date = to_date('2020-05-19','yyyy-MM-dd') group by date,state")df3.sort(df3["totalCases"].desc()).repartition(1).write.json("result/result3.json") #写入hdfsdf3.createOrReplaceTempView("eachStateInfo")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(4)对(3)的结果DataFrame注册临时表,然后按确诊人数降序排列,取前10个州即找出美国确诊最多的10个州。

#4.找出美国确诊最多的10个州
df4 = spark.sql("select date,state,totalCases from eachStateInfo  order by totalCases desc limit 10")
df4.repartition(1).write.json("result/result4.json")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(5)对(3)的结果DataFrame注册临时表,然后按死亡人数降序排列,取前10个州即找出美国死亡最多的10个州。

#5.找出美国死亡最多的10个州
df5 = spark.sql("select date,state,totalDeaths from eachStateInfo  order by totalDeaths desc limit 10")
df5.repartition(1).write.json("result/result5.json")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(6)对(3)的结果DataFrame注册临时表,然后按确诊人数升序排列,取前10个州即找出美国确诊最少的10个州。

#6.找出美国确诊最少的10个州
df6 = spark.sql("select date,state,totalCases from eachStateInfo  order by totalCases asc limit 10")
df6.repartition(1).write.json("result/result6.json")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(7)对(3)的结果DataFrame注册临时表,然后按死亡人数升序排列,取前10个州即找出美国死亡最少的10个州。

#7.找出美国死亡最少的10个州
df7 = spark.sql("select date,state,totalDeaths from eachStateInfo  order by totalDeaths asc limit 10")
df7.repartition(1).write.json("result/result7.json")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(8)对(3)的结果DataFrame注册临时表,按病死率=死亡人数/确诊人数这个公式进行计算,统计截止2020.5.19全美和各州的病死率。

#8.统计截止5.19全美和各州的病死率
df8 = spark.sql("select 1 as sign,date,'USA' as state,round(sum(totalDeaths)/sum(totalCases),4) as deathRate from eachStateInfo group by date union select 2 as sign,date,state,deathRate from eachStateInfo").cache()
df8.sort(df8["sign"].asc(),df8["deathRate"].desc()).repartition(1).write.json("result/result8.json")print('Success') # 判断程序是否已成功运行

在这里插入图片描述

3.将HDFS上结果文件保存到本地文件系统

(1)在本地文件系统中的目录/home/hadoop下新建result文件夹,接着在result文件夹中新建8个子文件夹,分别命名为result1、result2、result3、……
在这里插入图片描述
(2)为方便后续可视化处理,Spark计算结果保存.json文件。可在终端进行查看,使用命令如下:

./bin/hdfs dfs -ls /user/hadoop/result

在这里插入图片描述
(3)因为python读取HDFS文件系统不方便,所以将HDFS上结果文件保存到本地文件系统中,使用命令如下:

./bin/hdfs dfs -get /user/hadoop/result/result1.json/*.json /home/hadoop/result/result1/part-00000.json
./bin/hdfs dfs -get /user/hadoop/result/result1.json/*.json /home/hadoop/result/result2/part-00000.json

以此类推,对于result3等结果文件,使用相同命令,只需要改一下路径即可。这里统一名称part-00000.json是为了方便后续数据可视化的操作。
在这里插入图片描述
(4)查看下载结果。
在这里插入图片描述

四、数据可视化

1.可视化工具

选择使用python第三方库pyecharts作为可视化工具。安装pyecharts代码如下:

pip install pyecharts

在这里插入图片描述

2.数据可视化代码

在Jupyter Notebook中新建一个.ipynb文件,命名为showdata.ipynb。
(1)导入第三方库。

from pyecharts import options as opts
from pyecharts.charts import Bar
from pyecharts.charts import Line
from pyecharts.components import Table
from pyecharts.charts import WordCloud
from pyecharts.charts import Pie
from pyecharts.charts import Funnel
from pyecharts.charts import Scatter
from pyecharts.charts import PictorialBar
from pyecharts.options import ComponentTitleOpts
from pyecharts.globals import SymbolType
import json

在这里插入图片描述
(2)用双柱状图画出每日的累计确诊病例数和死亡数。

#1.画出每日的累计确诊病例数和死亡数——>双柱状图
def drawChart_1(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"date = []cases = []deaths = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)date.append(str(js['date']))cases.append(int(js['cases']))deaths.append(int(js['deaths']))d = (Bar().add_xaxis(date).add_yaxis("累计确诊人数", cases, stack="stack1").add_yaxis("累计死亡人数", deaths, stack="stack1").set_series_opts(label_opts=opts.LabelOpts(is_show=False)).set_global_opts(title_opts=opts.TitleOpts(title="美国每日累计确诊和死亡人数")).render("/home/hadoop/result/result1/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(3)用折线图画出每日的新增确诊病例数和死亡数。

#2.画出每日的新增确诊病例数和死亡数——>折线图
def drawChart_2(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"date = []cases = []deaths = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)date.append(str(js['date']))cases.append(int(js['caseIncrease']))deaths.append(int(js['deathIncrease']))(Line(init_opts=opts.InitOpts(width="1600px", height="800px")).add_xaxis(xaxis_data=date).add_yaxis(series_name="新增确诊",y_axis=cases,markpoint_opts=opts.MarkPointOpts(data=[opts.MarkPointItem(type_="max", name="最大值")]),markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average", name="平均值")]),).set_global_opts(title_opts=opts.TitleOpts(title="美国每日新增确诊折线图", subtitle=""),tooltip_opts=opts.TooltipOpts(trigger="axis"),toolbox_opts=opts.ToolboxOpts(is_show=True),xaxis_opts=opts.AxisOpts(type_="category", boundary_gap=False),).render("/home/hadoop/result/result2/result1.html"))(Line(init_opts=opts.InitOpts(width="1600px", height="800px")).add_xaxis(xaxis_data=date).add_yaxis(series_name="新增死亡",y_axis=deaths,markpoint_opts=opts.MarkPointOpts(data=[opts.MarkPointItem(type_="max", name="最大值")]),markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average", name="平均值"),opts.MarkLineItem(symbol="none", x="90%", y="max"),opts.MarkLineItem(symbol="circle", type_="max", name="最高点"),]),).set_global_opts(title_opts=opts.TitleOpts(title="美国每日新增死亡折线图", subtitle=""),tooltip_opts=opts.TooltipOpts(trigger="axis"),toolbox_opts=opts.ToolboxOpts(is_show=True),xaxis_opts=opts.AxisOpts(type_="category", boundary_gap=False),).render("/home/hadoop/result/result2/result2.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(4)用表格画出截止2020.5.19,美国各州累计确诊、死亡人数和病死率。

#3.画出截止5.19,美国各州累计确诊、死亡人数和病死率--->表格
def drawChart_3(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"allState = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)row = []row.append(str(js['state']))row.append(int(js['totalCases']))row.append(int(js['totalDeaths']))row.append(float(js['deathRate']))allState.append(row)table = Table()headers = ["State name", "Total cases", "Total deaths", "Death rate"]rows = allStatetable.add(headers, rows)table.set_global_opts(title_opts=ComponentTitleOpts(title="美国各州疫情一览", subtitle=""))table.render("/home/hadoop/result/result3/result1.html")print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(5)用词云图画出美国确诊最多的10个州。

#4.画出美国确诊最多的10个州——>词云图
def drawChart_4(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"data = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)row=(str(js['state']),int(js['totalCases']))data.append(row)c = (WordCloud().add("", data, word_size_range=[20, 100], shape=SymbolType.DIAMOND).set_global_opts(title_opts=opts.TitleOpts(title="美国各州确诊Top10")).render("/home/hadoop/result/result4/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(6)用象柱状图画出美国死亡最多的10个州。

#5.画出美国死亡最多的10个州——>象柱状图
def drawChart_5(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"state = []totalDeath = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)state.insert(0,str(js['state']))totalDeath.insert(0,int(js['totalDeaths']))c = (PictorialBar().add_xaxis(state).add_yaxis("",totalDeath,label_opts=opts.LabelOpts(is_show=False),symbol_size=18,symbol_repeat="fixed",symbol_offset=[0, 0],is_symbol_clip=True,symbol=SymbolType.ROUND_RECT,).reversal_axis().set_global_opts(title_opts=opts.TitleOpts(title="PictorialBar-美国各州死亡人数Top10"),xaxis_opts=opts.AxisOpts(is_show=False),yaxis_opts=opts.AxisOpts(axistick_opts=opts.AxisTickOpts(is_show=False),axisline_opts=opts.AxisLineOpts(linestyle_opts=opts.LineStyleOpts(opacity=0)),),).render("/home/hadoop/result/result5/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(7)用词云图画出美国确诊最少的10个州。

#6.找出美国确诊最少的10个州——>词云图
def drawChart_6(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"data = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)row=(str(js['state']),int(js['totalCases']))data.append(row)c = (WordCloud().add("", data, word_size_range=[100, 20], shape=SymbolType.DIAMOND).set_global_opts(title_opts=opts.TitleOpts(title="美国各州确诊最少的10个州")).render("/home/hadoop/result/result6/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(8)用漏斗图画出美国死亡最少的10个州。

#7.找出美国死亡最少的10个州——>漏斗图
def drawChart_7(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"data = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)data.insert(0,[str(js['state']),int(js['totalDeaths'])])c = (Funnel().add("State",data,sort_="ascending",label_opts=opts.LabelOpts(position="inside"),).set_global_opts(title_opts=opts.TitleOpts(title="")).render("/home/hadoop/result/result7/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(9)用饼状图画出美国的病死率。

#8.美国的病死率--->饼状图
def drawChart_8(index):root = "/home/hadoop/result/result" + str(index) +"/part-00000.json"values = []with open(root, 'r') as f:while True:line = f.readline()if not line:                            # 到 EOF,返回空字符串,则终止循环breakjs = json.loads(line)if str(js['state'])=="USA":values.append(["Death(%)",round(float(js['deathRate'])*100,2)])values.append(["No-Death(%)",100-round(float(js['deathRate'])*100,2)])c = (Pie().add("", values).set_colors(["blcak","orange"]).set_global_opts(title_opts=opts.TitleOpts(title="全美的病死率")).set_series_opts(label_opts=opts.LabelOpts(formatter="{b}: {c}")).render("/home/hadoop/result/result8/result1.html"))print('Success') # 判断程序是否已成功运行

在这里插入图片描述
(10)可视化主程序。

#可视化主程序:
index = 1
while index<9:funcStr = "drawChart_" + str(index)eval(funcStr)(index)index+=1print('Success') # 判断程序是否已成功运行

在这里插入图片描述

3.可视化结果

可视化结果是.html格式的,reslut1的结果展示图保存路径为“/home/hadoop/result/result1/result1.html”,reslut2的结果展示图保存路径为“/home/hadoop/result/result2/result1.html”,以此类推。
(1)美国每日的累计确诊病例数和死亡数。
在这里插入图片描述
(2)美国每日的新增确诊病例数和死亡数。
在这里插入图片描述
在这里插入图片描述
(3)截止2020.5.19,美国各州累计确诊、死亡人数和病死率。
在这里插入图片描述
(4)截止2020.5.19,美国累计确诊最多的10个州。
在这里插入图片描述
(5)截止2020.5.19,美国累计死亡最多的10个州。
在这里插入图片描述
(6)截止2020.5.19,美国累计确诊最少的10个州。
在这里插入图片描述
(7)截止2020.5.19,美国累计死亡最少的10个州。
在这里插入图片描述
(8)截止2020.5.19,美国的病死率。
在这里插入图片描述

五、总结

本文仅仅简单介绍了基于python语言的Spark数据处理分析的使用。首先搭建实验环境;其次获取数据集并转换为.txt格式以方便spark读取生成RDD或DataFrame;然后在启动Hadoop的前提下,将.txt文件上传到HDFS文件系统中;接着使用Spark进行数据分析,在此过程中,采用了python编程语言、DataFrame自带的操作函数以及spark sql,并将结果文件下载到本地文件系统中;最后,使用python第三方库pyecharts作为可视化工具,将数据可视化。在整个实验操作过程中,我遇到了两个问题,其一,在安装jupyter notebook时,基于anaconda3的python版本太高,导致jupyter notebook和spark交互出现问题,这里建议在Anaconda清华大学镜像下载anaconda3,在Anaconda官网下载的anaconda3中python3版本过高,不支持jupyter notebook和spark交互;其二,将HDFS上结果文件下载到本地文件系统中时,没有统一.json名称,在后面数据可视化时,代码中统一用part-00000.json,导致.json名称对应不上,运行结果出错,重新下载结果文件并统一.json名称就能解决问题了。

六、参考材料

[1] http://dblab.xmu.edu.cn/blog/290-2/
[2] http://dblab.xmu.edu.cn/blog/2575-2/
[3] http://dblab.xmu.edu.cn/blog/2636-2/

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/18710.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python新型冠状病毒疫情数据自动爬取+统计+发送报告+数据屏幕(三)发送篇

今天介绍的项目是使用 Itchat 发送统计报告 项目功能设计&#xff1a; 定时爬取疫情数据存入Mysql进行数据分析制作疫情报告使用itchat给亲人朋友发送分析报告&#xff08;本文&#xff09;基于Django做数据屏幕使用Tableau做数据分析 来看看最终效果 目前已经完成&#xff…

python 爬取国内各省份新冠疫情历史数据(来自腾迅疫情)

数据接口&#xff1a; https://api.inews.qq.com/newsqa/v1/query/pubished/daily/list?adCode310000其中&#xff0c;adCode 是地区地理编码&#xff0c;可参考&#xff1a;python 全国行政地区信息爬取-腾迅位置服务平台请求方式&#xff1a; GET返回数据类型&#xff1a; J…

Python采集全球疫情数据并做可视化分析

嗨嗨&#xff0c;大家好~ 今天真的是刚睡醒就知道RNG八人确诊&#xff0c;这年头出国打个比赛都这么不容易&#xff0c;希望早日康复~ 唉&#xff0c;今天就教你们 如何用Python采集全球疫情数据&#xff0c;并做可视化分析 知识点: 爬虫基本流程requests 发送请求re 正则表…

【大数据平台】基于Spark的美国新冠肺炎疫情数据分析及预测

一、选题背景 新型冠状病毒疫情是由严重急性呼吸系统综合征冠状病毒2&#xff08;SARS-CoV-2&#xff09;导致的2019冠状病毒病&#xff08;COVID-19&#xff09;所引发的全球大流行疫情。该疾病在2019年末于中华人民共和国湖北省武汉市首次爆发&#xff0c;随后在2020年初迅速…

chatgpt画思维导图

场景&#xff1a; chatgpt写思维导图代码&#xff0c;进而在专门的软件中生成思维导图 方法 在提问中&#xff0c;输入需要的思维导图代码格式

ChatGPT与网络安全的跨时代对话

前言 ChatGPT&#xff1a;是人工智能技术驱动的自然语言处理工具&#xff0c;它能够通过学习和理解人类的语言来进行对话&#xff0c;还能根据聊天的上下文进行互动&#xff0c;真正像人类一样来聊天交流&#xff0c;甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务。G…

ChatGPT实现数据结构转换

数据结构转换 在应用系统开发和维护中&#xff0c;经常会有配置数据或客户数据需要在不同的序列化结构中相互转换的需求。不同编程语言之前&#xff0c;对数据结构的偏好也不一样&#xff0c;比如 JavaScript 一般使用 JSON、Java 一般使用 XML、Ruby 一般使用 YAML、Golang 一…

springboot3 笔记(雷峰阳)

文章目录 springboot3核心特性SpringBoot3-快速入门环境要求SpringBoot是什么快速体验1. 开发流程1. 创建项目2. 导入场景3.主程序4. 业务5. 测试6. 打包 2. 特性小结1. 简化整合2. 简化开发3. 简化配置5. 简化运维 3. Spring Initializr 创建向导3、应用分析1. 依赖管理机制2.…

我靠海外抖音搬运视频赚到了人生第一桶金:这个风口行业,真的很赚钱

在2022年新一轮疫情期间&#xff0c;“有啥方法&#xff0c;可在家快速赚钱&#xff1f;”冲上了热门话题。 “好想挣钱啊...…”单位难开工&#xff0c;生意不开张&#xff0c;咱们才惊醒&#xff1a;“领死工资的生活&#xff0c;真的好脆弱。” 平时总说副业赚钱&#xff0c…

腾讯股票接口、和讯网股票接口、新浪股票接口、雪球股票数据、网易股票数据...

2019独角兽企业重金招聘Python工程师标准>>> 腾讯股票接口&#xff1a; 分时图 http://data.gtimg.cn/flashdata/hushen/minute/sz000001.js?maxage110&0.28163905744440854 五天分时图 http://data.gtimg.cn/flashdata/hushen/4day/sz/sz000002.js?maxage432…

移动端APP——微信(1)手机桌面控件和启动画面显示与隐藏

微信原型设计1&#xff1a;手机桌面控件和启动画面显示与隐藏 微信原型设计运用的是产品原型设计软件Axure RP Pro 7.0 版。 一、手机桌面绘制 手机的外壳和桌面、以及微信图标都是直接引用的图片库中图片&#xff0c;将元件库中的image拖入&#xff0c;并单击右键导入图片即…

android 那个桌面好,Hola桌面 可能是最好用的安卓手机桌面

如果你是一名安卓手机用户&#xff0c;你可能会有这样的感觉&#xff0c;手机自带的系统桌面一般都比较鸡肋&#xff0c;不能自定义自己喜欢的样式&#xff0c;或者说是扩展性不尽人意。如果你不甘心这一切&#xff0c;你也许尝试过一些手机桌面产品&#xff0c;但能让你一直坚…

android 如何自定义桌面,安卓手机桌面设置教程 个性化你的桌面

Android系统是一款功能非常的强大的全球智能手机操作系统&#xff01;而相对于一些新手来说&#xff0c;熟练的操作安卓手机非常的难&#xff0c;那么下面我就安卓手机桌面设置来给新手用户一个简单的教程&#xff0c;让你的手机桌面变的更加的人性化&#xff01; 随着谷歌Adro…

android 手机桌面,安卓手机桌面介绍:教你认识安卓手机桌面

一个新手拿到手机&#xff0c;开机后看到的第一个画面就是桌面了&#xff0c;想要玩转整个手机&#xff0c;那么就先把桌面的各个功能都了解下吧。一般来说&#xff0c;刚买的新手机都是用的自带桌面&#xff0c;不同品牌的手机也是各不相同&#xff0c;但是功能方面都是大同小…

倡议书:关于暂停「巨型 AI」 实验的一封公开信

本文是 futureoflife 公开信&#xff0c;原文地址 https://futureoflife.org/open-letter/pause-giant-ai-experiments/ 目前已经有 1127 1127 1127 名 AI 学者参与签署。 以下为正文&#xff1a; 本文提出呼吁所有人工智能实验室立即暂停比 GPT-4 更强大的人工智能系统的训练…

ChatGPT vs 谷歌PaLM2,人类堕入“囚徒困境”?

前言 chatgpt的连续火爆&#xff0c;可以说是IT界近几十年来为数不多的超量话题&#xff0c;几乎各行各业都开始了chatgpt的研究。chatgpt受到的关注度可以说是无可估量的。各大巨头的纷纷加入也是它不断的推上热浪的关键。 最近看的一篇热文很有意思&#xff0c;全面分析透彻…

2023-05-31【02】ChatGPT 之父警告 AI 可能灭绝人类,350 名 AI 权威签署公开信

今天&#xff0c;AI 领域传出一封重要的公开信。 包括 「ChatGPT 之父」Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信&#xff0c;并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。 这封信只有一句声明&#xff1a;降低人工智能灭绝的风险&#xff0c;应该…

“ChatGPT之父”等350名业内人士签署公开信并警告:AI可能灭绝人类

人们对 AI 技术的发展和应用有了更加深入的思考与探讨。 日前&#xff0c;超过350名人工智能&#xff08;AI&#xff09;领域的行业高管、专家和教授签署了一封公开信&#xff0c;他们在信中警告称&#xff0c;AI可能给人类带来灭绝风险。 这份公开信发布在非营利组织人工智能…

万字详述! ChatGPT 之父承认 GPT-5 并不存在,为什么 OpenAI 总是这么实诚?

点击上方“AI遇见机器学习”&#xff0c;选择“星标”公众号 第一时间获取价值内容 来源: 爱范儿 微信号&#xff1a;ifanr 最近&#xff0c;OpenAI 的 CEO Sam Altman 在一场公开会议上为 GPT-5 辟谣。 他声称 OpenAI 并没有在训练 GPT-5&#xff0c;而是一直基于 GPT-4 做别…