6-爬取英语外教和中国老师招聘数据,并将其进行对比(薪资、学历、经验等)...

说明:

项目主要爬取英语外教与中国老师招聘数据,并对数据进行比较分析。

外教的招聘信息(JobLeadChina网站):http://www.jobleadchina.com/job?job_industry=Teaching

中国老师的招聘信息(万行教师人才网站):http://www.job910.com/search.aspx

分为:爬虫+数据分析

一、爬虫【爬取外教和中国教师的招聘信息】

-->存入CSV  【有两种方法】

  • 简单的with open方法
  • 使用pandas进行保存csv文件

1、爬取英语外教的招聘信息(JobLeadChina网站)

import requests
from bs4 import BeautifulSoup
import os
import csv
import pandas as pdclass JobLeadChina(object):def __init__(self):self.headers={'user-agent':'Mozilla/5.0'}self.base_url='http://www.jobleadchina.com/job?job_industry=Teaching'self.flag=True  #用于pandas写入csv文件时,加不加第一行的名字def get_page(self,url):try:r=requests.get(url,headers=self.headers)r.raise_for_status()r.encoding=r.apparent_encodingreturn r.textexcept:return ""def get_pagenum(self):  #基于self.base_url得到页数html=self.get_page(self.base_url)soup=BeautifulSoup(html,'html.parser')ul=soup.find('ul',{'class':{'pagination'}})pagenum=int(ul('li')[-2]('a')[0].text.strip())return pagenumdef parse_page(self,url):  #解析网页,并存入csv文件中html=self.get_page(url)soup=BeautifulSoup(html,'html.parser')jobs=soup.find_all('div',{'class':{'jobThumbnail'}})for job in jobs:title=job.find('h3',{'class':{'positionTitle'}})('a')[0].text.strip()link=job.find('h3',{'class':{'positionTitle'}})('a')[0]['href']salary=job.find('h3',{'class':{'salaryRange'}}).text.strip()company=job.find('h3',{'class':{'companyName'}})('a')[0].text.strip()com_type=job.find('div',{'class':{'jobThumbnailCompanyIndustry'}})('span')[0].text.strip()area=job.find('div',{'class':{'jobThumbnailCompanyIndustry'}})('span')[-1].text.strip()update_time=job.find('div',{'class':{'timestamp'}})('span')[0].text.strip()education=job.find('div',{'class':{'jobThumbnailPositionRequire'}})('span')[0].text.strip()exp_title = job.find('div', {'class': {'jobThumbnailPositionRequire'}})('span')[2].text.strip()#print(title,link,salary,company,com_type,area,update_time,education,exp_title)filename = 'jobleadchina.csv'  # 文件名"""#将数据存入csv文件中【方法1】with open(filename,'a+',newline="",encoding='utf-8')as csv_f:csv_write=csv.writer(csv_f)if os.path.getsize(filename)==0:csv_write.writerow(['title','link','salary','company','com_type','area','update_time','education','exp_title'])csv_write.writerow([title,link,salary,company,com_type,area,update_time,education,exp_title])""" #将数据存入csv文件中【方法2】  --->使用pandasinfo={'title':[title],'link':[link],'salary':[salary],'company':[company],'com_type':[com_type],'area':[area],'update_time':[update_time],'education':[education],'exp_title':[exp_title]}data=pd.DataFrame(info)data.to_csv(filename,index=False,mode='a+',header=self.flag)self.flag=Falseprint('{}-Successfuly'.format(title))def main(self):page_num=self.get_pagenum()for i in range(1,page_num+1):url=self.base_url+"&page={}".format(i)self.parse_page(url)jobleadchina=JobLeadChina()
jobleadchina.main()

数据保存在:jobleadchina.csv文件中

2、爬取英语中国教师的招聘信息(万行教育人才网)

"""万行教育人才网
需要指定funtype和pageIndex英语老师-幼儿园:http://www.job910.com/search.aspx?funtype=10&keyword=英语老师&pageSize=20&pageIndex=1http://www.job910.com/search.aspx?funtype=10&keyword=英语老师&pageSize=20&pageIndex=2...http://www.job910.com/search.aspx?funtype=10&keyword=英语老师&pageSize=20&pageIndex=37funtype=10   最大pageIndex=37英语老师-中小学:http://www.job910.com/search.aspx?funtype=11&keyword=英语老师&pageSize=20&pageIndex=1http://www.job910.com/search.aspx?funtype=11&keyword=英语老师&pageSize=20&pageIndex=2...http://www.job910.com/search.aspx?funtype=11&keyword=英语老师&pageSize=20&pageIndex=472funtype=11   最大pageIndex=472英语老师-职业院校:http://www.job910.com/search.aspx?funtype=13&keyword=英语老师&pageSize=20&pageIndex=1http://www.job910.com/search.aspx?funtype=13&keyword=英语老师&pageSize=20&pageIndex=2funtype=13   最大pageIndex=2英语老师-外语培训:http://www.job910.com/search.aspx?funtype=19&keyword=英语老师&pageSize=20&pageIndex=1http://www.job910.com/search.aspx?funtype=19&keyword=英语老师&pageSize=20&pageIndex=2...http://www.job910.com/search.aspx?funtype=19&keyword=英语老师&pageSize=20&pageIndex=53funtype=19   最大pageIndex=53
"""import requests
import os
import csv
import pandas as pd
from bs4 import BeautifulSoupclass Job910(object):def __init__(self,funtype,pageIndex):self.funtype=funtypeself.pageIndex=pageIndexself.keyword='英语老师'self.pageSize=20self.base_url='http://www.job910.com/search.aspx'self.headers={'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3704.400 QQBrowser/10.4.3587.400'}self.flag=True  #利用pandas将数据写入文件时,是否加第一行def get_page(self,url,params=None):try:r=requests.get(url,headers=self.headers,params=params)#print(r.url)r.raise_for_status()r.encoding=r.apparent_encodingreturn r.textexcept:return ""def parse_page(self,url,params=None):html=self.get_page(url,params)soup=BeautifulSoup(html,'html.parser')lis=soup.find('ul',{'class':{'search-result-list'}})('li')for li in lis:title=li.find('div',{'class':{'position title'}})('a')[0].text.strip()link='http://www.job910.com'+li.find('div',{'class':{'position title'}})('a')[0]['href']area=li.find('div',{'class':{'area title2'}}).text.strip()salary=li.find('div',{'class':{'salary title'}}).text.strip()company=li.find('a',{'class':{'com title adclick'}}).text.strip()update_time=li.find('div',{'class':{'time title2'}}).text.strip()exp_title=li.find('div',{'class':{'exp title2'}}).text.strip()#print(title,link,area,salary,company,update_time,exp_title)filename_dict={10:'幼儿园.csv',11:'中小学.csv',13:'职业院校.csv',19:'外语培训.csv'}filename=filename_dict[self.funtype]#保存到csv文件【方法1】with open(filename,'a+',encoding='utf8',newline="")as csv_f:csv_write=csv.writer(csv_f)if os.path.getsize(filename)==0:csv_write.writerow(['title','link','area','salary','company','update_time','exp_title'])csv_write.writerow([title,link,area,salary,company,update_time,exp_title])print('{}-successfully'.format(title))"""#保存到csv文件 ---->使用pandas保存数据info={'title':[title],'link':[link],'area':[area],'salary':[salary],'company':[company],'update_time':[update_time],'exp_title':[exp_title]}data=pd.DataFrame(info)data.to_csv(filename,index=False,mode='a+',header=self.flag)self.flag=False  #之后csv文件就不加标题"""def main(self):for i in range(1,self.pageIndex+1):try:print('开始爬取第{}页'.format(i))params={'funtype':self.funtype,'keyword':self.keyword,'pageSize':self.pageSize,'pageIndex':i}self.parse_page(self.base_url,params)except:print('爬取第{}页失败'.format(i))continuejob_yey=Job910(10,19)   #幼儿园的英语老师
job_yey.main()job_zxx=Job910(11,472)   #中小学的英语老师
job_zxx.main()job_zyyx=Job910(13,2)   #职业院校的英语老师
job_zyyx.main()job_wypx=Job910(19,53)   #外语培训的英语老师
job_wypx.main()

数据保存在:幼儿园.csv、中小学.csv、外语培训.csv、职业院校.csv

二、数据分析【对比英语外教和中国教师招聘信息(薪资、经验、学历.....)】

采用:Jupyter notebook代码,对招聘进行分析

导入的基础库:

import re
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
plt.style.use('ggplot')
from pylab import mpl
mpl.rcParams['font.sans-serif']=['SimHei']  #解决seaborn中文字体显示问题
plt.rc('figure',figsize=(10,10))  #把plt默认的图片size调大一点
plt.rcParams['figure.dpi']=mpl.rcParams['axes.unicode_minus']=False
%matplotlib inline

导入数据:

data_yey=pd.read_csv('幼儿园.csv')
data_zxx=pd.read_csv('中小学.csv')
data_zyyx=pd.read_csv('职业院校.csv')
data_wypx=pd.read_csv('外语培训.csv')
data_jlc=pd.read_csv('jobleadchina.csv')
#把来自万行教师的四个数据集组合成一个DataFrame
data_yey['type']='幼儿园'
data_zxx['type']='中小学'
data_zyyx['type']='职业院校'
data_wypx['type']='外语培训'
data_wx=pd.concat([data_yey,data_zxx,data_zyyx,data_wypx])
data_wx.shape  #(11103, 8)

数据清洗:

(1)对来自万兴教师的数据进行清洗:省份、城市、经验、学历、工资

#清洗出省份、城市
#data_wx['area'].head(5)  省-市-区  或  省-市
data_wx['province']=data_wx['area'].str.split('-',expand=True)[0]  #省
data_wx['city']=data_wx['area'].str.split('-',expand=True)[1]  #市
#把北京、天津、上海、重庆的城市改为原来的名字
data_wx.loc[data_wx['province']=='北京','city']='北京'
data_wx.loc[data_wx['province']=='天津','city']='天津'
data_wx.loc[data_wx['province']=='上海','city']='上海'
data_wx.loc[data_wx['province']=='重庆','city']='重庆'
#清洗出经验、学历
#data_wx['exp_title].head(5)  经验/学历  应届毕业生/大专以上
data_wx['exp']=data_wx['exp_title'].str.split('/',expand=True)[0]  #经验
data_wx['degree']=data_wx['exp_title'].str.split('/',expand=True)[1]  #学历data_wx['exp'].unique()
"""
array([ '在读学生', '应届毕业生','不限', '一年以上', '两年以上', '三年以上', '四年以上','五年以上','六年以上', '七年以上', '八年以上',  '九年以上','十年以上'], dtype=object)
"""
exp_map={'在读学生':'经验不限','应届毕业生':'经验不限','不限':'经验不限','一年以上':'一到三年','两年以上':'一到三年','三年以上':'三到五年','四年以上':'三到五年','五年以上':'五到十年','六年以上':'五到十年','七年以上':'五到十年','八年以上':'五到十年','九年以上':'五到十年','十年以上':'十年以上'}
data_wx['exp']=data_wx['exp'].map(exp_map)
data_wx['exp'].unique()
#array(['经验不限', '一到三年', '三到五年', '五到十年', '十年以上'], dtype=object)data_wx['degree'].unique()
"""
array(['大专', '大学本科以上', '大专以上', '不限', '中专以上', '大学本科', '不限以上', '硕士', '硕士以上','高中以上', '职高 ', '中专'], dtype=object)
"""
degree_map={'大专':'大专','大学本科以上':'本科','大专以上':'大专','不限':'学历不限','中专以上':'中专','大学本科':'本科','不限以上':'学历不限','硕士':'硕士','硕士以上':'硕士','高中以上':'高中','职高':'高中','中专':'中专'}
data_wx['degree']=data_wx['degree'].map(degree_map)
data_wx['degree'].unique()
#array(['大专', '本科', '学历不限', '中专', '硕士', '高中', nan], dtype=object)
#清洗出工资
#data_wx['salary'].sample(5)  #6K-8K/月   5W-8W/年   面议   '享公办教师薪资待遇'
def get_salary(data):pat_K=r"(.*?)K-(.*?)K"pat_W=r"(.*?)W-(.*?)W"pat=r"(.*?)-(.*?)/"if '面议' in data:return np.nanelif '享公办教师薪资待遇' in data:return np.nanelif 'K' in data and '月' in data:low,high=re.findall(pattern=pat_K,string=data)[0]return (float(low)+float(high))/2elif 'W' in data and '年' in data:low,high=re.findall(pattern=pat_W,string=data)[0]return (float(low)+float(high))/2else:low,high=re.findall(pattern=pat,string=data)[0]return (float(low)+float(high))/2
data_wx['salary_clean']=data_wx['salary'].apply(get_salary)
data_wx['salary_clean']=np.round(data_wx['salary_clean'],1)data_wx=data_wx.drop(columns=['area','exp_title','salary'])
data_wx.drop(data_wx[data_wx['salary_clean']>40].index,inplace=True)
data_wx.columns
"""
Index(['title', 'link', 'company', 'update_time', 'type', 'province', 'city','exp', 'degree', 'salary_clean'],dtype='object')
"""

(2)对来JobLeadChina数据进行清洗:exp_title和salary

#清洗出 exp_title
#data_jlc['exp_title']  #Experience: Executive
data_jlc['exp_title_clean']=data_jlc['exp_title'].str.split(': ',expand=True)[1]
data_jlc['exp_title_clean'].unique()
"""
array(['Executive', 'Mid-Senior Level', 'Entry Level', 'Internship','Associate', 'Director'], dtype=object)
"""
#清洗出 salary
#data_jlc['salary'].unique()   16K/MTH - 22K/MTH
def get_salary_jlc(data):pat_jlc=r"(.*?)K/MTH - (.*?)K/MTH"if "00" in data:low,high=re.findall(pattern=pat_jlc,string=data)[0]return (float(low)+float(high))/2/1000else:low,high=re.findall(pattern=pat_jlc,string=data)[0]return (float(low)+float(high))/2
data_jlc['salary_clean']=data_jlc['salary'].apply(get_salary_jlc)
data_jlc=data_jlc.drop(columns=['exp_title','salary'])
data_jlc.columns
"""
Index(['area', 'com_type', 'company', 'education', 'link', 'title','update_time', 'exp_title_clean', 'salary_clean'],dtype='object')
"""

问题:

  • 洋外教的工资真的高吗?

  • 市场对于洋外教的经验和学历要求如何?

  • 哪些地区对洋外教的需求多?

  • 什么机构在招聘洋外教?

问题1:洋外教的工资真的很高吗?

data_wx['teacher_type']='中教'
data_jlc['teacher_type']='外教'
data_salary=pd.concat([data_wx[['salary_clean','teacher_type']],data_jlc[['salary_clean','teacher_type']]])
data_salary.rename(columns={'salary_clean':'工资','teacher_type':'教师类型'},inplace=True)  #更换名字
#画图
g=sns.FacetGrid(data_salary,row='教师类型',size=4,aspect=2,xlim=(0,30))
g.map(sns.distplot,'工资',rug=False)

e9feb0e575deda4ab8deed8a10018ec9f50.jpg

#洋外教的平均薪资
np.round(data_jlc['salary_clean'].mean(),1)  #16.1
#中国老师的平均薪资
np.round(data_wx['salary_clean'].mean(),1)  #8.1#中国老师根据城市划分平均工资  查看的是第15-20
np.round(data_wx.groupby('city')['salary_clean'].mean().sort_values()[15:20],1)
"""
city
驻马店    5.0
文昌市    5.2
秦皇岛    5.2
常德     5.2
邢台     5.3
Name: salary_clean, dtype: float64
"""#通过经验进行比较
#洋外教根据经验划分薪资
data_jlc['exp_title_clean'].unique()
"""
array(['Executive', 'Mid-Senior Level', 'Entry Level', 'Internship','Associate', 'Director'], dtype=object)
"""
data_jlc.loc[data_jlc['exp_title_clean']=='Associate','exp_title_clean']='Entry Level'  #修改元素
data_jlc['exp_title_clean'].unique()
"""
array(['Executive', 'Mid-Senior Level', 'Entry Level', 'Internship','Director'], dtype=object)
"""
np.round(data_jlc.groupby('exp_title_clean')['salary_clean'].mean(),1)
"""
exp_title_clean
Director            21.5
Entry Level         15.9
Executive           16.8
Internship          15.8
Mid-Senior Level    16.2
Name: salary_clean, dtype: float64
"""
#中国老师根据经验划分薪资
np.round(data_wx.groupby('exp')['salary_clean'].mean(),1)
"""
exp
一到三年     7.8
三到五年    10.8
五到十年    16.2
十年以上    18.2
经验不限     7.6
Name: salary_clean, dtype: float64
"""

#绘制Bar图:不同经验的英语外教和中国教师的薪资对比
from pyecharts import Bar
attr=['经验不限\nInternship','一到三年\nEntry Level','三到五年\nExecutive','五到十年\nMid-Senior','十年以上\nDirector']
value1=[15.8,15.9,16.8,16.2,21.5] #外教按照经验的平均薪资
value2=[7.6,7.8,10.8,16.2,18.2]  #中国教师按照经验的平均薪资
bar=Bar('不同工作经验的外教与中国教师工资对比',width=800,height=500)
bar.add('外教',attr,value1,xaxis_label_textsize=18,legend_top=30,yaxis_label_textsize=20,is_label_show=True)
bar.add('中教',attr,value2,xaxis_label_textsize=18,legend_top=30,yaxis_label_textsize=20,is_label_show=True)
bar.render('不同工作经验的外交和中国教师工资对比.html')

85a7439e059358a483dbc96853fd5c7af01.jpg

#通过学历进行比较
#外教根据学历划分薪资
np.round(data_jlc.groupby('education')['salary_clean'].mean(),1)
"""
education
Any education    14.4
Associate        13.3
Bachelor         16.7
Master           21.6
Name: salary_clean, dtype: float64
"""
#中国教师按照学历划分薪资
data_wx.loc[data_wx['degree']=='中专','degree']='高中'
np.round(data_wx.groupby('degree')['salary_clean'].mean(),1)
"""
degree
大专       6.6
学历不限     7.3
本科       8.8
硕士      12.9
高中       4.8
Name: salary_clean, dtype: float64
"""
#绘制Bar图:根据学历绘制外教和中国教师的薪资对比
attr=['学历不限\nAny education','高中','大专\nAssociate','本科\nBachelor','硕士\nMaster']
value1=[14.4,np.nan,13.3,16.7,21.6]  #外教基于学历的薪资
value2=[7.3,4.2,6.6,8.8,12.9]  #中国教师基于学历的薪资
bar=Bar('不同学历的外教与中国教师薪资对比',width=800,height=500)
bar.add('外教',attr,value1,xaxis_label_textsize=15,legend_top=30,yaxis_label_textsize=20,is_label_show=True)
bar.add('中教',attr,value2,xaxis_label_textsize=15,legend_top=30,yaxis_label_textsize=20,is_label_show=True)
bar.render('不同学历的外教与中国教师薪资对比.html')

a7f75e64483eb9c21ffea5c07e9149724b9.jpg

问题2:市场对于洋外教的经验和学历要求如何?

#外教基于经验的百分比分布
exp_demand=np.round(data_jlc['exp_title_clean'].value_counts()/data_jlc['exp_title_clean'].value_counts().sum()*100,1)
exp_demand
"""
Entry Level         67.6
Mid-Senior Level    22.1
Executive            6.9
Internship           1.9
Director             1.6
Name: exp_title_clean, dtype: float64
"""
#外教基于经验的饼状图分布
from pyecharts import Pie
pie=Pie(title='不同经验外教需求百分比%')
pie.add("",['入门','中高级','管理','实习','主任'],exp_demand.values,is_label_show=True)
pie.render('不同经验外教需求百分比.html')#外教基于学历的百分比分布
education_demand=np.round(data_jlc['education'].value_counts()/data_jlc['education'].value_counts().sum()*100,1)
education_demand
"""
Bachelor         75.1
Any education    22.9
Associate         1.4
Master            0.7
Name: education, dtype: float64
"""
#外焦急与学历的饼状分布
pie=Pie(title='不同学历外教需求百分比%')
pie.add("",['本科','学历不限','社区大学','硕士'],education_demand.values,is_label_show=True)
pie.render('不同学历外教需求百分比.html')

6275c14894d0eb8b627a26e434b39d51703.jpg

c8f285e94908cc498fa63638d529c564ff8.jpg

问题3:哪些地区对洋外教的需求多?

#对外教需求前10的城市    【取的是11个,有一个Others,将其剔除】
area_demand=data_jlc['area'].value_counts().nlargest(11).drop('Others')  
area_demand
"""
Beijing      527
Shanghai     121
Hangzhou     100
Shenzhen      63
Guangzhou     51
Wuhan         31
Chengdu       26
Chongqing     24
Nanjing       19
Qingdao       17
Name: area, dtype: int64
"""
#绘图
bar=Bar('外教需求前10城市排名',width=800,height=500)
city10=['北京','上海','杭州','深圳','广州','武汉','成都','重庆','南京','青岛']
bar.add('',city10,area_demand.values,xaxis_label_textsize=20,yaxis_label_textsize=20,is_label_show=True)
bar.render('外教需求前10城市排名.html')

dd3c97c5cdfc24c734ff6a8702837890d72.jpg

#外教前10城市的平均薪资
salary_clean=np.round(data_jlc.groupby('area')['salary_clean'].mean()[area_demand.index],1)
salary_clean
"""
Beijing      16.8
Shanghai     16.8
Hangzhou     15.5
Shenzhen     17.8
Guangzhou    16.5
Wuhan        16.1
Chengdu      17.1
Chongqing    12.8
Nanjing      12.8
Qingdao      16.7
Name: salary_clean, dtype: float64
"""
#中国教师对应城市(外键前10的城市)的平均薪资
np.round(data_wx[data_wx['city'].isin(city10)].groupby('city')['salary_clean'].mean(),1)
"""
city
上海    9.2
北京    9.7
南京    8.1
广州    8.1
成都    7.2
杭州    8.5
武汉    6.8
深圳    8.8
重庆    6.8
青岛    7.2
Name: salary_clean, dtype: float64
"""
#绘图:对于外教需求前10的外教和中国教师的平均薪资
bar=Bar('对外教需求前10城市的外教和中国教师的平均薪资',width=800,height=500)
bar.add('外教',city10,salary_clean.values,xaxis_label_textsize=18,yaxis_label_textsize=20,is_label_show=True)
bar.add('中教',city10,[9.7,9.2,8.5,8.8,8.1,3.8,7.2,6.8,8.1,7.2])
bar.render('对外教需求前10城市的外教和中国教师的平均薪资.html')

46a098881e459f93df4adfd1597fcbf1b5d.jpg

问题4:什么机构在招洋外教?

#对外教需求前5的公司类型
com_type_demand=data_jlc['com_type'].value_counts().nlargest(5)
com_type_demand
"""
Teaching Center            678
School                     340
Others                     104
Consultancy/Legal/Admin     69
Outsourcing                 13
Name: com_type, dtype: int64
"""
bar=Bar('对外教需求排名前5的单位类型',width=800,height=500)
bar.add('',['培训机构','学校','其他','资讯机构','外包机构'],com_type_demand.values,xaxis_label_textsize=18,yaxis_label_textsize=20,is_label_show=True)
bar.render('对外教需求前5的单位类型.html')salary_com_type=np.round(data_jlc.groupby('com_type')['salary_clean'].mean()[com_type_demand.index],1)
salary_com_type
"""
Teaching Center            14.6
School                     18.5
Others                     18.0
Consultancy/Legal/Admin    18.8
Outsourcing                15.6
Name: salary_clean, dtype: float64
"""
bar=Bar('对外教需求排名前5的单位类型的外教平均薪资',width=800,height=500)
bar.add('',['培训机构','学校','其他','咨询机构','外包机构'],salary_com_type.values,xaxis_label_textsize=18,yaxis_label_textsize=20,is_label_show=True)
bar.render('对外教需求排名前5的单位类型的外教平均薪资.html')#Teacher Center 培训机构对外教学历的要求  百分比
np.round(data_jlc.loc[data_jlc['com_type']=='Teaching Center','education'].value_counts()/678*100,1)
"""
Bachelor         70.6
Any education    27.1
Associate         1.6
Master            0.6
Name: education, dtype: float64
"""
company=data_jlc['company'].value_counts().nlargest(50)
from pyecharts import WordCloud
wordcloud=WordCloud(width=800,height=500)
wordcloud.add('',company.index,company.values,word_size_range=[20,100])
wordcloud.render('外教公司的词云展示.html')

947eb5188cdf090f5c123605ab773df0c59.jpg

0f64e7a1d4f8703e0101e9f311ede828743.jpg

801fd57e5e46ca66a71341ee6acc2bf6cd8.jpg

转载于:https://my.oschina.net/pansy0425/blog/3102818

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/11499.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

建议所有教英语的教师,狠狠的用这好东西‼️

新教师上英语课沉闷无聊,学生提不起学习兴趣?可以在课件中下功夫,各种外语配音应有尽有,让你的英语课堂生动有趣,学生从心里爱上英语! 另外各位老师们有时候上公开课 不满足于课本的音频 想要新建一个录音…

英语老师自用省心天花板小程序

英语老师复工几天了!今天来分享款英语老师都爱的天花板级别小程序,亲测实用,自用省 心!! 【101教育PPT】 老师教学都要提前备课,相对其他学科,英语老师找资料要较难一些,这款小程序里…

程序员怎么使用chatgpt提升工作效率?

对于程序员来说,大家想必都习惯了通过 ChatGPT 来生成代码,然后自己手动稍加调整,这样能在极短的时间内得到可以运行的代码。除了这种最常规的操作之外,本文想分享一些笔者在日常工作中是如何使用 ChatGPT 等 AI 工具提高自己工作…

chatgpt赋能python:Python为什么运行不出来?

Python为什么运行不出来? Python是一门高级编程语言,被广泛应用于科学计算、机器学习、Web开发等领域。但是,有时候我们在编写Python程序的过程中会遇到各种各样的问题,其中之一就是程序无法运行。那么,Python为什么会…

基于ChatGPT实现电影推荐小程序!

ChatGPT是 “美国AI梦工厂”OpenAI 开发的人工智能聊天机器人,让撰写邮件、论文、脚本,制定商业提案,创作诗歌、故事,甚至敲代码、检查程序错误都变得易如反掌。很多网友都感叹“只有你想不到,没有它做不到“。 OpenA…

chatGPT人工智能对话H5小程序openai写作论文毕业论文付费问答3.5接口源码分销好友fenx

ChatGPT最强人工智能对话模型 ChatGPT为你服务: 1. 知乎百度答题、做作业题目 2. 写代码、写文案、写论文,写小说 3. 文案润色、翻译、写诗作词 4. 扮演面试官、扮演书籍电影角色 5. 陪聊倾诉、解忧、讲故事. 6. 项目判断,资源寻找&am…

如何利用 ChatGPT 去快速了解一个行业?附案例实操

ChatGPT狂飙160天,世界已经不是之前的样子。 新建了人工智能中文站https://ai.weoknow.com 每天给大家更新可用的国内可用chatGPT资源 如何最近开始研究 AI 在各个行业下的应用。 都知道行研三部曲:第一步,首先不要开黄腔;第二步…

ChatGPT神奇用法:定点周边景点推荐,Get私人导游!

正文共 607字,阅读大约需要 3 分钟 周末游爱好人群必备技巧,您将在3分钟后获得以下超能力: 1.个人定制化旅行 2.轻松完成私人攻略 Beezy评级:B级 *经过简单的寻找, 大部分人能立刻掌握。主要节省时间。 推荐人 |Adam 编…

ChatGPT实现旅行安排

工作之余,出门旅行一趟放松放松身心,是对自己辛勤工作最好的犒劳方式之一。旅行可以近郊游、可以远游,可以穷游,可以自驾游,可以一言不合打飞的喂鸽子,方式多种多样。但是多数情况,我们是到一个…

充满可能的新一代辅助编程神器:Cursor

随着技术的不断进步,人工智能已经逐渐成为了编程领域中不可或缺的一部分。而今天我们要为大家介绍的,就是一款基于 GPT4 智能引擎,由 OpenAI 开发出来的全新辅助编程神器 — Cursor。 1、Cursor 编辑器 Cursor 作为一款智能代码编辑器&#x…

讯飞星火大模型体验报告

近日,科大讯飞召开了星火认知大模型成果发布会,会上表示讯飞星火大模型将突破开放式问答,对标ChatGPT,在中文能力上超过ChatGPT,在英文能力上与ChatGPT相当。对此,你怎么看? 笔者准备给bing/ch…

使用GPT-3训练一个垃圾短信分类器

平时我们都会收到很多短信,由于微信等即时通讯工具的普及,短信已经成为了一个验证码接收器,但是偶尔也有不少垃圾短信,所以对短信进行分类和屏蔽是一个很简单又很重要的需求。 目前在AppStroe上有很多实现短信分类的App&#xff…

利用ChatMe写一个简易的贪吃蛇小游戏 (有效可用)

前序:前一段时间在都以上看到国内利用ChatGpt 3 做了一个手机软件,今天休息没事就用了一下,看看有没有什么有意思的事情,于是就利用他做了一个贪吃蛇的网页小游戏 有想了解ChatMe的朋友可以通过链接看一下他的抖音账号&#xff1a…

最新ChatGPT商业网站源码+支持ChatGPT4.0+新增GPT联网功能+支持ai绘画+实时语音识别输入+用户会员套餐

最新ChatGPT商业网站源码支持ChatGPT4.0新增GPT联网功能支持ai绘画实时语音识别输入用户会员套餐 一、AI创作系统二、系统程序下载三、系统介绍四、安装教程五、主要功能展示六、更新日志 一、AI创作系统 提问:程序已经支持GPT3.5、GPT4.0接口、支持新建会话&#…

如何有效的向 AI 提问 ?

文章目录 〇、导言一、Base LLM 与 Instruction Tuned LLM二、如何提出有效的问题 ?1. 明确问题:2. 简明扼要:3. 避免二义性:4. 避免绝对化的问题:5. 利用引导词:6. 检查语法和拼写:7. 追问细节…

邮政绿卡系统中的SAN存储系统建设

邮政绿卡系统中的SAN存储系统建设

美国绿卡

美国的绿卡正式称谓是“Permanent Resident Card(永久居留卡)”,也叫I-551,上面记录了持卡人的照片、指纹、姓名等资料,可以通过申请获得,申请人通常需要在美国有固定工作或配偶子女在美国定居。申请成功将…

刚刚和ChatGPT聊了聊隐私计算

开放隐私计算 ChatGPT最近太火了,作为一个背后有庞大数据支撑,而且还在不断进化的人工智能,每个人都想和它聊一聊。 我们也不例外,于是刚刚和它聊了聊隐私计算那些事儿。 先来几个行业问题,毕竟它背后有所有行业新闻、…

chatgpt赋能python:用Python实现数据本地存储

用Python实现数据本地存储 Python是一种非常强大的动态编程语言,其运行速度快,灵活性强,能够快速编写出简洁的代码,而且非常适合数据处理方面的应用。 在现实世界中,数据经常被采集和处理,我们需要把数据…

GhostWriter:Windows桌面端笔记、文档离线管理应用【已开源】

GhostWriter 说明 Ghost Writer 是一款参照 觅道(MrDoc) 开发的个人笔记、文档离线管理应用。 是一个纯前端项目,使用了sqlite本地数据库,除自行编辑使用到的外部图片、外部视频、外部链接等资源、以及OCR识别接口外,注册、登录、编辑等功…