python爬虫实战-抓取同花顺股票信息

前言:

     在之前介绍requests的基础上,现在开始进行实战。

    目标网站:http://q.10jqka.com.cn//index/index/board/all/field/zdf/order/desc/page/

一  涉及到的技术点:

                         (1)requests: 用于网页请求

                          (2)beautifulsoup:用于提取数据

                           (3)urllib.parse:用于拼接url

                            (4)cvs:用于保存结果

二 数据结构分析:

首先看下要抓取的数据的外观:

点击下一页发现在搜索框中的url并未发生变化,这个时候可以猜想,其数据加载的方式采用的ajax加载的方式,因此,右键—>“查看元素”,点击网络—>消息头,如下图:

可以发现第二页的url为:http://q.10jqka.com.cn/index/index/board/all/field/zdf/order/desc/page/2/ajax/1/

点击下一页,可以发现第三页的url为:http://q.10jqka.com.cn/index/index/board/all/field/zdf/order/desc/page/3/ajax/1/

从上面可以看出,不同页面的url的区别在于page后面的数字,可以再多看几个页面来验证这个猜想。

通过上面的分析,可以得出数据是通过ajax的方式加载出来的。接下来查看通过ajax加载的数据格式是什么样的。

点击 网络下面的响应,可以看到响应载荷,如下图:

通过url获取到部分数据如下:

<table class="m-table m-pager-table"><thead><tr><th style="width:4%">序号</th><th style="width:6%">代码</th><th style="width:8%">名称</th><th style="width:6%" ><a href="javascript:void(0)" field="xj" >现价<i></i></a></th><th style="width:8%"  class="cur"><a href="javascript:void(0)" field="zdf" order="desc"  class="desc">涨跌幅(%)<i></i></a></th><th style="width:6%" ><a href="javascript:void(0)" field="zd" >涨跌<i></i></a></th><th style="width:8%" ><a href="javascript:void(0)" field="zs" >涨速(%)<i></i></a></th><th style="width:8%" ><a href="javascript:void(0)" field="hs" >换手(%)<i></i></a></th><th style="width:6%" ><a href="javascript:void(0)" field="lb" >量比<i></i></a></th><th style="width:6%" ><a href="javascript:void(0)" field="zf" >振幅(%)<i></i></a></th><th style="width:7%" ><a href="javascript:void(0)" field="cje" >成交额<i></i></a></th><th style="width:8%" ><a href="javascript:void(0)" field="ltg" >流通股<i></i></a></th><th style="width:8%" ><a href="javascript:void(0)" field="ltsz" >流通市值<i></i></a></th><th style="width:7%" ><a href="javascript:void(0)" field="syl" >市盈率<i></i></a></th><!--th>概念题材</th--><th style="width:4%">加自选</th></tr></thead><tbody><tr><td>41</td><td><a href="http://stockpage.10jqka.com.cn/603718/" target="_blank">603718</a></td><td><a href="http://stockpage.10jqka.com.cn/603718/" target="_blank">海利生物</a></td><td class="c-rise">13.53</td><td class="c-rise">6.28</td><td class="c-rise">0.80</td><td class="c-fall">-0.15</td><td>1.53</td><td class="c-rise">1.75</td><td class="c-rise">7.86</td><td>1.32亿</td><td>6.44亿</td><td>87.13亿</td><td>140.56</td><td><a class="j_addStock" title="加自选" href="javascript:void(0);"><img src="http://i.thsi.cn/images/q/plus_logo.png" alt=""></a></td></tr><tr><td>42</td><td><a href="http://stockpage.10jqka.com.cn/002331/" target="_blank">002331</a></td><td><a href="http://stockpage.10jqka.com.cn/002331/" target="_blank">皖通科技</a></td><td class="c-rise">9.15</td><td class="c-rise">6.15</td><td class="c-rise">0.53</td><td class="">--</td><td>2.66</td><td class="c-rise">1.51</td><td class="c-rise">6.15</td><td>7247.43万</td><td>3.03亿</td><td>27.75亿</td><td>41.17</td><td><a class="j_addStock" title="加自选" href="javascript:void(0);"><img src="http://i.thsi.cn/images/q/plus_logo.png" alt=""></a></td></tr>

可以看到其数据都是包含在html的标签中。一个<tr>标签包含一个股票信息。

至此,数据分析部分已经完成。

 

三 需求分析及模块划分

同花顺股票网站具有很好的反扒能力,因此,需要增加一部分功能来应对这部分问题。在简单怕爬虫的基础上需要增加,改变请求头和增加代理的功能,因此整个函数的模块划分如下:

(1)代理获取模块

(2)url构建模块

(3)失败无限尝试模块

(4)下载模块

(5)解析及存储模块

(6)配置模块

 

四 模块设计

4.1 代理获取模块

代码如下:

 def proxy_get(self, num_retries=2):"""#代理获取模块"""try:r_proxy = requests.get(self.PROXY_POOL_API, timeout = 5)proxy = r_proxy.text    #指定代理print("代理是", proxy)proxies = {"http": 'http://' + proxy,"https": 'https://' + proxy,}return proxiesexcept:if num_retries > 0:print("代理获取失败,重新获取")
self.proxy_get(num_retries-1)

为了防止网络状况不佳等其他原因导致获取代理失败,增加了超时等待和失败重试功能

 

4.2  url 构建模块

    在前文分析的基础上,得到不同页面的url的区别是数字这的不同,因此这部分的代码如下:

def url_yield(self):""":func 用于生成url:yield items"""for i in range(1, self.MAX_PAGE + 1 ):self.PAGE_TRACK = i         #页面追踪self.FLAG += 1              #每次加1print('FLAG 是:', self.FLAG)url = "{}{}{}".format(self.URL_START, i, self.PARAMS) yield url

使用yield函数,每次只返回一个url

 

4.3 失败无限尝试模块

将抓取失败的url,再次进行抓取

def url_omi(self):print("开始补漏")length_pl = len(self.PAGE_LIST) if length_pl != 0:          #判断是否为空for i in range(length_pl):self.PAGE_TRACK = self.PAGE_LIST.pop(0)                  #构造一个动态列表, 弹出第一个元素url = "{}{}{}".format(self.URL_START, self.PAGE_TRACK, self.PARAMS) yield url

4.4 下载模块

包含更换请求头,失败重试功能和代理是否变更的功能。

 def downloader(self, url, num_retries=3):if self.proxy_con == 0:proxies = self.proxy_get()  #获取代理else:proxies = self.proxy_save   #继续使用代理self.proxy_save = proxies       #更换代理值headers_list = [{'Accept': 'text/html, */*; q=0.01','Accept-Encoding': 'gzip, deflate, sdch','Accept-Language': 'zh-CN,zh;q=0.8','Connection': 'keep-alive','Cookie':'log=; Hm_lvt_78c58f01938e4d85eaf619eae71b4ed1=1533992361,1533998469,1533998895,1533998953; Hm_lpvt_78c58f01938e4d85eaf619eae71b4ed1=1533998953; user=MDrAz9H9akQ6Ok5vbmU6NTAwOjQ2OTU0MjIzNDo3LDExMTExMTExMTExLDQwOzQ0LDExLDQwOzYsMSw0MDs1LDEsNDA7MSwxLDQwOzIsMSw0MDszLDEsNDA7NSwxLDQwOzgsMDAwMDAwMDAwMDAwMDAwMDAwMDAwMDEsNDA6Ojo6NDU5NTQyMjM0OjE1MzM5OTkwNzU6OjoxNTMzOTk5MDYwOjg2NDAwOjA6MTZmOGFjOTgwMGNhMjFjZjRkMWZlMjk0NDQ4M2FhNDFkOmRlZmF1bHRfMjox; userid=459542234; u_name=%C0%CF%D1%FDjD; escapename=%25u8001%25u5996jD; ticket=7c92fb758f81dfa4399d0983f7ee5e53; v=Ajz6VIblS6HlDX_9PqmhBV0QDdH4NeBfYtn0Ixa9SCcK4daNPkWw77LpxLZl','hexin-v': 'AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp','Host': 'q.10jqka.com.cn','Referer': 'http://q.10jqka.com.cn/','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36',},{'Accept': 'text/html, */*; q=0.01', 'Accept-Encoding': 'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive', 'Cookie': 'user=MDq62tH9NUU6Ok5vbmU6NTAwOjQ2OTU0MjA4MDo3LDExMTExMTExMTExLDQwOzQ0LDExLDQwOzYsMSw0MDs1LDEsNDA7MSwxLDQwOzIsMSw0MDszLDEsNDA7NSwxLDQwOzgsMDAwMDAwMDAwMDAwMDAwMDAwMDAwMDEsNDA6Ojo6NDU5NTQyMDgwOjE1MzM5OTg4OTc6OjoxNTMzOTk4ODgwOjg2NDAwOjA6MTEwOTNhMzBkNTAxMWFlOTg0OWM1MzVjODA2NjQyMThmOmRlZmF1bHRfMjox; userid=459542080; u_name=%BA%DA%D1%FD5E; escapename=%25u9ed1%25u59965E; ticket=658289e5730da881ef99b521b65da6af; log=; Hm_lvt_78c58f01938e4d85eaf619eae71b4ed1=1533992361,1533998469,1533998895,1533998953; Hm_lpvt_78c58f01938e4d85eaf619eae71b4ed1=1533998953; v=AibgksC3Qd-feBV7t0kbK7PCd5e-B2rBPEueJRDPEskkk8xLeJe60Qzb7jDj', 'hexin-v': 'AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp', 'Host': 'q.10jqka.com.cn', 'Referer': 'http://q.10jqka.com.cn/', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36', },{'Accept': 'text/html, */*; q=0.01', 'Accept-Encoding': 'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive', 'Cookie': 'user=MDq62sm9wM%2FR%2FVk6Ok5vbmU6NTAwOjQ2OTU0MTY4MTo3LDExMTExMTExMTExLDQwOzQ0LDExLDQwOzYsMSw0MDs1LDEsNDA7MSwxLDQwOzIsMSw0MDszLDEsNDA7NSwxLDQwOzgsMDAwMDAwMDAwMDAwMDAwMDAwMDAwMDEsNDA6Ojo6NDU5NTQxNjgxOjE1MzM5OTg0NjI6OjoxNTMzOTk4NDYwOjg2NDAwOjA6MTAwNjE5YWExNjc2NDQ2MGE3ZGYxYjgxNDZlNzY3ODIwOmRlZmF1bHRfMjox; userid=459541681; u_name=%BA%DA%C9%BD%C0%CF%D1%FDY; escapename=%25u9ed1%25u5c71%25u8001%25u5996Y; ticket=4def626a5a60cc1d998231d7730d2947; log=; Hm_lvt_78c58f01938e4d85eaf619eae71b4ed1=1533992361,1533998469; Hm_lpvt_78c58f01938e4d85eaf619eae71b4ed1=1533998496; v=AvYwAjBHsS9PCEXLZexL20PSRyfuFzpQjFtutWDf4ll0o5zbyKeKYVzrvsAz', 'hexin-v': 'AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp', 'Host': 'q.10jqka.com.cn', 'Referer': 'http://q.10jqka.com.cn/', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36', 'X-Requested-With': 'XMLHttpRequest'},{'Accept': 'text/html, */*; q=0.01', 'Accept-Encoding': 'gzip, deflate, sdch', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Connection': 'keep-alive', 'Cookie': 'Hm_lvt_78c58f01938e4d85eaf619eae71b4ed1=1533992361; Hm_lpvt_78c58f01938e4d85eaf619eae71b4ed1=1533992361; user=MDq62sm9SnpsOjpOb25lOjUwMDo0Njk1NDE0MTM6NywxMTExMTExMTExMSw0MDs0NCwxMSw0MDs2LDEsNDA7NSwxLDQwOzEsMSw0MDsyLDEsNDA7MywxLDQwOzUsMSw0MDs4LDAwMDAwMDAwMDAwMDAwMDAwMDAwMDAxLDQwOjo6OjQ1OTU0MTQxMzoxNTMzOTk4MjA5Ojo6MTUzMzk5ODE2MDo4NjQwMDowOjFlYTE2YTBjYTU4MGNmYmJlZWJmZWExODQ3ODRjOTAxNDpkZWZhdWx0XzI6MQ%3D%3D; userid=459541413; u_name=%BA%DA%C9%BDJzl; escapename=%25u9ed1%25u5c71Jzl; ticket=b909a4542156f3781a86b8aaefce3007; v=ApheKMKxdxX9FluRdtjNUdGcac08gfwLXuXQj9KJ5FOGbTKxepHMm671oBoh', 'hexin-v': 'AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp', 'Host': 'q.10jqka.com.cn', 'Referer': 'http://q.10jqka.com.cn/', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36', 'X-Requested-With': 'XMLHttpRequest'},]try:time.sleep(random.random()*5)   #设置延时headers = random.choice(headers_list)r = requests.get(url, headers = headers, proxies=proxies, timeout=4)except:if num_retries > 0:print("重新下载")self.proxy_con = 0  #更换代理self.downloader(url,num_retries-1)else:if not self.PAGE_TRACK in self.PAGE_LIST:    #首先应该判断 该页是否存在列表中,如果不存在, 则将其加入其中self.PAGE_LIST.append(self.PAGE_TRACK)   #将获取失败的url保存起来,后面再次循环利用,将元素添加在末尾,else:            return r.text

4.5 解析及存储模块

这部分用来进行解析并将结果存储到csv中

 def items_return(self):sys.setrecursionlimit(5000)count = 0while True:if self.FLAG < self.MAX_PAGE:url_list = self.url_yield()   #获取urlelse:url_list = self.url_omi()if len(PAGE_LIST) ==0:breakprint("执行到了获取模块")for url in url_list:html = self.downloader(url)#打印提示信息print('URL is:', url)items = {}   #建立一个空字典,用于信息存储try:                      soup = BeautifulSoup(html, 'lxml')for tr in soup.find('tbody').find_all('tr'):td_list = tr.find_all('td')items['代码'] = td_list[1].stringitems['名称'] = td_list[2].stringitems['现价'] = td_list[3].stringitems['涨跌幅'] = td_list[4].stringself.writer.writerow(items)print(items)print("保存成功")#如果保存成功,则继续使用代理self.proxy_con = 1#print("解析成功")#yield items          #将结果返回except:print("解析失败")#解析失败,则将代理换掉self.proxy_con = 0   #print(html)if not self.PAGE_TRACK in self.PAGE_LIST:self.PAGE_LIST.append(self.PAGE_TRACK)else:count += 1if count == 2:break

4.5 配置模块

为了方便项目的管理,可以将部分参数的配置放到一个setting.py文件中

#必要参数设置
MAX_PAGE = 165   #最大页数
PAGE_TRACK = 1   #追踪到了第几页
MAX_GET = 1      #获取最大尝试次数
MAX_PARSE = 1    #解析尝试最大次数
MAX_CSV = 1      #文件保存最大次数
MAX_PROXY =1     #获取代理的最大次数
MAX_START = 1    #MAX_*的初始值
MAX_TRY = 4      #最大尝试次数
FLAG = 0         #用于标识,是否使用 url_omi() 函数#初始链接
URL_START = "http://q.10jqka.com.cn//index/index/board/all/field/zdf/order/desc/page/"
PARAMS = "/ajax/1/"#第一次爬取的 html 缺失的页面 的url 列表
#先进先出的列表
PAGE_LIST = [] #代理池接口
PROXY_POOL_API = "http://127.0.0.1:5555/random"  headers = {'Accept': 'text/html, */*; q=0.01','Accept-Encoding': 'gzip, deflate, sdch','Accept-Language': 'zh-CN,zh;q=0.8','Connection': 'keep-alive','Cookie': 'spversion=20130314; __utma=156575163.1163133091.1530233537.1530289428.1530369413.3; __utmz=156575163.1530369413.3.3.utmcsr=stockpage.10jqka.com.cn|utmccn=(referral)|utmcmd=referral|utmcct=/; Hm_lvt_78c58f01938e4d85eaf619eae71b4ed1=1530444468,1530505958,1530506333,1530516152; Hm_lpvt_78c58f01938e4d85eaf619eae71b4ed1=1530516152; historystock=300033%7C*%7C1A0001; v=AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp','hexin-v': 'AiDRI3i0b1qEZNNemO_FOZlE8SXqKQQBpg9Y4Jox7pbOH8oZQjnUg_YdKIHp','Host': 'q.10jqka.com.cn','Referer': 'http://q.10jqka.com.cn/','User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36',
'X-Requested-With': 'XMLHttpRequest'}

至此,整个项目已经完成。

后记:

        源码获取可以关注公众号,发送“ths”即可获取下载链接。另外公众号还会介绍大数据的相关知识,如hadoop, flink, spark

等,欢迎关注。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/37207.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微信小程序登录面板切换不了账号,显示网络连接失败?

打开开发工具就会显示这个提示&#xff0c;无论我是点击确定还是取消&#xff0c;切换账号都显示网络连接失败~&#xff01;&#xff01;&#xff01;&#xff01;&#xff01;&#xff01; 我看了一些博客&#xff0c;说是选择直连代理。我试了&#xff0c;还是显示 网络连接…

wxpy 扫码登录微信报错 KeyError: pass_ticket(网页版微信登录失败)

使用wxpy开发微信聊天机器人&#xff0c;结果扫码登录后&#xff0c;提示&#xff1a; KeyError: pass_ticket解决方法&#xff1a;wxpy是根据网页版微信的接口封装的库。用wxpy&#xff0c;得去试试网页版微信&#xff08;https://wx.qq.com/&#xff09;看能否正常登录。 如…

pc端集成企业微信的扫码登录及遇到的问题

集成步骤&#xff1a; 1、在企业微信后台中添加应用 2、记录下应用的相关信息&#xff0c;在后文要用到 3、引入企业微信js 旧版&#xff1a;http://rescdn.qqmail.com/node/ww/wwopenmng/js/sso/wwLogin-1.0.0.js 新版&#xff08;20210803更新&#xff09;&#xff1a;http…

uniapp微信登录报错-100,login:fail [:-1]未能完成操作。(PGWXAPI错误-1。)

报内容&#xff1a; { “errMsg”: “login:fail [:-1]未能完成操作。&#xff08;PGWXAPI错误-1。&#xff09;,”, “errCode”: -100, “code”: -100 } 原因&#xff1a; 没有在manifest.json文件里面配置appsecret(微信开放平台申请移动应用之后会有个appsecret) 为什么没…

Android微信登录页面实现

利用Android实现微信手机端的登录页面&#xff0c;对于登录的输入做了一些的条件限制诸如&#xff0c;非空&#xff0c;长度限制等&#xff1b; 效果图如下&#xff1a; xml文件代码&#xff1a; <?xml version"1.0" encoding"utf-8"?> <Line…

分享一个基于GPT-3.5 Turbo的开源项目,界面简洁大气,反应速度快

今天在github又发现一个国内的大神开源的chatGPT项目。先看看整体的效果如何吧。 这个项目是基于OpenAI GPT-3.5 Turbo API 的demo。 本地部署 环境准备 安装node 由于该项目是使用node开发&#xff0c;所以&#xff0c;在部署之前先要安装好node环境。检查您的开发环境和部…

一款反应速度完全碾压chatgpt3.5turbo的软件 curor,直接运行

1、软件简介 Build Software. Fast.是一款可以在编辑器中使用 openAI GPT-4 模型编写的软件 官网地址&#xff1a;https://www.cursor.so/ 2.安装方法 不用安装直接运行exe3.使用方法 CTRLK(生成代码)CTRLL(对话功能)

OpenAI ChatGPT3.5-turbo实际解决问题能力评测

OpenAI ChatGPT3.5-turbo实际解决问题能力评测 ​ 程序员在coding的时候会经常遇到需要查阅资料的情况&#xff0c;最好的结果是直接能拿到一份好用的demo版本code&#xff0c;本次我们来评测&#xff1a;bing搜索和chatGPT3.5&#xff0c;解决实际问题&#xff1a;“html 图片…

程序员“摸鱼”神器,GitHub Copilot“凭本事”完全免费

上周Microsoft 365 Copilot的发布会上几段演示视频让朋友圈沸腾了一整天&#xff0c;颠覆&#xff0c;失业&#xff0c;工业革命刷屏&#xff0c;普遍的焦虑中有工作中重度依赖office的朋友表示如果功能都是真的&#xff0c;那么确实可以节约出很多时间摸鱼&#xff0c;但是立马…

AI人工智能时代真的到来了吗?

近一个月来&#xff0c;关于AI人工智能的话题此起彼伏&#xff0c;先有OpenAI发布GPT-4&#xff0c;后有百度推出文心一言&#xff0c;再有微软把GPT-4接入Office全家桶并命名为“Microsoft 365 Copilot”&#xff0c;除此之外&#xff0c;微软Bing还上线了AI绘图功能、谷歌开放…

文字生万物,AI极简史

AI 算法就像一个人类婴儿 哈罗德科恩花了 42 年把 AARON 铸成“另一半自己”。它是一段被画家造出来的计算机程序&#xff0c;或许也可以叫做 AI 系统。先是花了 20 年学会黑白简笔画&#xff0c;1995 年&#xff0c;它第一次表演上色&#xff0c;以一个庞大的机器模样&#xf…

WindTerm使用(暂停更新)

作为一个经常和代码以及服务器打交道的人&#xff0c;连接远程服务器所使用的工具肯定是越方便越好。目前&#xff0c;我使用的是xshell5和MobaXterm两个。Xshell最新的是7&#xff0c;破解版的我懒得去找&#xff0c;那xshell7免费使用一段时间后&#xff0c;就得付费&#xf…

【论文速递】ACM MM 2022 - 基于统一对比学习框架的新闻多媒体事件抽取

【论文速递】ACM MM 2022 - 基于统一对比学习框架的新闻多媒体事件抽取 【论文原文】&#xff1a;Multimedia Event Extraction From News With a Unified Contrastive Learning Framework 【作者信息】&#xff1a;Liu, Jian and Chen, Yufeng and Xu, Jinan 论文&#xff…

JoVE微生物组专刊征稿,写方法拍视频教程发SCI(宏基因组公众号专属福利)

JoVE 视频实验杂志 官网&#xff1a;https://www.jove.com/ 包括上万个实验和分析方法视频&#xff0c;还有几十个领域的数百个专业视频教程资源。 这个杂志被SCI收录了吗&#xff1f;必须的。杂志在Web of Science中JCR信息如下&#xff1a; 2年影响因子 1.1&#xff0c;5年影…

2020年, video captioning论文汇总

目录 CVPR2020&#xff1a;ORG-TRLCVPR2020&#xff1a;STG-KDTIP2020&#xff1a;OSTGTPAMI2020&#xff1a;SibNet&#xff08;MM2018&#xff09;WACV2020&#xff1a;DSDWACV2020&#xff1a;STaTS CVPR2020&#xff1a;ORG-TRL 题目 Object Relational Graph with Teache…

深度学习顶会论文投稿策略7步走(附资料)

科研论文&#xff0c;不同于毕业论文之处在于——科研论文是根据有价值的生产实践或科研课题写作的&#xff0c;具有原创性和独到性的论文。 在学术界&#xff0c;有人写论文是为了升硕士&#xff0c;升博士或者研究生博士顺利毕业。毕竟在学术界论文是工作和科研水平的直观体现…

最新最全论文合集——AAAI 历年最佳论文汇总

AMiner平台&#xff08;https://www.aminer.cn&#xff09;由清华大学计算机系研发&#xff0c;拥有我国完全自主知识产权。平台包含了超过2.3亿学术论文/专利和1.36亿学者的科技图谱&#xff0c;提供学者评价、专家发现、智能指派、学术地图等科技情报专业化服务。系统2006年上…

论文分享:2020小样本学习综述

目录 题目与文章脉络S1 介绍1.1 FSL1.2 FSL应用场景1.3 FSL术语定义 S2 概述2.1 定义&分类&应用2.2 相关机器学习问题2.3 FSL核心问题2.4 FSL方法分类2.5 FSL方法研究现状 S3 数据3.1 数据扩充方法3.2 数据扩充方法的GAP S4 模型4.1 模型选择方法4.2 模型选择方法的GAP…

MICCAI2019论文分享 PART①

刚刚结束的 MICCAI2019 会议的论文集分为6个部分&#xff0c;这段时间刷了一遍 Part I&#xff0c;在这儿和大家做一个简单的分享交流 由于本人主要专注于分割领域和半监督弱监督等学习策略&#xff0c;下面给出的综述可能多涉及该方向。选出的文章主要突出其中的闪光点&#…

写论文有哪些神网站?

来源&#xff1a;https://www.zhihu.com/question/35931336 编辑&#xff1a;深度学习与计算机视觉 声明&#xff1a;仅做学术分享&#xff0c;侵删 作者&#xff1a;匿名用户https://www.zhihu.com/question/35931336/answer/66552275 1.学术网站大全推荐理由&#xff1a;包含…