百度收录是中文网站获取流量的重要渠道。本文以我的网站,www.mnxz.fun(当然现在没啥流量) 为例,详细讲解从提交收录到自动化维护的全流程。
一、百度收录提交方法
1. 验证网站所有权
1、登录百度搜索资源平台
2、选择「用户中心」-「站点管理」添加网站
3、通过文件验证/HTML标签验证所有权。验证完成后会展示站点,点击一个站点进入收录界面
4.找到普通抓取,获取api地址,我用的普通收录,当然你也可以手动点击丰衣足食
2. 主动推送(推荐)
// 示例:Node.js主动推送脚本
const axios = require('axios');const urls = ['https://www.mnxz.fun/page1', 'https://www.mnxz.fun/page2'];const apiUrl = `http://data.zz.baidu.com/urls?site=https://www.mnxz.fun&token=YOUR_TOKEN`;axios.post(apiUrl, urls.join('\n'), {headers: { 'Content-Type': 'text/plain' }}).then(response => {console.log(`成功推送 ${response.data.success} 个链接`);}).catch(error => {console.error('推送失败:', error.message);});
二、网站添加自动推送代码
1. 自动推送JS代码
<script>
(function(){var bp = document.createElement('script');bp.src = '//push.zhanzhang.baidu.com/push.js';var s = document.getElementsByTagName("script")[0];s.parentNode.insertBefore(bp, s);
})();
</script>
2. Sitemap提交
Sitemap: https://www.mnxz.fun/sitemap.xml
三、设置定时自动推送
Linux定时任务(Crontab)
1、创建推送脚本 baidu_push.sh:
#!/bin/bash
# 获取最新文章URL
curl -s https://www.mnxz.fun/sitemap.xml | grep -Eo 'https?://[^<]+' > urls.txt
# 执行推送
curl -H 'Content-Type:text/plain' --data-binary @urls.txt "http://data.zz.baidu.com/urls?site=https://www.mnxz.fun&token=YOUR_TOKEN"
2.添加定时任务:
每天凌晨3点执行
0 3 * * * /path/to/baidu_push.sh >> /var/log/baidu_push.log 2>&1
四、Python自动化脚本示例
python
import requests
from xml.etree import ElementTree as ET
def baidu_submit():# 解析sitemap获取URLsitemap = requests.get('https://www.mnxz.fun/sitemap.xml')urls = [elem.text for elem in ET.fromstring(sitemap.content).iter('{http://www.sitemaps.org/schemas/sitemap/0.9}loc')]# 提交到百度api = 'http://data.zz.baidu.com/urls?site=https://www.mnxz.fun&token=YOUR_TOKEN'response = requests.post(api, data='\n'.join(urls))return response.json()
if __name__ == '__main__':result = baidu_submit()print(f"成功提交:{result.get('success', 0)}条")
注意事项
1、每日推送限额3000条,现在每天只有十次。具体原因不太清楚
2、已收录URL重复提交无效
3、新站建议保持每周2-3次主动推送
4、配合优质内容生产效果更佳
**建议定期检查「抓取频次」数据,根据百度蜘蛛的抓取情况调整推送策略。
**
完成步骤 ✅ 完成百度站长验证 ✅ 部署自动推送代码 ✅ 设置每日自动提交任务
原文链接