新站上线后,新手必做的几点优化方法,这几点做了就坐等搜索引擎收录吧。
网站地图制作
网站地图分站内网站地图和搜索引擎XML网站地图,这2个都是引导蜘蛛爬行网站必备的页面功能。
站内网站地图如:https://www.wdzzz.com/sitemap/sitemap.html,这个属于被动提交,让蜘蛛可以流畅的爬行整站,还有可以让用户快速的查找需要的内容。
搜索引擎XML地图如:https://www.wdzzz.com/sitemap/img.xml,这个是提交的搜索引擎站长工具后台的,属于主动提交,明确告知蜘蛛您的网站有哪些栏目,哪些内容需要收录,这个100%必做。
如百度站长站工具截图:
1、普通收录工具可以向百度搜索主动推送资源,缩短爬虫发现网站链接的时间,不保证收录效果。
2、API提交和手动提交共享配额,每日至多提交10万条有价值的内容,sitemap提交配额不与其他方式共享,具体配额以站点页面显示数据为准,提交内容会进入百度搜索统一管理。
3、仅限提交关联过主体的站点下的内容,否则无法成功提交,配额不可累计,当日有效。
4、若链接存在跳转关系,请直接提交跳转后链接。如网站换域名,需提交新域名资源;进行HTTPS改造页面,请提交HTTPS资源。
文件地址格式为txt或xml,每个地址文件最多包含50,000个网址且需小于10MB。
如果验证了网站的主域,那么sitemap文件中可包含该网站主域下的所有网址。详细说明
请勿提交索引型sitemap,索引型不予处理且子文件会占用配额,如若提交请主动删除。
Robots
Robots同样式也是网站必做的SEO项目,在Robots中,我们可以明确告知搜索引擎,哪些目录是必须抓取的,哪些目录是不用抓取的,能够快速指引搜索引擎抓取有用的优质内容,让搜索引擎不去抓取太多没用的内容。
同时还需要在Robots中,添加搜索引擎XML网站地图路径,告知搜索引擎这些内容是必须爬取的。
robots.txt文件详细教程
robots文件是网站和各大搜索引擎建立良好沟通的桥梁,也是网站从搜索引擎获得流量的开端第一步,因为robots的设置不当,很有可能会失去很大一部分的流量。对于SEO优化...
好了,我的站长站就分享这2个100%必须做的SEO方法,还有其他的主动推送之类的SEO方法,都不是100%必须的。