文章出处:新奇网络-全网营销专家 - www. 发表时间:2015-10-09
龙岗网站建设(新奇www.)前些日子遇到一个朋友他问了我一个问题:“我们的网站只收录abc.XXX.com,的二级目录类域名,不收录www.xxx.com的怎样办?”我看到这个问题时分我当时下认识的说了句robots屏蔽就好了,然后我更具他们各个二级站点例如深圳站上海站写了一个robots文件发给她如下:
User-agent: *
Disallow: /abc/
但是紧接着办法都被逐个放弃了,由于通通行不通。由于他们的网站一切二级目录和主目录在ftp中都是在同一文件夹下,然后我又总结了他们网站呈现的问题。
1.网站不带www的二级域名曾经收录过万,且每日都有蜘蛛爬取,但带www的主域名至今只收录二三十个,且还有降落的趋向,所以想让网站收录带www的主域名页面。
2.网站一切页面在同一个文件夹下无法应用robots屏蔽途径方式屏蔽页面。
固然我在百度查询了很久但是却并未查到过多有用信息,大多都是和我第一次给出的答案一样,但最后我们还是想出了方法处理了这个问题,那关于屏蔽二级目录收录问题,总结了以下几点可供选择。
1.假如需求屏蔽的页面和主页面是在不同的文件夹下我们能够直接采取我上面提到的直接robots文件屏蔽,写法例如Disallow: /abc/之类的直接robots屏蔽办法。
2.无法应用robots制止搜索引擎收录某个二级域名的,最好的办法就是301,关于有用的页面将一切的二级目录类域名重定向,无用的就直接删除。
3.法,将而与目录分配到不同的空间下应用robots屏蔽。
4.个判别程序,让要屏蔽的二级域名下面有一个robots.txt文件。abc.xxx.com/robots.txt,然后在应用robots屏蔽。此办法我没有试过我是看到夫唯教师很久前给他人的一个倡议,就理论而言是能够行的通的。
关于在网站建立中如何防止此类不需求收录的二级域名我罗列了一下几点假如有不完善的欢送大家补充。
1.虚拟主机时空间自带了二级域名地址且地址曾经收录的话最直接的方法就是站内开放的链接上要统一url标准不要给不想收录的二级域名任何的入口。
2.须分二级目录时,将主目录和二级目录分开在不同的文件夹。
3.名解析时分直接采用三W的的域名采用主域名。
咨询相关问题或预约面谈,可以通过以下方式与我们联系