流量关键词链接页面提升百度权重

流量关键词链接页面提升百度权重

技术应用 2年前 (2015-12-20) 浏览: 110 评论: 1

百度搜索的排名常常根据页面搜索进入的流量大小进行变化,如果对于一个关键词很多人都会进入同一个网页,百度会认为这个网页能很好地解决这个问题,从而使这个网页在该关键词搜索时排在其它网页的前面。在百度站长平台的后台,我们可以知道有哪些关键词被百度搜索以及是否进入了我们的网页。我们可以通过做一个这个页面,里面全是搜索这些关键词的网址,访问以后进入我们的网站,从而提升我们的网站排名。 流量关键词链接页面提升百度权重 以下的代码是我写的一个流量关键词链接页面,里面全部是我的百度关键词。我们和偶尔点一下,提升相应关键词排名。使用方法是将百度流量关键词导出后放在一个keyword.txt文件里,关键词每行一个,文件路径与下面的PHP代码文件相同。  

一个炫酷的HTML5 “闭站保护中”404页面

一个炫酷的HTML5 “闭站保护中”404页面

算法语言 2年前 (2015-12-18) 浏览: 1163 评论: 3

网站一夜关键词降为0 王柏元的博客疑似被百度搜索K掉,自上个月17号以来关键词个数一路走低,直到这个月降为0,昨天甚至通过“王柏元的博客”、“王柏元”这样的关键词我的网站不在前5名、甚至无法搜索到我的网站,初步判断的原因可能是我上个月解析的www.wangbaiyuan.cn到本网站因为疏忽没有实行301重定向到wangbaiyuan.cn,导致百度搜索认为我的网站被镜像。在未找到确切原因之前,我决定通过百度站长平台采取闭站保护,防止不明原因对网站SEO进一步产生影响。     闭站保护申请期间,百度要求被保护的网站要出于不能访问状态:全站HTTP状态码设置为404,或者将服务器关机服务器。通过域名不解析的方法是不能通过闭站保护审核的。所以对于虚拟主机用户不能切断服务器电源情况下,可以采用全站404的方式申请闭站保护。 新建如下内容的index.php实现全站404 你可以将原来根目录的原index.php文件改名,新建一个index.php内容如下: 这个网页是可以访问但是http状态返回码是404,通过html5实现,能满足404要求,并且界面还是很炫酷的啦! 预览    

免插件百度链接提交-实时主动推送

免插件百度链接提交-实时主动推送

算法语言 2年前 (2015-05-25) 浏览: 1955 评论: 12

对于广大站长来说,文章第一时间被百度收录,或自己的原创文章第一时间被百度认定为原创相当重要。不止一次文章被转载,但是因为别人的网站权重比自己高,百度收录速度或百度搜索文章标题的排名却不及转载网站的,这是一件十分让人苦恼的一件事。 百度站长平台消息: 5月25日,百度站长工具发布消息: sitemap实时推送功能6月份开始逐步下线,我们推出了更加强大的链接提交主动推送功能做为替代。新的主动推送功能更加强大:提交数据方式更简单,返回码达意更清晰(可立即知晓数据提交是否成功),可以做到实时向百度推送新数据。 相关信息详见:  http://zhanzhang.baidu.com/college/articleinfo?id=336 sitemap广大网站使用,搜索引擎通过爬行网站地图可以发现网站的新链接,并定期访问。但是搜索引擎的爬行频率有限且具有规律性,自己的原创文章并不能第一时间被百度等发现。 下面是百度官方给出三种提交链接的方式总结: 主动推送:百度推荐的最为快速的提交方式,建议将站点当天新链接立即通过此方式推送给百度获取最快收录。 sitemap:百度会周期性检查您提交的Sitemap,对链接进行处理,收录速度慢于主动推送。 手工提交:手动将链接提交给百度。 这里的手工提交不同于“链接提交” 这里的手工提交是指对于百度站长验证站点提供的快速提交方式,支持批量多链接提交;而通常的“链接提交”是不需要你的网站是”百度站长平台验证站点“的,提交比较随意。 而百度站长平台新推出的“实时主动推送”为验证站点站长分配了一个token准入密钥,一般可认为只有站长或者知晓密钥的网站管理员才有权限提交,所以提交需谨慎,极客人建议大家用它提交一些质量比较高的文章,不要提交垃圾链接,同时需要提醒大家的是:目前这种方式提交的URL是有限额的,比如王柏元的博客每天只能用实时主动提交方式提交50条,大量自动提交垃圾文章可能导致失去提交权限! 免插件百度链接提交-实时主动推送 通过百度官方给出的PHP推送样例,极客人制作出了针对wordpress博客实时推送的PHP代码程序,将下列代码加入主题文件夹下functions.php最后一行“?>”之前极客,本代码将在每次发布文章时执行将新文章链接实时主动推送给百度,同时在与代码所处文件同目录中生成日志文件“by_baiduSubmit.txt”。你可以查看日志文件了解是否推送成功。如果此程序出现错误或无法正确向百度实时提交新链接,欢迎在本页面反馈。  

被.ytlqpo.com恶意镜像的解决、反制措施

被.ytlqpo.com恶意镜像的解决、反制措施

技术应用 计算机技术 2年前 (2015-05-19) 浏览: 981 评论: 19

前天在百度搜索王柏元的博客网站关键词时,猛地在百度结果的第一页中发现了一个标题、简介和我完全一样的网站,不看不知道,这个网站还不是传统意义上的抄袭、盗链,不仅仅把我的网站全部照搬,而且把网页里所有的链接都置换成那个镜像网站地址的。 我这才知道:我的网站被人家恶意镜像了。 和一般的镜像不太一样,这个镜像网站不仅仅是针对我一个网站,而是自动镜像。主要表现为: ①我的网址:http://wangbaiyuan.cn;镜像网址就是:wangbaiyuan.ytlqpo.com。另外一个网站网址:http://weixin.wangbaiyuan.cn,镜像网址就是weixinwangbaiyuan.ytlqpo.com经过本人测试:把你的网站网址去掉主机记录和顶级域名,加上.ytlqpo.com,就知道你自己有没有被镜像! ②为镜像网站里所有链接添加镜像,比如我的网站里有个友情链接:http://www.zhiyanblog.com,这个友情链接就会置换成:zhiyanblog.ytlqpo.com. 一、经过本人测试中招的大网站有: 360. ytlqpo.com 镜像360网站 sogou. ytlqpo.com 镜像搜狗搜索 qq. ytlqpo.com 镜像qq官网 net. ytlqpo.com 镜像万网官网 haosou. ytlqpo.com 镜像好搜网站 不过恭喜百度搜索主页神奇地幸免了 二、测试的站长朋友网站被镜像的有: zhiyan blog.ytl qpo.com 镜像http://www.zhiyanblog.com nai ba.ytlqpo.com 镜像naiba.im wangb aiyuan .ytlqpo.com 镜像http://wangbaiyuan.cn 三、恶意镜像很危险 恶意镜像由于照搬了源站的所有内容,如果你的网站权重不够高就苦逼了,百度如果分不清哪个源站,难保把你当抄袭,如果你的权重干不过人家的话。不管你的权重高不高,被恶意镜像的网站无疑会削弱你的权重,因为百度蜘蛛发现了大量和你网站一模一样的内容。虽然网上有很多恶意镜像的解决办法,但是我感觉我这次遇到的情况和网上的都不太一样,使用网上许多方法都不奏效。 四、解决与反制措施 在尝试多种方法无效后,我想到了一个权宜之计:禁止恶意镜像网站的访问IP,之所以说是权宜之计,因为难保它的IP会变,还有这个IP不是镜像网址的解析IP 因为多次尝试解决问题过程中,我发现这个恶意镜像的网站的原理大概是:别人访问abc.ytlqpo.com 的时候,它会访问一下(www)abc.com(cn\net\cc\xyz\wang),然后把访问的结果修改一下链接返回给你。所以,它必须有一个访问源站的过程。于是乎解决方案就是禁止这个访问IP. 在搜寻海量的网站日志没有确认这个IP后,我写了一个PHP文件来截获这个访问IP。 1.截获IP 将上述文件命名为“ip.php”放在网站根目录,然后我通过镜像网站网址访问wangbaiyuan.ytlqpo.com/ip.php,然后在上述PHP程序生成的ip.txt中获取了这个IP: 104.194.16.230 (美国) 2.屏蔽IP 在htaccess中添加下述代码: 对于htaccess屏蔽IP的方法,我的之前一篇文章有详细介绍:htaccess屏蔽ip访问。 当你再次用镜像网址访问你的网站的时候就会报403错误了,现在百度即使收录了这个网址对你的网站也不会产生任何影响. 3.反制措施 为了给这个镜像网站小小的“反击”,我决定把这个403错误页面设置为其他网站网址,实现方法是在屏蔽IP的htaccess代码中添加: 这样你访问你的镜像网址时,会发现它镜像的是其实百度新闻。(不知道百度蜘蛛发现一个网站在完全抄袭自己家的东西会是什么感觉) 演示效果: wangb aiyuan .ytlqpo.com(为了不给这个网址做传递权重和宣传,防止产生链接效果,请自行复制此链接去掉空格在浏览器中打开) 当然你写可以根据个人需求让你的镜像网址转向镜像其他的网站,比如: 借助它Fanqiang!

wordpress怎样写robots.txt利于SEO优化

wordpress怎样写robots.txt利于SEO优化

技术应用 计算机技术 2年前 (2015-04-19) 浏览: 145 评论: 0

一般来说,我们希望搜索蜘蛛光顾我们的网站越多越好,我相信每个新手站长都会是站长工具的常客,一大早起来就是关注自己网站的收录量.收录量的增长是一张晴雨表,升则忧、降则喜,我想告诉广大的站长朋友这完全没有必要,收录量不是目的,我觉得我们关注的重点应该是怎样让自己的网站拥有更多的百度搜索流量。 robots.txt是搜索引擎爬行网站的控制文件,按照一定的语法告诉搜索引擎哪些网页能爬,哪些不能爬,对于robots.txtd的介绍和书写语法,你可以参考这篇博文:网络蜘蛛访问控制文件robot.txt的写法 。 可能你想说,收录量不是越多越好吗? 其实不然,网站的网页不是收录越多越好,大家都知道搜索引擎比较网络上的网页相似度(相似度太高的两个页面会分散权重)的时候,不仅仅会进行不同网站间的纵向比较,而且会进行同一网站不同页面间的比较,所以,比如对于个人博客的作者归档和首页,页面内容差不多一样,我们完全可以屏蔽蜘蛛访问作者归档的页面。下面我来详细地介绍一下wordpress怎样写robots.txt利于SEO优化。 wordpress怎样写robots.txt利于SEO优化   一、屏蔽没有必要收录的一些链接 1、屏蔽捉取站内搜索结果 Disallow: ?s=* 这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。 2、屏蔽spider捉取程序文件 Disallow: /wp-*/ 屏蔽spider捉取程序文件,wp-*表示wp-admin,wp-include等文件夹都不让搜索蜘蛛爬行,这节约了搜索引擎蜘蛛资源。 3、屏蔽feed Disallow: /feed/*  Disallow: /*/*/feed/* Disallow: /*/*/*/feed/* 头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎抓取这些链接,相当有必要,应为feed里面的内容基本就是你文章内容的重复,相同内容会让百度降低单页面权重,同时这也节约蜘蛛资源和服务器的压力。 4、屏蔽捉取留言信息链接 Disallow:/*?replytocom* Disallow: /comments/ Disallow: /*/comments/ 屏蔽留言信息链接。需要指出的是,屏蔽留言信息链接不是说不让蜘蛛收录你文章的评论页面,而是这样的链接打开后,整个页面就只有一个评论,完全没有被收录的必要,同时也节约蜘蛛资源,故屏蔽之。 5、屏蔽其他的一些链接,避免造成重复内容和隐私问题 Disallow: /date/   Disallow: /author/   Disallow: /category/   Disallow: /?p=*&preview=true   Disallow: /?page_id=*&preview=true   Disallow: /wp-login.php 这些屏蔽规则你可以根据自己的需求决定是否创建,屏蔽data、author、category等页面都是为了避免太多重复内容, 6、Disallow: /?p=* 屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。 7.屏蔽特定格式 Disallow: /*.js$ Disallow: /*.css$ 屏蔽对js、css格式文件的抓取,节约蜘蛛资源,降低服务器压力,你可以根据实际要求是否屏蔽你的图片被抓取。 8.其它不想被抓取的页面 Disallow: /*?connect=* Disallow: /kod/* Disallow: /api/* /*?connect=*:我的博客登录链接 /kod/*:在线文件管理链接 /api/*:我自制的API链接 二、使用robots.txt需要注意的几点地方: 1、有独立User-agent的规则,会排除在通配“*”User agent的规则之外; 2、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果; 3、“#”号后的字符参数会被忽略; 4、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。 5、每一行代表一个指令,空白和隔行会被忽略; 6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。 上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通百度站长工具,检查站点的robots.txt是否规范。 三、百度站长工具robots.txt工具的使用方法 百度站长工具robots.txt工具网址:http://zhanzhang.baidu.com/robots/index     检测并更新:在文本框里输入网站点击检测并更新,百度将抓取你的robots.txt文件,如果你近期robots.txt最近有更新,这将马上通知百度搜索蜘蛛更新它的爬行规则,使你修改后的robots.txt马上生效。 规则校验:你可以提取自己的robots.txt,然后验证一下你的robots.txt语法是否正确,检验你想要禁止蜘蛛爬行的网址是否能有效屏蔽; 创建生成:根据你的需求,傻瓜式地生成robots.txt,对于站长小白不妨一试。 附录 王柏元的博客robots.txt分享如下:  

21 个非常有用的 .htaccess 提示和技巧

21 个非常有用的 .htaccess 提示和技巧

百元百科 3年前 (2015-01-15) 浏览: 420 评论: 3

  Apache Web 服务器可以通过 .htaccess 文件来操作各种信息,这是一个目录级配置文件的默认名称,允许去中央化的 Web 服务器配置管理。可用来重写服务器的全局配置。该文件的目的就是为了允许单独目录的访问控制配置,例如密码和内容访问。在做网站的时候常常用到很多.htaccess 规则,我给大家总结了21 个非常有用的 .htaccess 提示和技巧 下面是 21 个非常有用的 .htaccess 配置的提示和技巧: 1. 定制目录的 Index 文件     你可以使用上面的配置来更改目录的默认页面,例如你将这个脚本放在 foo 目录,则用户请求 /foo/ 时候就会访问 /foo/index.html。 2. 自定义错误页   当用户访问页面报错时,例如页面找不到你希望显示自定义的错误页面,你可以通过这种方法来实现。或者是动态的页面:   3. 控制访问文件和目录的级别 .htaccess 经常用来限制和拒绝访问某个文件和目录,例如我们有一个 includes 文件夹,这里存放一些脚本,我们不希望用户直接访问这个文件夹,那么通过下面的脚本可以实现:   上述脚本是拒绝所有的访问,你也可以根据IP段来拒绝:   一般这些方法是通过防火墙来处理,但在一个生产环境中的服务器来说,这样的调整非常方便。 有时候你只是想禁止某个ip访问:   4. 修改环境变量 环境变量包含了服务器端 CGI 的一些扩展信息,可使用 SetEnv 和 UnSetEnv 进行设置以及取消设置.   5. 301 重定向 如果你希望某个页面跳转到新的页面:   下面可以实现对整个路径的重定向   6. 通过 .htaccess 实现缓存策略 通过设置在浏览器上缓存静态文件可以提升网站的性能:   7. 使用 GZIP 对输出进行压缩 在 .htaccess 中添加下面的代码可以将所有的 css、js 和 html 使用 GZIP 算法压缩:   使用上面代码的前提是启用 mod_gzip 模块,你可以使用下面脚本来判断 Web 服务器是否提供 mod_deflate 支持:   如果 Web 服务器不支持 mod_deflate ,那么可使用下面方法:   更多关于压缩的内容请阅读: Compressing PHP, CSS, JavaScript(JS). 8. 强制要求使用 HTTPS 访问 通过以下脚本可以强制整个网站必须使用 https 方式访问:   9. URL 重写 例如要将 product.php?id=12 重写为 product-12.html   将 product.php?id=12 重写为 product/ipod-nano/12.html   重定向没有 www 到有 www 的 URL 地址:   重写 yoursite.com/user.php?username=xyz 到 yoursite.com/xyz   重定向某个域名到一个 public_html 里新的子文件夹:   10. 阻止列出目录文件 使用下面代码可以防止列表目录里的所有文件:   或者   更多详情 Denying/Allowing directory listing. 11. 添加新的 MIME-Types MIME-types 依赖于文件的扩展名,未能被识别的文件扩展名会当成文本数据传输   12. 防盗链 你不希望别人网站引用你站内的图片、css 等静态文件,也就是传说中的防盗链,可以使用如下脚本:   13. 指定上传文件的大小限制,适用于 PHP   上述脚本中,通过四个参数来设置上传文件的限制,第一个参数是文件的大小,第二个是 POST 数据的大小,第三个是传输的时间(单位秒),最后一个是解析上传数据最多花费的时间(单位秒) 14. 禁止脚本执行   15. 修改字符集和语言头   16. 设置服务器时区(GMT)   17. 强制 “File Save As” 提示   18. 保护单个文件 正常情况下 .htaccess 可用于限制整个目录的访问,但也可以只限制某个文件:   19. 设置 Cookie 通过环境变量来设置 Cookie   基于请求设置 Cookie,该代码发送 Set-Cookie 头用于设置 Cookie 值为第二个括号里的匹配项   20. 设置自定义的响应 Headers

使用.htaccess文件实现301重定向常用的七种方法

使用.htaccess文件实现301重定向常用的七种方法

算法语言 3年前 (2015-01-06) 浏览: 6345 评论: 0

 使用.htaccess文件实现301重定向常用的七种方法 301重定向对广大站长来说并不陌生,从网站建设到目录优化,避免不了对网站目录进行更改,在这种情况下用户的收藏夹里面和搜索引擎里面可能保存的还是老的地址,在打开这些链接时会无法显示页面出现404的错误,造成很差的用户体验并失去了很多流量,今天笔者就给大家分享一下实现301重定向的七种方法。 从搜索引擎优化的角度来看,目前301重定向是网站目录更改后重新定向最为可行的一种办法。在你更改地址使用了301重定向后,搜索引擎只会对新地址进行索引,同时会把旧地址下原来收录的链接转移到新地址下,而上述的这些操作并不会影响到网站在搜索引擎的排名。 实现301重定向最直接的方法是编辑.htaccess文件,想了解关于htaccess文件使用方法,请点此查看。园子需要提醒你的是,在对.htaccess文件进行操作之前,一定要备份好原来的.htaccess文件,以避免修改出错带来不必要的麻烦。 1.重定向domain.com到www.domain.com 这种重定向非常常见,最终目的是实现域名的唯一性,也是seo必须要做的。实现方法是在.htaccess文件中加入以下规则: 代码如下: 注:使用这种301重定向方式后,当你打开类似domain.com的网址后会自动定向到www.domain.com。 2.重定向www.domain.com到domain.com 这种操作刚好和上面的域名显示是相反的,规则如下: 代码如下: 注:使用此301重定向方式,当你打开类似www.domain.com的网址后会自动定向到domain.com。 3.重定向olddomain.com 到 newdomain.com 这种操作经常用于更换域名时用到,很多站长因为种种原因可能要为站点更换域名,此时多采用以下规则来实现重新定向: 代码如下: 注:当用户打开老的域名后,会自动重定向到新的域名下的站点,此时域名显示格式为不带www.的格式。 4.重定向olddomain.com 到 www.newdomain.com 这种操作是基于第三种方式的改良,只是显示网址显示为带www.的那种。 代码如下: 注:当用户打开老的域名后,会自动重定向到新的域名下的站点,并且网址显示格式为带www.的格式。 5.重定向domain.com/file/file.php 到 otherdomain.com/otherfile/other.php 这种操作针对于更改一个域名的同时,网站目录路径也发生变化的情况下使用,规则如下: 代码如下: 注:当用户访问老的域名路径时,会重新定向到新的域名新的路径下。 6.IIS服务器下实现301重定向 具体方法如下:打开internet信息服务管理器,在欲重定向的网页或目录上按右键,选中“重定向到URL”, 在对话框中输入目标页面的地址,切记要选中“资源的永久重定向”最后点击“应用”即可。 注:再次提醒你,一定要选中“资源的永久重定向”。 7.Apache服务器实现301重定向 在Apache服务器实现301重定向的方法园子在以前的文章中提到过,只需要在.htaccess文件中加入以下规则: 代码如下: 也可能是: 代码如下: 以上七种方法是在网站管理与优化过程中经常会使用到的301重定向方法,当然,你也可能遇到不大相同的状况,这时候就需要根据自己的目的去适当调整下命令规则以适应不同的需求。

登录

忘记密码 ?

您也可以使用第三方帐号快捷登录

切换登录

注册