(今天继续忙,这是昨天随便说的,纯属娱乐。:P)
火炬被百度的ROBOT逼得要抓狂了,征求《谁知道怎么样才能让百度封掉我的网站》问题的答案,我告诉他向百度的人投诉——我曾经这样干过,虽然要过相当长时间才会生效,但至少终于还是生效了。
美人她爹在《搜索要挖多深?》中提议用JS代码来作转向,这是一个办法。不过问题如后面的回复一样,如果别人直接链到论坛里面,还是会被抓到的。除非每页都用JS转。
这倒让我想到了百度ROBOT存在的一个进步意义:
这是一个推广AJAX技术的好办法。^O^
猛禽的归档8挂
(今天继续忙,这是昨天随便说的,纯属娱乐。:P)
火炬被百度的ROBOT逼得要抓狂了,征求《谁知道怎么样才能让百度封掉我的网站》问题的答案,我告诉他向百度的人投诉——我曾经这样干过,虽然要过相当长时间才会生效,但至少终于还是生效了。
美人她爹在《搜索要挖多深?》中提议用JS代码来作转向,这是一个办法。不过问题如后面的回复一样,如果别人直接链到论坛里面,还是会被抓到的。除非每页都用JS转。
这倒让我想到了百度ROBOT存在的一个进步意义:
这是一个推广AJAX技术的好办法。^O^
娃哈哈,是不是这个原因mblogger现在也不设访问计数了?
如果不是用静态页面,那就好办,在网站程序里判断一下http agent,如果是baidu spider直接用Response.End之类的关连接。或者看看网站日志,把baidu spider用到的IP直接在服务器上禁掉,非常的彻底。
雾水中。飘过……
用apache的话可以用.htaccess方便有效
我就是用.htaccess的,还好那个虚拟主机允许.htaccess overload,但是封了很多ip了,还是不管用。已经封掉了2个c了,结果昨天又被抓爆了。。。
还是判断http agent好,今天一想,如果是baidu spider的话redirect到google或者m$的网站,似乎更好
建议redirect到百度^O^