如今搜索引发展趋势是内容为王,想要获得好的排名那么优质的内容是必不可少的。但是原创的成本是非常的高,因此我们可以发现做原创内容的站点也就那么几个,很多站点站点基本就是抄袭抄袭抄袭。
那么我们有什么手段去防止我们的内容被抄袭呢?抄袭这种事情只要你的内容是可以被公众阅读的那么技术上就无法避免,即使你的技术在牛也是无法去防止被人工洗稿。但是我们还是需要采取行动尽可能的保护站点内容。
防止页面被复制
我们可以采用页面防止被复制的方法,就可以大大的增加复制的难度。首先我们需要禁用页面复制、选中、拖拽以及右键菜单,屏蔽了这些网页上的鼠标操作功能就可以阻止大部分人复制网页内容。实现方式可以通过js实现防复制,这里我们需要注意的一定要设定一个定时任务,去检查屏蔽代码的正确性,防止用户在调试窗口关闭屏蔽复制功能。
浏览器调试窗口禁用
上述方法并不能屏蔽所有用户,有些人可能会去调试窗口去截取内容,这个时候我们就需要通过代码去检查浏览器窗口大小和内容主体大小是否一致,如果不一致就是打开了调试工具,如果触发这种行为就直接清空页面内容。
源代码防止复制
还有机智的抄袭者可能就是会直接查看网站源代码,这个时候以上两种方法是没有用的。就要采用终极大招,我们只给到搜索引擎完成的内容,通过user-agent以及蜘蛛的ip(必须访问客户端满足user-agent以及ip同时满足判定为搜索引擎),对于不是搜索引擎的访问者,我们直接给到部分内容,不提供完成的页面内容,可以保证只能抄袭到一点点内容。
防止爬虫爬取内容
很多垃圾站点的内容都是通过爬虫抓取,自动化抄袭发布的。首先我们可以采取上面的源代码防止复制方法,这样而已蜘蛛只能爬取一部分内容,对于我们站点伤害不是很大。但是这种用户和搜索引擎给到不同内容的方式,不推荐使用,因为游走在违规边缘。
当然还有更加安全的方法,我们可以在页面中设置陷阱,因为爬虫和人最大的区别就是,人只能访问眼睛看得到的东西,而蜘蛛只要是链接都会去抓取。所以我们可以在页面的导航或者页脚,放置一个陷阱,一个很小的像素点或者元素加上一个链接地址,因为看不见所以访问的一定是蜘蛛,经过搜索引擎IP排除之后的访问的ip就都是而已蜘蛛访问,直接秒封ip。同时直接给对方返回一个警告信息,逗逗吓唬吓唬他。