学了许久,忽然想到一个问题---搜索引擎是怎么判读文章质量的。
搜索引擎既然是机器程序,那么应该没有感情色彩,应该不会知道哪些好哪些坏吧,那么为啥现在能看到图片,能分辨原创了?相信不光是天骄科技黄岛网络公司小编在想,应该很多人也在想。。
经分析推理:程序蜘蛛拿到一个网站后先分离出来内容,做以下判断:
1 识别可读性,因为看到很多人都是复制黏贴发内容的,这样 没有分段,没有加粗,有的是文字一大堆一大堆的。这样百度应该可以判断你很差,就是不给你排名。
2 可能通过pv看别人在网站上停了多久,点你的文章没有吧。这样如果,你的文章不好看,我看一眼就跑了。发誓不会再来,搜索引擎就给你记个大鸭蛋,嘻嘻。
3 可是如果这样,他为啥还会收录,还会建索引呢,是不是觉得蜘蛛好像傻傻的咯。
4 发觉文章多弄些评论,顶踩,加点视频之类的内容,原版复制别人的页面,没有改任何字就收录了。这是不是也算原创,还是蜘蛛有犯浑了--傻傻的抓呀抓的。
5 如果是我应该会对网站分析,我会认为好的网站是没有广告的,如果你有广告,总是弹啊弹啊的给我打开一些不良页面,我就再也不叼你了。
6 清晰的结构 【logo banner联系下面有版权目录与目录无交叉连接 】打开速度不慢 ,用几个浏览器看看没有乱七八糟的,我觉得这样的页面是好页面。
蜘蛛会不会这样呢?好像听别人说--蜘蛛就是聋子瞎子,不知道是不是真的!@@