基于谷歌的搜索引擎关于搜索引擎的1些往事

2019-05-15 05:11:32 来源: 常德信息港

1 : 关于搜索引擎的1些往事

1996 的时候,Larry Page 其实不是唯逐一个意想到可以利用络上的链接结构有效改进搜索引擎的人。

少还有两个人发现了这1点。其中1个是计算机工程师 Jon Kleinberg。

1996 年夏天,他来到 Almaden 的 IBM 研究中心攻读博士后学位。Jon Kleinberg 发现当时的搜索引擎在取得信息上极其低效,充满垃圾信息。

不断出现的抱怨Kleinberg 说,是搜索不起作用。但是他直觉的意想到1种更有效的方法。当时根本得到利用的1个事实是,万维的络特性,他说,你会发现人们在学术著作中谈到应当利用链接的优势,但是 1996 年的时候没有人去那末做。

Kleinberg 开始了自己的实验,由于缺少时间、帮助和足够的装备,他使用了当时的 AltaVista 引擎,搜集前 200 名的搜索结果,以此为基础探索通过链接获得有效信息的方法。

Kleinberg 将自己的突破在 IBM 内部进行了展现。很快,他的主管让他与专利律师接触。许多人开始注意到他的工作,在搜索信息上寻求他的帮助,乃至那个专利律师也要求 Kleinberg 帮他搜索业余爱好方面的信息。

到了 1997 年的时候,IBM 的副总裁们都来看这个东西,想弄清楚他们能够用它干什么。终究的答案是做不了甚么。

IBM 当时的营收超过 700 亿美元,很难看到1个关于络链接的搜索计划能带来甚么。Kleinberg 也没有以此盈利的想法,他的计划是去康奈尔大学(Cornell )教授计算机。

通过在斯坦福的朋友,Kleinberg 了解到 Larry Page 的计划。1997 年,他们在盖茨大楼(Gates Building ,以 Bill Gates 名字命名的建筑) 见了面。Kleinberg 发现两个人的目标很不相同。Kleinberg 思考的是如何通过链接判断1个页的权威性,而 Page 更在意人们搜索络的方式。

我们的核心观点是1样的,但是我们在利用它到达甚么目标方面几近是截然不同。

Kleinberg 与 Google 保持联系,1999 年和 2000 年他两次谢绝了去 Google 工作的机会。他在康奈尔很开心,喜欢从事学术和教育工作。他其实不想成为亿万富翁。

另外一个发现了类似算法的人是1个中国的工程师:李彦宏。1987 年他开始在北京大学学习,北京大学的学术地位是靠1种算法来决定的:科学引文索引。

北京大学,由于教授的论文取得援用数量多,取得了第1名的地位。李说。

1991 年,李来到美国,在纽约州立大学研修硕士学位。1994 年他在道琼斯的1个部门任职。他工作的1部份是改进信息获得进程。他试过了当时的搜索引擎,发现这些引擎低效而充满无用信息。

1996 年 4 月,他去参加1个学术会议。由于会议本身很无聊,他开始思考如何改进搜索引擎。这时候候,他意想到,科学引文索引可以用到互联上。

当我回到家,我开始把这个想法记录下来,意想到这是1个革命性的主张。他说。他设计了1个搜索方法,通过链接的频率和被链接文本的内容来判断相干性。他把这个系统叫做 RankDex。

他把自己的成果告知了道琼斯的主管,并敦促公司去申请专利,结果无人在乎。

好几个月以后,我决定自己去写专利。他买了1本关于为程序申请专利的自助书,并在 1996 年 6 月的时候申请了专利。当他将这份专利交给道琼斯的时候,道琼斯找了1个律师来看这份专利。并在1997 年 2 月对专利重新进行了申请。(斯坦福大学直到 1998 年 1 月才为 Larry Page 的 PageRank 申请专利)。

只是,道琼斯对李的专利其实不重视。

我试图去说服他们这件事的重要,但是他们的生意与互联无关,因此他们绝不在乎。他说。

李辞去工作,加入了西岸的1个搜索公司 Infoseek。1999 年,该公司被迪斯尼收购,随后,李回到了中国。

世事难料,总是充满着意外和转折,如果当初 Kleinberg 和李的想法得到了大公司的重视,今天的互联格局是不是会有所不同。这只能料想了。

Via Steve Levys In the Plex

(来源:爱范儿)

2 : 2016影响谷歌搜索引擎排名的几个重要因素

新的1年又开始了,有很多读者和我说他的站上不去。当我问起他做了哪些优化,他便依照某些书本所说的标题标签包括关键词啊,H1标签包括关键词 啊,站内的锚文本用或标签啊,等等,基本书本所说的他都照做了,而没有效果其实也是情理当中的事情。因 为这些都是他人很多年前总结出来的因素,对当年确切很有用,但现在很多SEO因素都被削减了排名比重。既然我们要做排名,那我们肯定要先了解到谷歌目前 更看重哪几个点。这里daniel总结了几个2016年,谷歌比较看重的几个有益因素和不利因素。

影响谷歌搜索引擎排名的有益因素

TR,也就是TrustRank,指的是站的权威度。意思就是您的站是不是收到来自被信任的站的链接;

DA, 也就是Dmoain Age, 域名年龄,也称为域名权重,时间越长的域名对排名越有益;

PR, Page Rank, 虽然他影响排名的比重从之前的70%降落到40%,但它仍然是影响排名的主要因素;

更新频率(update frequecy),指的是你的站更新原创内容的频率;

LSI (Latent Semantic Indexing), 页是不是加入潜伏语义索引词来替换部分目标关键词;

Soscial Media,也就是Facebook,Twitter,Pinteret在您的页表现的数据。(你的页面有多少个赞,多少个转载,和转载您的文章的改用户的权威度等)

自适应,或使用目前谷歌刚推出的AMP项目,让你的站在端能够更好的展现并且提升加载的速度。

并不是H标签,加B标签在主要关键词上这些优化手段完全没用,而是这部份的优化手段已从要求变成了标配,所以这里就不逐一再多说。

不是把有益因素都做好了排名就上去了,由于在优化的进程中避免不了和不利因素打交道,我们在进行优化的进程中也要注意以下几个谷歌更加看重的不利因素要点:

影响谷歌搜索引擎排名的几个不利因素

页面导出大量不相干的链接,或导出到不被信任的站;

页生成了大量的无价值页面;

反向链接只优化特定的词,目的性过强(参考引入LSI的作用);

站内关键词出现频率太高,优化过度;

在已被列入链接工场的站长处购买链接;

外链的情势单1,长时间从单1的站点内获得链接;

很多人会问,影响站的不利因素多了去了,为何重点说这几个? 由于Daniel在接优化的单子的时候,发现出现此类问题的人特别多,并且谷歌响应的速度特别快。举个例子:1个做仿牌的朋友做黑链(利用DIV+CSS 隐藏锚文本),但是我视察了好久,该站并没有被降权。相反,当仿牌的手段从黑链转变成黑页(在被黑的SHELL里,大量导入HTML页面,生成大量的反 向链接页面)时,就如第2条所说的,谷歌站长就会立刻检测的到(时间不会超过7天),并且加入人工干预(Manual Action), 如图所示:

被加入人工干预的站,排名会直线下滑,而且短时间内站排名都很难恢复,所以,这是为何把第2条列入到主要因夙来说。

为避免页被大量生成无价值页面而且被谷歌发现,Daniel这里有1个基于Wordpress被黑而不被谷歌监测到的办法。固然,这不是1劳永逸的办法,关键还是要自己做好站的各项安全防护。

目前很多新手存在误区,就是认为把目标关键词密度做到部分SEO论坛所说的7%⑴1%就是的, 其实不然,目前谷歌更看重的是LSI词的比重。

1个页面如果出现5次一样的目标关键词和1个页面只出现2个目标关键词,3个LSI词,后者的排名会更高1些;

而目标关键词密度,我个人认为只要在该放目标关键词的地方(H1标签,标题)等,放置好就好,没必要刻意去堆积。

如果你还是特别看重关键词密度,Daniel推荐你使用SEOBOOK关键词密度衡量工具,会比国内的工具更加准确1些

原文链接:⑵016/ 转载请注明出处

3 : 维基:不会推出搜索引擎和谷歌竞争

运行维基百科的非盈利组织维基媒体基金会否认外界关于它准备推出搜索引擎的报导。之前根据泄漏的拨款提案文件显示,该公司要求外界捐款$250,000初步资金,以开发知识引擎,用于发现在互联上可靠和值得信赖的公共信息。但是,来自维基近的1篇博客表明,这些计划1直在产生变化。

维基在博文当中表示,这些捐赠的用处很简单,我们打算研究维基用户如何寻觅发现内容,并与内容进行互动。我们没有计划建立1个全球的爬虫搜索引擎。我们不是在建造另外1个独立的维基媒体项目。

但目前使人困惑的是拨款申请文档使用的措辞。根据这份文档显示,维基将打造所谓知识引擎,将媒体,和信息民主化,与主宰互联的商业搜索引擎对抗。该文档还指出,来自于谷歌,雅虎或其他大型商业搜索引擎的竞争,可能会下落该项目的成功机会。

外界认为维基初提出的知识引擎多是1个更加雄心勃勃的振兴计划,但是遭受到来自社区和志愿者的强烈反对后,维基改变了他们的计划。通常情况下,大型的维基计划均有志愿者和者无偿参与,他们担心维基推出的搜索引擎将把他们变成无偿工作的仓鼠。

4 : 关于搜索引擎的几个基础属性

站优化谁都懂1些技术,搜索引擎的智能程度远远超过了站长们的思考,随着百度算法的不断更新更是如此。但是运营站需要从搜索引擎当中取得更多的流量,这就必须满足到搜索引擎的口味。SEO技术谁都懂,大体方向内容为王,外链为皇,用户体验为至高法则。但是真正成功者只有把细节问题做到10全10美才行。

1、nofollow属性

在百度当中具有1些让搜索引擎蜘蛛没法爬行的属性,如:JS代码、Flash页面,传递出去的广告链接等等这些地方可以直接使用,这些都是可使用nofollow属性屏蔽掉,避免权重流失,并且JS和Flash是百度蜘蛛根本没法读取的,这类地方更加不需要了。我们显现给搜索引擎1定要的1部份,这样才能让搜索引擎觉得你的站对他更具有亲和力。避免被当作垃圾站处理,从而得到惩罚。

2、robots协议

robots协议是1种搜索引擎的规则,专门为保护站隐私而设置,毕竟1个站不断要让用户读取,还有1些站长的私密信息,如站后台。如果这些信息被泄漏了出去极可能造成站被黑客利用,所以才去robots协议进行屏蔽,另外robote协议还有1个好用的办法,就是集中站权重,如屏蔽掉注册页面,登陆页面,版权信息等地方,让权重全部集中在首页,栏目页和内容页里面,避免权重流失。

3、301跳转功能

随着做的时间愈来愈长,时期也在不断进步,站是不可能不会变的,所以301的功能就显示在此处了,把旧版本的站使用301跳转,可以减少权重流失,把改版后的损失降为。除301以外的其中跳转,如JS直接跳转代码就会被认为是做弊手法了。并且301技术是百度官上明确表明可使用的。

4、尽可能使用静态URL

动态URL里面具有相当大的代码参数,如果长时间做站还是建议站长尽量使用静态的URL,1方面是百度的技术还不算完全完善,另外一方面动态URL的参数如果过于多会被搜索引擎自动裁剪1部份,在搜索结果当中也不会显示完全,就是静态URL可以方便用户记忆,增强用户体验。

5、站层次越少越好

站尽可能减少层次,1般有首页-栏目页-内容页3个层次就足够了,百度蜘蛛1般超过5层层次就不会再发掘了。另外对用户而言,层次过于多阅读起非常麻烦。

总结:做SEO就是尽量满足蜘蛛的胃口,与蜘蛛弄好关键词是相当重要的。另外在做SEO的同时也要统筹到用户体验,毕竟用户体验也是SEO的1种方式。

本文原创于: 转载请注明来源

5 : 谷歌发布关于本地搜索结果的算法更新---鸽子1.0

什么是谷歌鸽子更新

7月25日,谷歌发布了针对本地搜索的重要算法更新,旨在提供更相干、更准确的本地搜索结果。针对这1算法,谷歌官方目前并没有给予正式的命名,但SearchEngineLand将其称为鸽子算法更新(Pigeon Update)。

鸽子算法其实不是独立于谷歌现有搜索算法的全新机制,相反,它正是基于谷歌现有的成熟搜索算法,专门为本地搜索而打造的算法机制。它影响的是本地化的搜索词, 体现在谷歌地图搜索和本地相干的页搜索中。固然,鸽子本地搜索排名算法也包括了数百个小的排名影响因素,还包括了知识图谱,拼写纠正,同义词搜索等等。

目前,鸽子算法只针对美国站的英语搜索结果,还没有推行到其他国家的搜索结果。谷歌并未流露很多关于鸽子更新的细节内容,但肯定的是这1算法将会给寻觅本地内容的人们带来更好的搜索体验。

鸽子算法更新名字的由来

谷歌针对本次的算法更新目前并没有给与1个正式的命名,也不知道谷歌内部对此次算法的叫法。鸽子算法这1命名实际上是来自 SearchEngineLand。选取鸽子这个名称的缘由主要出于对本地搜索算法的强调,由于鸽子1般都只是在家附近徘徊飞翔,即便离家很 远,也要努力的飞回去。另外,鸽子这1称谓与之前谷歌动物园式的算法命名机制也保持了1致。但是,我们不能肯定谷歌官方会不会采取这类称谓。由于上次 的熊猫更新初被SearchEngineLand叫做farmer update,但后来谷歌正式命名为熊猫更新。

鸽子更新对搜索结果的影响

从目前来看,此次鸽子更新后,本地搜索结果中排名有明显上升的是本地点评和列表类站,比如Yelp, TripAdvisor等,乃至出现了在首页上存在多个不同Yelp页面的情况。这对Yelp等点评、列表站来讲是值得高兴的。但是对某些提供本地 服务的中小站来讲,这或许会是1场不小的打击,由于想要在本地搜索中让自己的站排名到首页变得更难了,也许借助于Yelp等本地点评、列表站平台排 名到首页相对容易1些。

经量多有血块怎么办
月经后期咖啡色物怎么办
经间期出血的病因
本文标签: