[核心提示] 对常见的搜索流程习以为常之后,关于这个流程的一些基本问题就不那么容易发现了。所以,有时候要往回退一步,从本质的需求出发重新来审视一下搜索的产品设计。我们经常使用搜索,时间长了就习惯了现在搜索的流程:搜索——筛选(缩小范围)——找到满意的商品——点击进入详情页,如果没有找到满意的商品就换词继续搜索。
这里我要声明下:此操作方法不能给你每天带来几千上万的流量,对于那些大鳄来说不要喷我。我的这个方法每天或许能拿到200UV(每个关键字)就算不错了,要是一个店铺能找到10个这样的黄金关键字,那一天或许就是2000UV了,对那些大卖家来说这点流量屁都不是,但我相信大部分都是中小卖家,这点小流量够我们养家糊口了。在这里我们简单来算下每天带来200UV的好处吧,一年算拿到7万流量,转化1%,单价80,毛利20%,那一年能带来700单,5.6万收入,1.1万毛利(客观的分析)好吧算出来我自己也吓一跳,多出来的一万块我们可以去旅游可以买台外星人在或者能多推几次油。
这个时代也可以称为“导航时代”,Yahoo和国内hao123是这个时代的代表。通过人工收录整理,把属于各个类别的高质量网站或者网页分门别类罗列,用户可以根据分级目录来查找高质量的网站。这种方式是纯人工的方式,并未采取什么高深的技术手段。采取分类目录的方式,一般被收录的网站质量都比较高,但是这种方式可扩展性不强,绝大部分网站不能被收录。
作为SEO从业者,不仅要被搜索引擎抓取,还要被收录,最重要的是在收录后有良好的排名,本文将简单分析下搜索引擎收录网页的四个阶段。每个网站、每个网页的排名都是不一样的,看看你的网站处于哪个阶段呢?读完本文你会了解到以下信息:很多站长反应蜘蛛来访问了,但没有收录?为什么导出的链接越少,权重会越高?为什么很多网页会出现「秒收」的情况?为什么许多网站的内容被转载后,大站却能排到你前面?
最近国内SEO界有个概念炒得很火,叫[共同引用],也就是co-citation。起因就是卢松松写了一篇相关文章,然后被A5转发后,被大家广泛讨论。其实这个概念在Google SEO领域很早就被提及,我个人最早了解是在2012年12月,Rand Fish写了一篇文章来阐述[共同引用 co-citation]这个概念。在此基础上,我还要补充下最近又开始兴起的一个说法,叫[共同出现 co-occurrence]。 下面的内容将对这2个概念进行阐述,并且举出一些例子以及我个人的思考。
二年前,我写了《相似图片搜索的原理》,介绍了一种最简单的实现方法。昨天,我在isnowfy的网站看到,还有其他两种方法也很简单,这里做一些笔记。两个特征矩阵的不同之处越少,就代表两张图片越相似。这可以用"异或运算"实现(即两个值之中只有一个为1,则运算结果为1,否则运算结果为0)。对不同图片的特征矩阵进行"异或运算",结果中的1越少,就是越相似的图片。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
Google喜欢的17类内容:1. 采访 2. 列表 3. 知识库或资源中心 4.社交媒体内容 5.民意测验和调查 6.修订/更新 7.评论 8.对比 9.新闻 10.案例分析/研究 11.撰写一篇充满热情的评论性文章 12.讲故事 13.预言或预测 14.假设 15.无聊的和有趣的 16.比赛 17.定价
做好搜索需要什么样的境界,怎样才能做好搜索?虽然题目可能有些大,但这是我做搜索这段时间来一些很深但又很浅的感悟。说浅,看起来似乎很普通,说深,做好真的很难。经常和很多公司做搜索的朋友们聊天,也会和人讨论一些新的形态,其中看到一些观点1. 现有的搜索会被颠覆,颠覆其的多种多样,有app、有社交搜索、也有其他形态2. 搜索的技术会出现重大革新,远远领先于现有的产品一个时代3. 某某搜索要努力在短时间快速提升,达到某某的水准
相关统计数据表明:互联网上近似重复的网页的数量占网页总数量的比例高达29%,完全相同的网页大约占网页总数量的22%.研究表明,在一个大型的信息采集系统中,30%的网页是和另外70%的网页完全重复或近似重复的。即:互联网的网页中相当高的比例的网页内容是近似相同或完全相同的!搜索爬虫抓取会产生网页重复的类型:1.多个URL地址指向同一网页以及镜像站点。2. 网页内容重复或近似重复。
当初人们发现,搜索已成为网民获取信息的主要方式,而这种产品对国家安全战略是有重大影响的。搜索公司完全能决定网民看什么不看什么,这在传播上无疑是扼住了出口。靠国家投资过日子,就一定会缺乏动力,没有创业激情,而且做事情也会畏畏缩缩,举步不前。不如全部推向市场,按市场规律办事,没准还会有不错的发展。
无论是百度来路统计还是关键词,这些SEO数据是非常难控制的,需要强大的数据分析能力。因为每个站长工具的原理都有不同,数据来源是非常大的难题。如果要控制某一关键词的SEO效果,不能单单从SEO角度出发,还要考虑其商业对搜索引擎的影响,搜索引擎的算法天天变,谁也不知道算法的全部细节和未来变化。所以建议站长不必过分关注SEO数据,单纯的SEO没有前途。
前言:一件真事,朋友的朋友屌丝一枚,广州做过快递,后来京。不愿上班,在朋友资助下开始做淘宝,由于时间充裕且努力,头一个月收入达到4000块,昨天一起吃饭时得知的消息,感到意外,所以未来卢松松也会逐渐关注淘宝这一块,希望能帮到更多淘宝卖家。这篇文章为淘宝搜索负责人「鬼脚七」缮写的文章,应该说有较大的学习价值。本文分为四大类别:第一部分为:反作弊的知识。第二部分为:搜索功能的知识。第三部分为:搜索排序知识。第四部分为:搜索资源。
百度整合搜索上已经逐年完善,其中为了让用户更加放心的选择,百度对其高质量整合的资源加强了肯定,主要体现在“以上信息由百度整合提供”。资源信息的整合优势越来越明显,作为一名网络营销人员不得不去深入进行研究,抓准先机是关键。而百度搜索引擎算法的调整一切都基于用户体验考虑,百度中整合搜索更是体现了这一观点。那么,百度对整合搜索进行了那些拓展以及完善呢?
很少有人能关注到雅虎的SEO优化。没错,雅虎在中国的份额太少了,而且它很难给网站带来流量。不过最近卢松松观察了雅虎的「站长专区」,发现还是有很多价值的。完全可以运用到百度、Google当中。重要的是雅虎说的非常直白。有两个重要信息我认为值得分享一下
就一个正常的搜索引擎程序来说,从蜘蛛程序抓取网页数据,到最后显示在用户的搜索结果页面里,应该都是完成的计算机程序流程,而非人工筛选。 所以相对的就有些人,会利用计算机规则中的漏洞进行非法欺骗搜索引擎的行程,而这看似无害的动作,却可能引起搜索引擎的反感,进而对该网站进行惩罚。 每一个搜索引擎都有针对作弊行为的侦测程序