Эволюция поисковых алгоритмов!

Поисковые системы очень серьезно переработали свои поисковые алгоритмы за последние сорок лет. Примитивное ранжирование постепенно превратилось в разноплановую проверку, задевающую все основные естественные критерии оценивания, которые только можно придумать. Сегодня каждая поисковая система в ответ на запрос выдает максимально соответствующую ему информацию, хотя на заре развития интернета найти нужную информацию было почти невозможно. Как же развивался интернет-поиск на протяжении этих лет? Чем он руководствовался? И, наконец, что ждет нас в будущем?

Во второй половине прошлого века, а точнее в 1994 году интернет-поиск возглавляла популярная на то время поисковая система WebCrawler. На тот момент он предоставлял информацию в абсолютно новом формате, в формате каталогов. Каталоги выглядели привлекательными по сравнению со ссылочным списком, который использовался ранее. На смену WebCrawler пришли другие поисковые системы, внесшие свою часть в развитие алгоритмов: Lycos и AltaVista.

На этом ПС остановили свое развитие и просто существовали до знаменательного 1997 года. Именно тогда два крупнейших гиганта — Google и Яндекс, начали свою деятельность. Они взяли за цель искоренить сеть от некачественного контента. Тогда, на рассвете сил, ранжирование опиралось на ключевики, прописанные в метатегах, таких как keywords. Уже через несколько лет специалисты компании Google перестроили всю работу своих алгоритмов: теперь на качество страниц влиял ее ссылочный «вес». Так появилось понятие внешней оптимизации сайта.

Разобравшись с принципами ранжирования ПС, многие вебмастера стали использовать не совсем честные методы в борьбе за высокие позиции. Именно тогда в интернете настал пик торговли ссылками. Некачественные ресурсы до сих пор могли обманывать поисковые системы и занимать довольно высокие места в поисковой выдаче. Эволюция поисковых алгоритмов требовала серьезной доработки. Так к ссылочному компоненту поисковые системы добавили показатель, отражающий их собственное отношение к ресурсу. Его назвали трастом. Траст рассчитывался и сейчас рассчитывается, опираясь на следующие значение: возраст домена, качество его информации за все время существования, честность (непопадание под фильтры) и другие параметры.

Делая предпочтение на тот или иной вид ранжирования, поисковые системы сильно проигрывали в качестве. В тот момент было принято единственно верное решение – объединить все критерии в своих алгоритмах.

Эволюция поисковых алгоритмов. Поведенческие факторы!

Все те критерии поисковых алгоритмов, на которые ПС обращали особое внимание, имели сугубо технический характер. То есть всегда найдется вариант «черного пиара». Поняв это поисковые системы решили, что необходимо делать уклон в сторону тех сайтов, которые, в первую очередь, будут интересными для пользователей. Алгоритм стал обращать внимание на поведение пользователей при просмотре сайтов. Новый алгоритм обрел название поведенческие факторы. На сегодняшний день все более пристальное внимание и доверие уделяется поведенческим факторам.

Эволюция поисковых систем. Будущее!

Что же может нас ожидать в будущем? Смотря на быстротечное развитие алгоритмов можно сделать вывод, что в скором будущем поисковая выдача будет строиться иметь индивидуальный характер для каждого пользователя. Все данные будут считываться из браузеров, и подставляться в алгоритмы. «Вес» страницы, возможно, потеряет свою актуальность! Необходимо также провести чистку недостоверной информации, чтобы не запутывать пользователя!