Zanuda
Главная   Планы   Разное  
Главная »Разное »Доверие роботов

«Трастовость» сайта или доверие роботов

Ссылочная составляющая ранжирования, похоже, становится все менее значимой. Оптимизаторы огорчены. Еще недавно горстью жирных ссылок можно было поднять в выдаче практически что угодно, и мир SEO как-то обленился и расслабился. Все стало зависеть от ссылочного бюджета, все радовались, не задумываясь, что вечно так продолжаться не может. И вот... не то чтобы грянул гром, но ситуация понемногу начала меняться.

Тихое истребление мусора в индексах поисковых систем шло всегда. Поначалу вручную, но постепенно оттачивались и совершенствовались механизмы распознавания ненужных сайтиков. «Врешь, не возьмешь» – посмеивались ссылочные оптимизаторы и продолжали гнуть свою линию. Первым шоком был массированный бан каталогов ссылок. Яндекс провел эту «зачистку» так стремительно, что ее, не разобравшись, сочли очередным сбоем индексации. Так спокойнее, всегда легче считать свою неудачу «глюком Яндекса», чем принять к сведению, что робот уже перестал быть совсем тупым.

Не стоит забывать, что большинство людей, подавшихся в оптимизацию – не программисты и даже не сочувствующие. А знания в этой области все-таки нужны. Иначе невозможно даже навскидку прогнозировать дальнейшее развитие ситуации: для такого прогноза нужно знать, что возможно решить программно, что затруднительно, а что и вовсе нереально. Как это ни смешно, но большинство набежавших попросту «очеловечивает» поисковые системы. То есть, вместо попыток анализа их работы пытается приписать им человеческие мотивы и побуждения, при этом меря роботов своими мерками. Когда пачками вылетали каталоги, эти люди задавали вопросы на форумах в поисках простого решения проблемы. Им явно казалось, что достаточно сделать какое-то несложное изменение – и все вернется на круги своя.

Попытки объяснить, что анализ структуры сайта и его содержания для поисковиков сложности не представляет, вызывали у них только нервный смех. Мы ж люди, а они роботы, где им против нас... Задумываться о новых возможностях поисковых роботов как-то не хотелось. Такие раздумья все-таки требуют знаний – как в области программирования, так и в области математической статистики, а это скучно. А пока массы тешили себя надеждой на бессилие роботов, роботы эволюционировали. Не сами, конечно – роботов проектируют люди. Причем, люди неглупые и свое дело знающие хорошо.

И что это за профессия такая, прости господи! Сын лейтенанта Шмидта! Ну, год еще, ну, два. А дальше что? Дальше ваши рыжие кудри примелькаются и вас просто начнут бить.

Вскоре из индексов начали вылетать уже не каталоги, а пришедшие им на смену псевдосайты, набитые скопированными текстами. По блогам и форумам пронеслась волна заклинаний про «уникальный контент», но смотреть дальше носа по-прежнему не хотелось. А события развивались все быстрее, объяснить их с умозрительных позиций было сложно – и вот наконец раздалось слово «трастовость». Трактовалось это чудо как уровень доверия поисковиков к сайту. Вообще-то, это снова очеловечивание машины, но для умозрительной оценки сойдет.

И что мы теперь наблюдаем? Забавные вещи – представители Яндекса отрицают наличие «TrustRank» в алгоритмах, а некие шустрые личности уже предоставляют сервисы для его измерения. В попугаях, естественно. По косвенным данным, замеченным ими в выдаче Яндекса. Что именно замечено, конечно же, скрывают – это их ноу-хау. Один, впрочем, обмолвился, что учитывает по косвенным признакам частоту и полноту индексирования сайта. Только это вовсе не показатель – индексаторы не менее усердно бегают по забаненным сайтам, но в выдаче эти сайты не появляются, а ссылки с них приносят мало пользы. А зачастую и вред.

Самое забавное, что новое понятие пытаются использовать по-старому. Измерения «трастовости» служат лишь для того, чтобы выбирать продажные сайты с наиболее высокой репутацией и покупать ссылки с них. Инерция сильна, хочется и дальше двигаться по накатанной дорожке, эксплуатировать ссылочный фактор, пока он работает... а с другой стороны, что еще остается? Если, кроме скупки ссылок, под оптимизацией понимают только выделение ключевых слов тегом <strong> и навязшие в зубах 5–8% плотности ключевиков в тексте (кстати, и то и другое проходит по разряду мифологии SEO).

А пока идет подбор наилучших доноров для продвижения ссылками всего, чего угодно, поисковики тихо доводят свои алгоритмы. Научились ловить распространенные движки, шаблонную верстку, теперь добрались и до разбора текстов. Пока, правда, разбирают неуверенно, но постепенно качество анализа растет. Вылет свежеслепленных сайтов после одной-двух проверок вам о чем-нибудь говорит?

А ведь достаточно просто подумать, что доступно для программного анализа, а что нет. И что такое сайт для людей с точки зрения программы. Ясно же, что программу писали люди и заложили в нее свои представления.

Прежде всего, такой сайт отличается качеством. Коряво сверстанный сайт скорее всего принадлежит малограмотному человеку, которому нечего сообщить людям. Исключения крайне редки, они только подтверждают правило.

Вебмастер, заботящийся о посетителях, не станет размещать сайт на слабом и ненадежном хостинге, не перегрузит его бесполезными излишествами, позаботится о том, чтобы страницы грузились максимально быстро. Кроссбраузерность тоже учтет – да-да, господа, ваше «плевал я на Оперу, ей мало кто пользуется» в переводе означает: «мне лень сделать как следует, а на посетителей мне наплевать». Это бы сошло с рук создателю сайта всемирно известной фирмы, к которому доверие и так высокое, за счет авторитета фирмы. Но ваш пока еще безвестный сайтик – не официальный сайт Microsoft, его нужность людям еще не выяснена, о нем не напишут ньюсмейкеры, так что условия явно не равны.

«Уникальный контент» – словосочетание бессмысленное. Сейчас я пущу котенка погулять по клавиатуре и получится контент – уникальнее некуда. А толку? Поисковикам давно уже под силу разобрать ваш контент и проанализировать, много ли ошибок орфографии и пунктуации, уместны ли данные слова в общем контексте, не перепутаны ли падежи, много ли «шума». Так что о любимых синонимайзерах и прочих уникализаторах можно начать забывать прямо сейчас. Все это если еще и работает кое-как, то скоро перестанет работать.

В смысл текста робот, конечно, вникнуть не сможет, оценить его достоверность тоже. Но статистика распределения частот слов в тексте беспощадна, методика отсева «шума» и выборки действительно ключевых слов известна с середины XX века. Не знаю, кто первым запустил в массы байку об «оптимальном проценте ключевых слов», но уверен, что о законах Зипфа этот человек даже не слышал. Может быть, на каких-то ранних поисковых системах эти мифические 5–8% и работали когда-то, но сейчас уже не те времена. И распределение частот – не единственная возможная проверка, она только выдаст заключение, человеком ли написан данный текст.

— Так что же делать? — забеспокоился Балаганов — Как снискать хлеб насущный?
— Надо мыслить, — сурово сказал Остап. — Меня, например, кормят идеи.


Файлы или база данных?
Стремительные слонопотамы
Доверие роботов