Как Вы помните, один из наших недавних выпусков был посвящен SEO-мифам – технологиям, которые якобы позволяют быстро и почти без хлопот вывести сайт на вершины поисковой выдачи.
Надо сказать, что мифы эти возникают не на пустом месте: ныне действующие алгоритмы поисковиков достаточно сложны, но временами «народным умельцам» приходит в голову какая-то неожиданная идея, которая даёт шанс воспользоваться уязвимостью систем, продвинуть клиентские сайты в ТОП-10 достаточно быстро.
Другое дело, что возможности эти существуют очень недолго – Яндекс и Google учатся на ходу, вносят исправления в алгоритмы ранжирования, закрывают «дыры». В итоге, подобные технологии перестают работать. А легенды о том, что наверх выдачи можно прорваться быстрым способом - остаются.
И действительно, если оглянуться назад, то можно увидеть: был момент, когда прогон по каталогам успешно работал, позволял сайту получить большое количество бэклинков и подняться в выдаче. Точно также, был достаточно длинный период времени, когда оптимизация лишь одной главной страницы сайта и последующая её накачка внешними ссылками позволяли забраться в ТОП-10.
Какое-то время приёмы работали, но поисковые системы постоянно усложняют алгоритмы, чтобы не допустить манипулирования естественной выдачей. А вера людей в то, что можно найти какие-то уязвимости, быстро выскочить в ТОП, - живёт и будет жить.
Сегодня мы хотели бы коснуться ещё одной спорной идеи, которую вряд ли можно отнести к белым способам продвижения. Речь идёт о накрутке пользовательских факторов. Мы не включили данную тему в выпуск о SEO-мифах, потому что хотели поговорить об этом отдельно. Технология относится к числу сравнительно новых на рынке продвижения, и на её примере мы хотим показать, что «чёрно-серые» способы ведения SEO-работ – палка о двух концах. Они могут приносить пользу продвигаемому сайту, а могут причинять вред сайтам-конкурентам.
Итак, идея «народных умельцев» заключалась в следующем: если Яндекс и Google при ранжировании сайтов стали уделять внимание пользовательским факторам, значит, нужно потянуть за эту веревочку - просто «нарисовать» красивые показатели, и сайт вылезет в ТОП-10.
Немного о пользовательских факторах
Чтобы понять, как работает механизм накрутки, нам необходимо поговорить о пользовательских факторах. Ранее мы уже рассказывали: поисковые системы накапливают статистику о поведении визитёров на каждом конкретном сайте.
Давайте очень кратко перечислим наиболее важные количественные характеристики веб-ресурса.
1. Показатель отказов (определение мы уже давали, см.ссылку выше).
2. Среднее время пребывания посетителей на сайте (а также – какова процентная доля коротких сессий).
3. Средняя глубина просмотра страниц. Здесь отметим, что очень низкий показатель (близкий к единице) может означать либо то, что сайт неинтересен пользователям, либо то, что все визитёры быстро находят нужную информацию. Большая глубина просмотра (выше четырех-пяти страниц) может говорить либо о том, что сайт очень интересен, либо о том, что на нём плохая навигация, клиенты с трудом отыскивают нужную информацию. Соответственно, глубина просмотра - сама по себе – не является однозначным показателем, но вместе с другими пользовательскими факторами (ПФ) может сказать о многом.
Эти количественные характеристики рассчитываются непосредственно на сайте. Есть и другие показатели, которые анализируются на SERP (Search Engine Result Page, странице поисковой выдачи):
4. Кликабельность сниппета – о роли хороших (привлекательных, продающих) сниппетов мы рассказали в выпуске №32. Отметим, что если на странице выдачи по сайту кликают чаще, чем в среднем по всем веб-ресурсам из ТОП-10, это свидетельствует, что описание сайта заинтересовало потенциальных клиентов. А если кликабельность ниже, чем среднестатистическая по всей выборке на странице SERP, то сайт не привлекает внимания «потребителя».
5. Первый и последний клик по выдаче. Тут всё просто. Первый клик человек делает по тому сайту, который его заинтересовал больше всего, сразу притянул внимание. А последний клик – свидетельствует о том, что человек нашёл ответ на вопрос.
В чём смысл технологии накрутки?
Итак, теперь мы примерно представляем, какие факторы (которые достаточно просто подсчитать количественно) могут повлиять на позиции сайта в выдаче.
Как же «нарисовать» сайту более красивые показатели, чтобы прорваться в ТОП-10?
Пример. Сажаем человека за компьютер, просим его открыть Яндекс, ввести нужный нам поисковый запрос, после чего просим совершить переход на наш сайт. Далее «помощник» (будем ставить это слово в кавычки) некоторое время бродит по страницам, делая вид, что читает статьи.
Что мы получаем? Яндекс увидит, что некий пользователь ввёл запрос, на странице выдачи выбрал ИМЕННО ЭТОТ (а не другой) сайт, перешёл туда, провёл на сайте несколько минут и прочитал несколько страниц. Яндекс сделает вывод: со страницы SERP по данному ключевому слову ИМЕННО ЭТОТ сайт заинтересовал посетителя (релевантен его запросу).
Но одного «помощника» мало: у сайтов в ТОП-10 (особенно – по высокочастотным запросам) в день могут быть сотни и тысячи посетителей. Единственный «помощник» не способен существенно изменить показатели сайта, ведь алгоритмы поисковых систем проводят усреднение. Итак, необходимо посадить за компьютеры сотню, тысячу людей, которые будут выполнять процедуру, описанную выше.
Дорого!!! Это уже нерентабельно! Всем людям придётся платить, и такое продвижение в итоге окажется дороже, нежели обычное! Как быть? Заменить живых людей роботами. То есть, программой, которая будет с компьютеров пользователей имитировать действия обычных людей.
Как видите, рецепт оказался прост: нужно всего лишь найти достаточно большое количество исполнителей, которые за скромную оплату согласятся установить на свой компьютер специальную программу, имитирующую действия человека! Она будет сама открывать браузер, вызывать Яндекс, вбивать запрос в строку поиска, сама переходить на нужный сайт, имитировать чтение страниц... Такая программа способна исказить естественную статистику сайта, улучшить пользовательские факторы: и кликабельность сниппета на странице выдачи, и среднее время пребывания гостей на сайте, и среднее количество просмотренных страниц.
Что ж, в данном случае ручной работы от «помощников» не требуется – достаточно, чтобы установили программу на свой компьютер и держали его включённым. А это значит, что подобная технология может быть дешёвой – просто нужны исполнители. Можно ли найти таких людей? Скорее всего, взрослые состоявшиеся люди вряд ли станут заниматься таким делом. Но ведь есть и школьники, например, которым хочется заработать «копеечку на мороженое»…
Альтернативный вариант – использовать несколько офисных компьютеров для накрутки. В этом случае необходима дополнительная надстройка: программа будет «ходить» в Интернет не напрямую, а через подставные прокси-сервера, как бы имитируя действия пользователей с разными IP-адресами, находящимися в разных точках страны.
Даёт ли это ожидаемый результат?
Конечно же, это чистой воды фальсификация. Нужные показатели именно что «рисуются», они не соответствуют действительности. Как только Яндекс и Google поняли, что их попытка «играть» на поведенческих факторах сайта вызвала «контригру» - возникла необходимость опять модифицировать поисковые механизмы.
Встал вопрос: можно ли отличить живого человека от робота, имитирующего пользователя? Программы-накрутчики не тянут на уровень искусственного интеллекта, и в этом их слабость.
Каждый человек уникален. Открывая интересующий сайт, мы практически никогда не действуем по шаблону: отвлекаемся на телефонный разговор, на ножки соседки по офису, на коллег, которые подошли обсудить срочный рабочий вопрос. Мы можем на время оставить сайт – такое происходит и на работе, и дома, потому что:
- вызвало начальство;
- началось совещание отдела;
- пришли соседи;
- кот повис на занавеске и орёт, чтобы спасли;
- нужно попить чаю-кофе и т.д.
Более того, даже читая текст, мы действуем по-разному. Одни бессистемно двигают мышкой влево-вправо, другие хаотически крутят курсор по экрану, третьи выделяют фрагмент текста и пытаются перетащить его на новое место, четвертые – неосознанно кликают по пустому полю страницы. Мы можем закрыть сайт, решив, что это неинтересно, а через полчаса вернуться, потому что вдруг вспомнили какой-то пассаж из текста. Или даже вернуться просто потому, чтобы ещё раз посмотреть, какие туфли или сумочка у дамы на фото!
Все сервисы, которые существуют ныне, не в состоянии имитировать столь разноплановую деятельность живых людей. Робот действует более просто и прямолинейно: открыл браузер, вызвал Яндекс, вбил запрос, перешёл на требуемый сайт, стал делать вид, что читает страницу… Робот не отвлекается на кофе, на ножки соседки по офису, робот не крутит курсор по экрану и не таскает фрагменты текста. Робот даже мышку перемещает по экрану прямолинейно…
Конечно, можно сделать более сложную программу-имитатор, и тогда её действия уже не будут шаблонными, тогда распознать накрутки станет сложнее… Возможно, в будущем такая программа появится…
Однако те сервисы накрутки, которые существуют ныне (сервисы текущего поколения), эффективно распознаются поисковыми системами. Нужно ведь помнить и о том, что в Яндекс.Метрику встроена технология WebVisor, которая позволяет в ручном режиме (как бы глазами пользователя) посмотреть его путь по сайту, его действия.
А раз сервис накрутки не в силах сымитировать человека - искусственно сгенерированные переходы можно отфильтровать, а провинившийся сайт… и тут самое время процитировать Яндекс:
Мы уверены, что такие методы вредны для развития интернета. Мы считаем их поисковым спамом и предпринимаем соответствующие меры в отношении использующих их сайтов.
Яндекс настоятельно рекомендует владельцам сайтов, веб-мастерам и компаниям, предоставляющим услуги в области SEO, воздержаться от использования этого и других методов псевдооптимизации. Они бесперспективны и могут привести к потере вашим сайтом репутации и позиций в результатах поиска.
Стоит ли надеяться на сервис накрутки нового поколения, как на способ быстрого продвижения?
Допустим, робот-накрутчик очень искусен, он умело имитирует действия людей… Это значит, что Яндекс и Google тут же посадят группу разработчиков, чтобы найти «противоядие». Получается противостояние двух команд программистов, но на одной стороне «шахматного поля» - гораздо более солидные бюджеты (как Вы понимаете, у Яндекса и Google).
Задумайтесь: нужно ли Вам это? Выбирая данный способ продвижения, Вы «садитесь на иглу» и попадаете в полную зависимость от компании, которая предложила такую услугу. Но полученные поведенческие факторы – неестественные, «нарисованные». Как только роботизированный сервис отключат – сайт упадёт в выдаче. По сути, Вы будете вынуждены платить точно так же, как платили бы за контекстную рекламу. Но если Яндекс.Директ или Google AdWords – это вполне легитимные способы привлечения посетителей на сайт, то накрутки относятся к числу запрещённых приёмов (о чём недвусмысленно сказано в послании Яндекса).
Вы должны платить за такое продвижение, но ещё и рискуете попасть в чёрный список. В самом неприятном случае компания-исполнитель сможет шантажировать владельца бизнеса, который решил достичь результата нечестным способом.
Диалог мог бы выглядеть примерно так:
- Мы решили больше не использовать такую технологию продвижения, спасибо! Договор на услуги продлевать не будем!
- Ай, как это печально! Будет ужасно, если Яндекс случайно узнает, что вы полтора года занимались накрутками и фальсификацией. Наверное, ваш сайт навсегда попадёт в чёрный список… К сожалению, у нас много документов, подтверждающих это, логи серверов… И много сотрудников… Надеемся, утечки информации не произойдёт, никто не устроит вам бяку… Хотя, конечно, на 100% гарантировать не можем...
- Вы же должны отвечать за свой персонал!
- Люди приходят-уходят, уносят секреты…используют в своих целях...
- Что вы хотите?
- Нам было бы интересно продолжить сотрудничество. Ждём оплату за следующий месяц.
Это, конечно, вымысел, преувеличение. Но стоит ли подставляться, попадать в зависимость от исполнителя?!
Роботизированные SEO-войны: жёсткая игра на понижение конкурентов
Итак, поисковые системы научились отличать людей от сервисов накрутки, стали фильтровать искусственно сгенерированные переходы на сайт, искусственно улучшенные ПФ. Сайтам, которые используют подобные методы, поисковые системы грозят санкциями.
И тут в головах, не знающих покоя, возникла новая идея! Сайты попадают под фильтры?! Ага!!! Будем использовать сервисы накрутки не для того, чтобы поднять свой сайт в выдаче, а для того, чтобы уронить конкурентов! Можно «напустить» робота на веб-ресурс соседа и добиться его пессимизации!
А вот это уже более чем неприятно. Таким способом можно завалить «белые и пушистые» сайты, которые, как говорится, ни сном, ни духом. Честно работали, не делали ничего запретного, радовались, как растёт их онлайн-бизнес… Но вот кто-то решил расчистить себе место в ТОП-10…
Как Вы понимаете, этот метод ещё более грязный, нежели продвижение собственного сайта с помощью сервисов накрутки. И тут остаётся только вытереть пот со лба и сказать: Слава Богу, что поисковые системы научились отличать людей от сервисов-имитаторов! Слава Богу, что они могут вычислить нечестную игру конкурентов!
И пусть Яндекс и Google постоянно совершенствуют алгоритмы отсечения псевдопоказателей, иначе выдача превратилась бы неизвестно во что - «уничтожить» лидеров ТОП-10 было бы слишком просто.
Как видите, вопрос накрутки ПФ – достаточно сложный и многогранный. Именно потому мы призываем вообще не пытаться фальсифицировать поведенческие.
Попытка объехать всех на кривой кобыле может сработать на какое-то время, но рано или поздно всё равно придется начинать продвижение сайта и его рекламу белыми способами…
То есть - упорно работаем над сайтом, как мы уже не раз говорили... Что можно сделать?
Один из пользовательских факторов -кликабельность сниппета, и о том, как её повысить,мы рассказывали в предыдущем выпуске.
Далее - очень многое зависит от интересного текстового контента, фото и видео, привлекающих внимание, заставляющих подольше задержаться на странице.