Критический анализ

Эти загадочные поведенческие факторы... Легенды, слухи и ужастики о них (правда, в основном, речь идет о Гугле) ходят много лет; мол, поисковая система учитывает не только вполне понятные внешние ссылочные и внутренние контентные факторы, а и поведение посетителей на сайте – время пребывания, клики, прокрутки страниц и т. д. И никто толком не знал, как же оно влияет на позиции сайта – но все обсуждали. Прямо как мифический траст.

Прошло 5 лет – и об учете поведенческих факторов заговорил Яндекс. Естественно, весь рунет оживился; неужели у нас будут использовать какие-то непонятные факторы ранжирования кроме привычных покупных ссылок?! Сапа умрет?! Отбросив наиболее вероятную мысль о том, что это была на 99% мистификация от яндекса, попробуем разобраться, что такое поведенческие факторы, какими они бывают и как могут влиять на ранжирование сайта. Ну, и как это можно использовать для активного продвижения, а не просто для анализа и досужих разговоров.

Целью введения учета ПФ являлось желание поисковых систем избавиться от всевозможных манипуляций ранжированием в выдаче – ведь и внутренней оптимизацией, и внешними ссылками можно легко продвинуть в топ практически любой сайт, который не будет адекватным этой "вершине"; были бы деньги. То есть, теперь сами пользователи должны решать, релевантен ли сайт их требованиям и запросам. А дело поисковика – использовать формализированные (те, которые можно рассчитать математически и статистически проанализировать) критерии поведения этих пользователей как один из основных факторов ранжирования.

Преимущества метода:

- сложность манипулирования, ведь мы не можем влиять на посетителей непосредственно, и, как следствие, накрутка ПФ крайне усложнена (теоретически);
- объективность; выдача поисковой системы для кого предназначена? – именно для пользователей. Так почему б им самим и не оценивать ее качество?
- достаточно большая выборка для набора объективных статистических данных;
- возможность постоянной коррекции позиций страниц в выдаче, ведь поведение посетителей можно отслеживать фактически в реальном времени.

Недостатки:

- главный и решающий недостаток заключается в открытом до сих пор вопросе, каким же образом анализировать поведенческие факторы, если на сайте не установлена открытая система статистики (в идеале, принадлежащая самой поисковой системе, Яндекс.Метрика или Гугл.Аналитикс) или же у посетителей не установлены приложения от поисковика (бар, агент и т. п.). В таком случае могут быть лишь косвенные методы (клики по сайту из выдачи, куки, например), которые, естественно, сильно искажают реальную картину и не позволяют оценить многие параметры поведения человека на сайте.

- объективность метода на деле оказывается кажущейся. Многие посетители сами не знают, чего хотят (впрочем, как и в реальной жизни и в реальном бизнесе), следовательно, даже попав на качественный сайт, могут просто сразу его закрыть, не разобравшись, а сайт, соответственно, получит повышенный процент отказов. Этот недостаток можно нивелировать, тщательно отслеживая поведение пользователей и подстраиваясь под большинство из них.

- метод может быть относительно объективным в случае порталов и информационных сайтов, но в случае, например, с интернет-магазином может дать сбои – человек пришел за конкретным товаром, купил его в два клика и ушел с сайта. Формально, раз быстро ушел с сайта, значит, сайт ему не понравился, фактически же он нашел искомое. То же самое может касаться сайтов со скачиваемым контентом и различных проектов с узкой специальной тематикой, которые часто попадают в топы по нетематическим запросам и имеют не полностью целевую аудиторию.

Как видно, преимущества вполне существенные, но и недостатков хватает – и сложно сразу сказать, что же выходит на первый план. Особенно сложно это определить при условии отсутствия официальной информации от поисковых систем касательно конкретных систем реализации. Чтобы провести серьезный эксперимент, нужно имеет "под рукой" большие объемы самого разнообразного трафика, как поискового, так и иного, а разбрасываться посетителями мало кто может себе позволить ради чистой науки...

Надо помнить одно. В настоящее время (середина 2012 года), как и раньше, основными факторами ранжирования в яндексе являются традиционные показатели – ссылки, внешние и внутренние, оптимизация сайта и его контент. Несмотря на утверждения многих вебмастеров об усилении влияния поведенческих факторов, их роль все равно является корректирующей, дополняющей. Не более того.

Итак, основным фактором поведения посетителей является показатель отказов.

Показатель (процент) отказов считается основным фактором, так как легко формализуется и контролируется. Гугл определяет понятие отказ, как факт покидания посетителем сайта после просмотра лишь одной страницы. При этом же дальше пишет, мол, страницы должны быть максимально релевантными запросу. Сразу же появляется внутреннее противоречие – если страница на 100% релевантна и соответствует запросу пользователя, то ситуация, когда он, посетив только ее, уйдет вполне удовлетворенным. Вероятно, оценивается также время пребывания его на данной странице, прокрутка текста, выделения и т. п., но как-то уж оно все сложно и сомнительно, ведь требует от владельца сайта установки тонкой настройки статистики, а это ущемляет права других.

Следовательно, в Гугле бывают ситуации, когда сайт имеет вылизанные и крайне релевантные страницы, но процент отказов высокий. Посетителю нужна именно эта страница; если он конкретную информацию, он ее просто прочитает (или сохранит) и закроет страницу. Формально это отказ, фактически - практическая реализация абсолютной релевантности. Вот и получается, что достичь 20-30% отказов бывает очень сложно, чаще всего это число 40-50.

Яндекс пошел дальше и ввел явное время пребывания человека на странице, больше которого это посещение не будет считаться отказом – 15 секунд. Но его надо установить вручную в настройках счетчика Яндекс.Метрика... многие ли вебмастера это сделают?

Вот и прибегают многие авторы сайтов к ухищрениям, чтобы задержать пользователя на сайте, даже если ему это и не нужно. Ведь если он сделал пару кликов и хоть немного задержался, это уже не отказ. Например, можно разбить текст на несколько страниц. Можно чуть затруднить навигацию по сайту, правда, это чревато потерей посетителя. Куда эффективнее будет "подсунуть" ему под нос ссылки на похожие статьи (товары, услуги) или просто на какие-то интересные материалы на сайте, авось он кликнет. За рубежом многие доходят до того, что приобретают специальные шаблоны дизайна и верстки, оптимизированные с целью понизить процент отказов.

Стандартная фраза у многих блоггеров, пишущих на тему сео – "контент должен быть уникальным!!!" и якобы эта самая уникальность должна обеспечить минимальный процент отказов. Смешно это читать. Уникальность контента как "вещь в себе" это полная ерунда, есть смысл говорить об уникальности представления контента, такая формулировка есть и у Яндекса. Создать уникальный текст в настоящее время не проблема. Написать самому, заказать профессионалам, переписать чужой текст с нуля, в конце концов, использовать какой-то генератор. А толку? Даже самый интересный, на 100% уникальный текст, выложенный в нечитаемом виде, не заинтересует практически никого. А тот же текст, скопированный (пусть даже незаконно, но это не есть парафия поисковых систем) и качественно оформленный с учетом психологических аспектов, привлечет куда больше внимания и уж точно задержит посетителей. Про генерированные или автоматически переведенные тексты молчу; уникальность у них может быть 100%, но пользы ровно 0%.

Итак, перечислим основные методы понижения процента отказов. В принципе, все это актуально для увеличения другого параметра – времени пребывания на сайте, а также, вероятно, для некоторых других поведенческих факторов. Про качество контента говорить нет смысла, это очевидно, и хорошие интересные тексты или сервисы могут затмить собой все недостатки.

Кстати, задумайтесь – ведь, по большому счету, все это нужно было и так делать, не думая о каких-то там ПФ. Просто для повышения качества сайта.

- подбор наиболее релевантных запросов и страниц. Это, конечно, нужно делать в любом случае, независимо от поведенческих факторов. Но и их это улучшит, с учетом нижеперечисленных методов.

- структурирование и форматирование текста. Правильное оформление семантических блоков и изображений позволит вполне естественным образом задержать пользователя на странице, ну, и заодно заинтересовать его предлагаемой информацией. Конечно, надо помнить о банальном юзабилити, читаемости текста в контексте общего дизайна и структуры сайта.

- размещение на видных местах сайта ссылок, в том числе и графических, на близкие по тематике материалы. Можно размещать даже внутри основного контента, или в виде баннерных вставок, или просто в виде контекстных ссылок. Пусть эти ссылки открываются в новом окне, в отличие от основных навигационных ссылок. Блоки ссылок "Похожие материалы" внизу статьи, как показывает практика, намного менее эффективны, чем контекстные.

- избавление страницы от лишних блоков. Например, от навязчивой рекламы, не приносящей значительного дохода, от слишком больших кнопок социальных сетей, от избыточной навигации и т. п. И уж, конечно, не замусоривайте сайт рекламой в виде всплывающих окон, яркой анимации, в общем, всем тем, что может вызывать желание сразу же закрыть окно.

- использование по максимуму расширенных возможностей учета поведения посетителя Google Analytics и Яндекс.Метрики. Детальное отслеживание чуть ли не каждого движения мышки может привести к более адекватной оценке действий пользователя и, следовательно, к понижению процента отказов (при выполнении всех остальных условий). Например, в Аналитике надо включить учет "событий", то есть, взаимодействий посетителя со страницей – клики по внутренним ссылкам, вкладкам, изображениям, заполнение форм, использование полосы прокрутки. Анализируя данные статистики, вы сами будете видеть, что именно надо исправить.

- "вылизывание" дизайна сайта. Тут важна как визуальная составляющая, которая может отвлечь посетителя от не самого лучшего контента, так и размер страницы (в килобайтах). Если страница будет грузиться очень долго, ее просто закроют. Нужно верстать сайт таким образом, чтобы даже без графических элементов контент был доступен в читаемом виде.

- ни в коем случае не размещайте плеер с играющей сразу при открытии сайта музыкой! Большинство посетителей сразу же закроют сайт, а многие вообще никогда на него не вернутся.

- вставка видео на сайт. Если оно будет интересным, естественно, время пребывания посетителя на странице увеличится ровно на длительность ролика.

- размещение (в умеренном количестве) кнопок для добавления ссылки на материал в популярные социальные сети и блоговые сервисы. Сетей этих сейчас развелось великое множество, поэтому ограничьтесь самыми популярными и обязательно включите в них те, которые принадлежат поисковым системам ("Гугл+", "Мой круг" и т. п.) Обязательно должна быть ссылка на твиттер, это ускоряет индексацию страниц сайта. Помимо влияния на поведенческие факторы, активное добавление пользователями ваших сайтов в социальные сети может принести неплохой трафик.

Как видно из сути самого понятия "процент отказов", на него могут влиять и внешние факторы, которые не всегда подвластны хозяину сайта. Например, большое количество ссылок на нетематических ресурсах приведут трафик, но посетители не будут заинтересованы в тематике сайта, следовательно, будут и отказы. А трафик можно, в конце концов, купить за копейки, и этот вариант куда более неприятный. Скорее всего, системы статистики поисковых систем такие накрутки контролируют, но трафик бывает разным. Вполне возможно, что скоро, когда/если влияние ПФ будет усилено, такие атаки на конкурентов и просто на топовые сайты станут довольно распространенными.

Бороться с этим сложно. Если массовый дешевый трафик можно фильтровать на уровне сервера, то с кликами по ссылкам ничего не поделаешь.

Как еще один из поведенческих факторов рассматривается посещаемость сайта. Скорее всего, поисковые системы не учитывают общий трафик как таковой – им слишком просто манипулировать. Также может быть парадоксальная ситуация, когда сайт растет потому, что у него растет посещаемость, следовательно, посещаемость растет еще больше вследствие роста позиций... получается рост по геометрической прогрессии и вечный топ. Влияние посещаемости наверняка более гибкое. Вероятно, статистика по трафику фильтруется, анализируется его источники, качество, и сайты с высоким процентом целевых посетителей получают плюс к позициям.

Процент возвратов на сайт – вполне объективный параметр сторонней оценки качества проекта, впрочем, он подходит далеко не для всех сайтов. Например, он будет высоким для литературных порталов, новостных и информационных сайтов, а также для интересных блогов. При этом, у интернет-магазинов он может быть низким, так как большинство людей совершают разовые покупки и довольно редко возвращаются в тот же магазин, если возвращаются вообще.

Манипулировать этим фактором просто – создавайте интересный контент и люди будут возвращаться. Оставляйте немного недосказанного, это будет интриговать. Завлекайте посетителей интерактивностью; дайте им свободу действий в плане комментирования и оценки материалов сайта. В конце концов, устраивайте конкурсы, это один из самых недорогих способов привлечения и удержания аудитории. Призы для конкурсов всегда с радостью предоставят спонсоры, если сайт будет хоть немного популярен.

Блоггерам и того проще; если в блоге пишется об актуальных вещах, он регулярно обновляется и не увешан рекламой с головы до пят, люди будут регулярно на него возвращаться. Проблему составляет RSS – благодаря ему материалы блога можно читать, не заходя на сам сайт. Но и это решаемо. Вариант отдавать по RSS лишь анонсы постов не является оптимальным. Куда интереснее завлекать людей на сайт для обсуждения публикуемой информации, для этого нужно настроить удобную и защищенную от спама систему комментирования. Или же использовать те же конкурсы.

Подытоживая вышесказанное, можно отметить, что даже при невысоком влиянии поведенческих факторов в настоящее время, нужно обязательно обращать на них внимание, анализировать и оптимизировать их, чтобы быть готовым к тому времени, когда они станут одним из столпов ранжирования.