Траст в данном случае - это способ разграничить степень доверия поисковых систем к ресурсу. Безусловно, такие показатели, как статистика, тИЦ, PR важны для каждого веб-мастера. Но они показывают цитируемость ресурса в тематических сайтах, или его ранжированность в поиске. Этих показателей недостаточно, чтобы посчитать сайт надёжным интернет-ресурсом. То есть, в поисковой системе существует один или несколько критериев надёжности ресурса, доверия к нему. Это помогает поисковой системе отбирать наиболее релевантные запросу результаты, снижая риск таргет-спама (некачественного, а иногда ненужного содержимого в выдаче). То есть, трастовость сайта прямо влияет на позиции в выдаче, перекрывая другие критерии. Так как трастовость - это внутренний инструмент работы поисковой системы, то критерии проверки сайтов на трастовость закрыты от пользователей интернета. Так что определить, какова трастовость сайта, обычным пользователям не получится. Поисковые роботы сегодня могут выполнять многие вещи, анализируя работу сайта по сотням различных критериев, поэтому анализ трастовости сайта можжет рассчитываться множеством различных алгоритмов, причём формула рассчёта индекса доверия может зависеть от собранных роботом данных. Помимо автоматического определения, насколько тому или другому сайту стоит доверять, спорные моменты может решить человек. Самое важное здесь то, что на эту роль, помимо персонала, обслуживающего поисковую систему, может претендовать самый обычный пользователь интернета. Как так? Я уже упомянул, что роботы поисковых систем сегодня умеют анализировать сотни (а может, и тысячи) показателей. Одним из таких показателей вполне может стать онлайн-активность. То есть, робот, заметив активность посетителей, проявившуюся незадолго или во время своего визита (обнаружив, например, добавленную 0,4 секунды назад новость или комментарий), может может пройтись по сайту снова, более внимательно проверив активные его участки. Безусловно, робот не будет сидеть на сайте всё время, но в пределах лимита вполне может это позволить. Это конечно, же пример, и не стоит воспринимать его буквально. Зато буквально стоит воспринимать различные сервисы. Это код внешних сервисных систем, таких как Google Analytics. Такой код может следить за работой сайта и его посетителей чуть ли не в прямом эфире. И естественно, по поведению посетителя может определить нужность сайта по тому или иному запросу. Кроме того, роботы могут определять похожие сайты и сравнивать их работу. Вот такое длинное и растяжимое понятие трастовости. Вся сложность рассекретить способы проверки траста состоит в том, что под определение трастовости никаких специальных методик и алгоритмов может не создаваться. Такие алгоритмы могут быть динамическими, и могут вобрать всё, что только можно узнать о подопытном сайте.
Что может повлиять на траст?
Время, прошедшее с первой индексации поисковым роботом. Если, конечно сайт в индексе. Сайт, который длительное время попадает в выдачу без проблем - в какой-то мере надёжен.
Статистика. Естественные показатели траффика, иногда поведение аудитории. Если на сайте мало материалов и он находится далеко не в первых позициях в выдаче, то и траффик у него должен быть маленький. Не исключено, что при завышении траффика или резком его подъёме, а потом свале к низким показателям, трастовость может снизиться.
Человечность. Это, пожалуй, один из главных, и объёмных критериев трастовости сайта. Трастовый сайт должен быть удобен. Когда посередине экрана начинают мигать большие баннеры, вываливаются всякие поп-апы, куча всяких ссылок (часто ведущих на ГС) - такому сайту не то что доверять не хочется, оттуда вообще пора сваливать, чтобы не подхватить пару троянов (или уже поздно?). Кстати, о левом коде. Сайт с такой фичей не только рискует потерять траст, но и имеет все шансы попасть в бан. Дело не просто в оформлении сайта, а в том, сколько времени посетитель готов тратить на ваш сайт, и сколько раз он туда вернётся. Вполне этот посетитель может оказаться сотрудником Яндекса или Гугла.
Уникальность дизайна - не основной, но важный фактор.У каждого сайта должно быть своё лицо, пусть даже оно отличается от других в мелочах.
Уникальность контента - более важный фактор. Копирайт всегда надёжнее, чем рерайт, и доверия к первоисточнику будет всегда больше.
Регулярность обновления - залог жизни сайта. У сайта может быть мало посетителей, но если его регулярно обновляют, значит администрация сайта рассчитывает на его развитие, и такой сайт заслуживает какого-либо прироста траста.
Исправная работа - залог хорошей индексации и трастовости сайта. Поисковый робот, столкнувшись с ошибками, может неправильно обрабатывать страницы сайта, и следовательно, результат такой работы может быть ненадёжен.
Ссылки на ваш сайт тоже могут добавить траста. Например, ссылка из каталога DMOZ является трастовой для Гугла. И так далее.. Ссылки с сомнительных сайтов, и иногда проданные ссылки могут снизить трастовость,
Ссылки с вашего сайта тоже влияют на трастовость. Если вы разместите на своём сайте ссылку на авторитетный ресурс, в целом, или по ссылке релевантный вашей странице, или сайту, где поставлена эта ссылка, такой приём может повысить трастовость сайта. И, наоборот, ссылка на какой-нибудь дорвей или бессмысленную линкопомойку снизит траст.
Must have trust
Как видите, чёткого рецепта накопления траста может и не быть. Хотя... Трастовый сайт по сути создан для людей, имеет свои цели и предназначения, какую-то оригинальность, и востребованность (под этим словом я имею ввиду возвраты пользователей, а не траффик в целом.), и создан он должен быть не для стока траффика. Высокая степень доверия требует постоянности в некоторых вещах. И постоянным должен быть не только сам сайт, но и его перспективность дальнейшего развития. Естественно, что сайт одного дня не обзаведётся трастовостью, и, даже обзаведясь ей, вряд ли сможет держать стабильный траст.