Определение качества внешних ссылок: алгоритмы

Доброго времени суток, товарищ. В этой публикации я хотел бы изложить свой взгляд на построение ранжирования сайтов.
Как поисковая система отделяет зерна от плевел? Как учитываются ссылочные факторы ранжирования? Где проходит отделение сайтов качественных от продвигающихся спамными методами? На эти вопросы постараюсь ответить в статье.

Читать позже
Этот материал предназначен для аудитории понимающей терминологию seo, уровень - средний и выше.
 

Введение в Анализ данных

Какое-то время (2-3 года) я занимаюсь анализом крупных выборок данных* по запросам к поисковым системам. Были эксперименты по анализу до 150.000 ключевых слов и их показателей. Данные выгружались из статистики посещаемости сайта и затем добирались поэтапно интересующие меня данные. В определенный момент я сделал вывод, что данных всегда больше чем необходимо, а время на их выгрузку существенно бьет по свободным ресурсам. В результате я сформировал для себя правило каскада - получать только те данные, которые позволят мне сужать область выборки перед получением последующих данных (разбивка на итерации).
 
Сейчас покажу, как это работает и в алгоритмах поисковых систем.
 

 

Теория алгоритмов проверки ПС

Поисковый алгоритм - набор машин, которые постоянно сканируют сеть и кормят себя новыми данными, всеми, которые считает необходимыми.
Но ее работа также подчинена физическим ограничениям. Поиск не может получить данные сразу все. Поэтому на накопление отдельных массивов (и обновление) данных уходит разная продолжительность времени. 
 
- Зачем накапливать данные? - Чтобы постоянно улучшать поисковую выдачу. - Зачем некоторые данные получать раньше других? - Чтобы не пропустить важную новость, которая может интересовать пользователя вводящего поисковый запрос. То есть когда человек что-то спрашивает, поисковая система сразу отвечает на вопрос, потому что в ее базе связей определенные слова уже связаны в отдельный массив, который является наиболее актуальным и полным ответом на вопрос пользователя.
Так вот, после накопления данных проходит анализ и информация о связях сохраняется в основном индексе, но об этом позже.
 
Доказательство того, что данные собираются и анализируются постепенно - современные алгоритмы антиспама поисковых систем. Исследования коллег показали, что достижения топа методами охарактеризованными как спам - влечет за собой бан. Но сайт прежде чем уйти в бан - попадает на какое-то время в топ. В Google это в среднем до 2х недель. Бан сайта бывает разного степени критичности и на это влияет обработка данных поисковиком.
 
Но замечено, что некоторые виды веб-спама отличаются особой стойкостью к алгоритмам, так как не задевают некоторые типы проверки данных. То есть проверить данные поисковая система может быстрее или медленней (в зависимости от некоторых событий).
 
Так мы подошли к понятию "инициирующее событие" - такое событие, которое приводит к перепроверке отдельных или полных массивов данных по отдельно взятому сайту. Какие факторы отвечают за такую проверку сайта в поиске? - Те которые оказывают четкое и определенное значимое влияние на ранжирование (либо совокупность таковых факторов).
 
С теорией здесь немного притормозим и перейдем к практическим примерам.
 

Виды веб спама, его определение

Не так давно Google опубликовал информацию касательно всплесков разных видов спама в разные годы. Эти всплески безусловно искажали выдачу во благо заработка особо передовых веб-мастеров от разных "ниш" и "школ" SEO. Здесь не могу не сослаться на замечательную статью Александра Люстика и некоторые выводы из нее http://seom.info/2013/03/10/google-spam-war/
  1. Спам делится по группам
  2. Отдельные виды спама классифицируются по действиям свойственных для спамеров этой группы
  3. Есть более и менее распространенные способы спама и их модификации.

 

В данный момент в нашей компании TopOdin, совместно еще с несколькими дружественными нам компаниями среди специалистов собраны и расфасованы по группам отдельные спам-инициаторы. Вот основная их масса:
  1. Оптимизаторы
  2. Дорвейщики
  3. Конкуренты
  4. Другие социальные группы (вебмастера, пользователи)

 

Каждой группе отнесены отдельные техники веб-спама, которые влекут за собой совершенно определенные и исчисляемые изменения на сайтах внутри и снаружи.
 
Для меня, в первую очередь интересны техники позволяющие выявлять качественные площадки для построения сильного конкурентного бренда компании, потому, прежде всего (опираясь на технику из введения) я построил спам-инициаторов как воронку, пройдя по которой и не попав в брак, любой сайт имеет право с большей степенью вероятности считаться качественным. 
 
Воронка отсева качественных рекламных доноров направлена на выбраковку лучших сайтов, путем поэтапного отбрасывания некачественных сайтов:
  1. Определение вероятности того, что сайт занимается спамом
  2. Определение передаваемого статического веса
  3. Определение передаваемого динамического веса
  4. Определение вероятности перехода по ссылке

 

Как выбрать сайт тематически близкий к вашему

Необходимо спарсить результаты выдачи модерируемого каталога фирм по отдельной тематике из отдельного региона
 

Определение спамных площадок рекламных доноров

Доподлинно известно, что некоторые сайты не передают ни статический вес (по показателям), ни динамический вес (по словам ссылки), если они маркированы поисковой системой как спамные.
Спамный сайт это тот, у которого ссылок исходящих много, а входящих мало. Или входящие равны исходящим, и даже качественны, но сайт ссылается на не качественные площадки, поэтому - попадает под фильтр не учета исходящей ссылочной массы. Подробнее про классификаторы некачественных сайтов можно почитать в таблице, в которой описаны паттерны поведения (особенности и отличительные маски) основных спамных кластеров сети.
 

Отделение сильных по авторитету сайтов от слабых

Изначально задаем фильтр: ТРАСТ от 50, спам до 5, Google ссылки сайта - да.
CTR в SERP Yandex * (отношения трафика к страницам в поиске (маленький сайт) * интерес пользователя)
((SWtry/SWsey)*100)*((LImh/YaIdx)*(LImh/LImv)) = Качество
 
Остались не учтенные поведенческие и ссылочные факторы, при этом вероятность перехода по ссылке с такого сайта максимальная, так как формула учитывает активность пользователя на сайте.
Так как я предварительно применил сортировку по ссылочному антиспаму, то мой результат дал очень интересную выборку доноров из сапы.
 
вот первые результаты исследований:
http://www.u-st.ru/
http://i-kamin.ru/
http://gexa.ru/
http://www.teplograd.ru/
http://www.arkor.ru/
http://www.avventa.ru/
http://www.elcomspb.ru/
 
Это выборка по формулам и сортировкам из 3500 сайтов выборки (изначального фильтра выше) моим алгоритмом. Я думаю сложно отрицать, что каждый из этих сайтов является очень интересным и качественным.
 
Что это дает? Из сапы можно выкупать ссылки с сайтов такого качества. А сверху применить дополнительно отдельный парсер написанный для определения тематики отдельных страниц донора и усредненной тематики, а также некоторых других показателей.
По качественной "верхушке айсберга" с четко тематических страниц можно скопом купить ссылки, и дальше последним автоматическим механизмом (sape master) можно отбросить сайты, которые размещают ссылки не на первом экране прокрутки.
 
Потенциал возможности перехода по такой ссылке очевиден, если вы внимательно читали формулу. Далее закупаем ссылки с максимального числа релевантных страниц нескольких десятков выбранных сайтов с разными анкорами. Готово, - наш сайт засчитан их первоисточником информации и инфо-лидером.
 
При этом ссылочного взрыва не будет, сколько ссылок не закупалось бы, по причине того, что ip адресов мало, а ссылок с них много. Это и есть обходит фильтра на массовый спам. Также стоит отметить, что купить ссылки со всех страниц не у крупного сайта намного проще, чем у портала и время на определение тематики каждой страницы небольшое выходит. Следовательно легко стать витальным сайтом по нише.
 
 

Как выбрать оптимальное место для ссылки с сайта

При методологии быстрой и следовательно менее качественной оценки стоит брать в случайном порядке 3-5-10 или более количество страниц с сайта, проверять их тематику путем лингвистического анализа и затем принимать решение - покупать ссылку или нет (является ли тематика этого сайта четко определенной или нет).
При более прагматичной оценке стоит выбирать сайты с ограниченным числом страниц, например до 100 или до 1000, затем проверять у них страницы на тематику, длину текста, кол-во исходящих ссылок со страницы. И выбирать страницу самую релевантную.
При максимально точном выборе страницы следует: проверить все страницы всех доноров на тематику, количество исходящих ссылок, количество текста и после этого покупать ссылку.
 
После покупки ссылки обязательно нужно проверить ее положение на странице. И по возможности страницу прокачать твитами и по методу ссылочной пирамиды. Также можно слинковать страницы с которых куплены ссылки между собой, но не замыкая при этом круг.
 
Что такое сравнение сайтов в топе по определенному ключевому слову по характеристикам?
Это метод позволяющий увидеть корреляцию показателей этих сайтов и установить точки критического не соответствия параметров нашего продвигаемого сайта остальному топу. При данном виде исследования необходимо исключать пороговые значения представителей топа, например из 10 анализируемых исключить по одному из показателей по 2 сайта (в суме 4) по показателю, который у нас явно отличается от конкурентов. Так можно найти коэффициент коррекции, который будет участвовать в последующей гонке сайтов при прочих равных показателях.
 
Выбор сайтов наиболее часто встречающихся в топ.
Собрав точный максимально широкий список запросов по определенной нише или ее сегменту (микро нише) - возможно сопоставить сайты, которые наиболее часто встречаются в топе по этим словам. Это покажет сайты, наиболее релевантные по текстовому признаку (источники идей для хорошего контента).
 
Кому и зачем нужны мои данные?
На основе моих выкладок можно составить определенные алгоритмы и программные комплексы, которые послужат цели превосходства в поисковой выдаче над конкурентами.
Как и для чего можно сопоставлять сайты чаще всего встречающиеся по тематическим запросам с сайтами наиболее авторитетными для своей группы запросов? - На пересечении этих двух выборок мы увидим:
а) черты характерные сайту качественному
б) черты характерные сайту наиболее точно отвечающему на конкретный запрос пользователя.
 
*KeyCollector
**Anka
 
 
Владислав Высоцкий (SEO) Topodin
Оцените статью: 5.0 (5)
Следующая статья: Плюсы и минусы в продвижении сайта-портала
Предыдущая статья: SEO АУДИТ САЙТА: ПОВЫШЕНИЕ ПРИБЫЛЬНОСТИ
Написать статью для вас?
Отправьте заявку на статью: если проблема окажется актуальной и массовой – мы опишем ее решение и разместим статью на сайте.
Хочу статью
При заказе
продвижения
Скидка на
разработку
сайта
Заказать
Приведи
друга
получи
скидку
Подробнее
Специальное
предложение
против
вируса
Получить кп
Комментарии
Пока нет комментариев
Написать комментарий
captcha

Новые исследования

2020-01-21 00:00:00

Колдунщики и специальные элементы: польза или «польза» для сайта

Главная задача оптимизации сайта – занять лучшее место на первой странице поиска из всех возможных. Причем в конкретном случае мы не имеем в виду ТОП-1 или ТОП-10.
Читать 129

2019-12-15 00:00:00

Google отбирает трафик у сайтов: подтверждения и как сохранить посещаемость

Поисковая система Гугл регулярно вносит изменения в работу собственных алгоритмов. Еще на майской конференции  Google I/O 2019 анонсировали изменения для мобильных версий сайтов, которые предположительно приведут к монополизации трафика этой компанией. Но, как говорится, чем дальше в лес, тем больше дров. Оптимизаторы на многочисленных публичных мероприятиях высказывают опасения, находящие подтверждения, по поводу концентрации трафика на поисковой выдаче. Поскольку угроза для работы сайтов кажется вполне реальной, стоит разобраться в вопросах допустимости монополизации трафика, а также возможностях противостоять этому факту.

Читать 129
Больше исследований

Интервью и мнения SEO-гуру

Для глубокого погружения в профессию оптимизатора, мы настоятельно рекомендуем совмещать чтение с просмотром видео.

Евгений Аралов: главные прогнозы на 2020 (сервисы и методы)

Далеко не каждый специалист может быстро и качественно продвинуть сайт в непростой тематике. Например, букмекерская площадка для ставок в спорте, где SEO чуть ли не ед...

Анализ SEO для СМИ: ведущий эксперт отрасли Галина Бакушева

Для одних Галина Бакушева ассоциируется с каналом Телеграм «Сеошница», для других, она создатель собственного ТВ на фейсбук. Однако такая популярность не г...

Ксения Пескова: качественный продукт приятно рассматривать даже краулерам

Всего два года потребовалось, чтобы стажер SiteClinic, Ксения Пескова, стала не просто тимлидом компании, но и трастовым экспертом в области SEO. Все началось почти ср...

Кирилл Рамирас: лучшие рекомендации по ведению блога для ИМ

Кирилл Рамирас интересен владельцам бизнеса в сети своими успешными проектами, опытом работы в SEO с 2007 года. Регулярное обновление публикаций на Altblog.ru &nd...

Алексей Алексеич: рост и боль в продвижении 2020 - какие прогнозы сбылись?

Сам о себе говорит, что он точно не Андрей, любит котов и смотрит «Битву Престолов». Если серьезно, эксперту 25 лет и с 2011 года основательно занимается с...

Андрей Буйлов: проблемы seo клиента не волнуют!

Андрей Буйлов – известный в сети эксперт по SEO продвижению сайтов. Свою карьеру начинал в конце 90-х. Тогда будущий спикер разнообразных конференций, семинаров ...

Все интервью
Нам доверяют крупные международные компании