Рейтинг Форекс Брокеров 2016

Помоги сайту, поделись ссылкой с друзьями!    :-)   → Форум ←   

Как избежать бана / фильтра в Google и Yandex

На данный момент алгоритмы поисковых систем достаточно активно борются с поисковым спамом. Как же не получить бан или не попасть под фильтр и пессимизацию?

Внешние факторы.

Самая главная ошибка в построении внешнего ссылочного (линкбилдинге) - повторяющиеся анкоры.

Давайте посмотрим как поступает большинство оптимизаторов:

Берется список нужных запросов и с помощью него формируется анкор лист. По логике "чем жирней запрос - тем больше ссылок" распределяется бюджет. При среднем бюджете в 30-50 тысяч рублей через Sape покупается довольно приличное количество ссылок. Даже при закупке качественных ссылок с трастовых ресурсов такая стратегия неизбежно загоняет сайт под фильтры. Если использовать Miralinks и Gogetlinks отрицательный эффект может быть не такой явный, а при должном выборе доноров может даже быть и плюс. Но общий эффект по сравнению с адекватным ссылочным продвижением будет низким.

Например, если посмотреть на ссылочный профиль www.amazon.com (для этого идеально подойдет ahrefs) - можно увидеть большинство ссылок безанкорные. Если у вашего сайта количество безанкорных ссылок стремится к нулю, то в глазах поисковых систем это выглядит, как минимум, подозрительно. Для информационных сайтов количественное соотношение безанкорных ссылок может быть ниже (до 30-50%), но пренебрегать ими не стоит.

Примеры безанкорных ссылок:

и т.д.

Например, для сайта «Верхневолжского кирпичного завода» безанкорной ссылкой будет - www.vvkz.ru.

Вторая ошибка при продвижении и раскрутке сайта - большое количество ссылок с сайтов с низким трастом (в бирже Sape подобных сайтов огромное количество). Сайты не несущие никакой пользы для посетителей, единственной целью которых является продажа ссылок и показ рекламы - достаточно бодро фильтруются поисковыми системами, автоматически либо вручную.

Третья ошибка - при большой ссылочной массе, отсутсвуют отсутвуют ссылки и переходы из социальных сетей.

Внутренние факторы.

Переспам - многократное повторение ключевых слов в тексте, метатегах или меню сайта. Текст сливающийся с фоном, выскакивающие окна, скрипты-редиректеры — все перечисленные приемы находятся в зоне повышенного риска. 

Скрытые блоки и скрытый текст - поисковики в последнее время относятся к ним достаточно толерантно, но злоупотреблять ими не стоит, а тем более вписывать в них ключевые слова.

Метатеги Description и Keywords - правила хорошего тона говорят что лучше все-таки их заполнять, но необязательно.

Неуникальность контента - спорный фактор. При правильной "готовке" неуникальных текстов (редактировании, расстановке заголовков, перелинковке) отрицательный эффект от неуника сильно снижается. Однако, если вы добавляете на сайт множество неуникальных текстов просто для того чтобы проиндексировать страницу и продавать с нее ссылки - риск попасть под фильтр будет высоким. Для сайтов ориентированных на трафик грамотно написанная неуникальная статья может быть гораздо полезнее уникального бреда написанного копирайтером работающему по тарифу 1000 знаков / 1$. При использовании ссылочного можно добиться не только индексации, но и хорошего ранжирования неуникальных статей. 

Также негативно могут сказаться - тяжелые или неуникальные шаблоны, медленная загрузка сайта, неоптимизированные изображения.


Отзывы   

 
ака Мика
0 ака Мика 30.03.2014 16:51
Если изначально делать сайт на неуниникальных текстах есть шанс что он даже не проиндексируется...
 
 
ау
0 ау 23.03.2014 18:51
за скрипты и скрытые блоки не банят, но продвинуть будет сложнее..
 
Торговля на FOREX сопряжена с высоким риском | При копировании материалов ссылка на источник обязательна.
Отказ от ответственности. Реклама. Обратная связь © 2008-2016 Рейтинги ФОРЕКС брокеров «ForexTactic.ru»

Яндекс.Метрика