Первый фильтр с которым сталкиваются молодые сайты это Песочница. Обычно применяется к молодым, не давно созданным сайтам, буквально появившимся в течении последнего полугода. Благодаря (мне это не сильно нравиться) этому фильтру страницы сайта не попадают в результаты поиска по высокочастотным (ВЧ) фразам, хотя по низкочастотным (НЧ) фразам сайт может присутствовать в выдаче. Сайтмолодыми сайтами, что они выходят из песочницы в массовом порядке. Т.е. срок песочницы определяется не индивидуально для каждого сайта, а для больших групп сайтов (сайты созданные за какое-то время попадают в одну группу). Спустя какое-то время, фильтр снимается сразу для всей группы. Выходит что, сайты из одной группы пробудут в песочнице разное время. Существует несколько признаков по которым можно определить, что ваш сайт находится в песочнице: может находиться в песочнице от 3-х месяцев до года и более. Существует предположение, основанное на наблюдении за
Для того, чтобы сайт поскорее выбрался из «песка» нужно чтобы на сайт появилось побольше естественных авторитетных ссылок. Это часто бывает не очень просто, а иногда и практически невозможно. Тогда можно попробовать расширить контент сайта, чтобы взять не качеством а количеством на редких фразах.Одинаковый текст ссылок на ваш сайт. Фильтр Bombing
Применяется к сайтам, которые имеют большое количество ссылок на сайт, содержащими один и тот же текст. Поисковик Google справедливо полагает, что это неестественно, так как везде текст ссылки одинаков. Если Google уже применил этот фильтр, я думаю, что наверное лучше всего будет написать запрос в службу поддержки на повторное включение сайта. Сам собой напрашивается вывод, при регистрации вашего сайта в каталогах, уделяйте внимание тому, чтобы у вас были разные анкоры и опять же используйте разные анкоры, при покупке ссылок.
Страницы сайта считаются не хорошими, когда и каким образом? Фильтр дополнительные результаты
После индексации страниц вашего сайта Google может поместить их в под-индекс. Страницы сайта перемещённые в то место, Google считает их не достойными, но они используются тогда, если у Google не хватает хороших страниц для выдачи на запрос. Чтобы не попасть под этот фильтр обычно достаточно нескольких входящих ссылок.
Фильтр, зависящий от возраста домена
Можно сказать, что этот фильтр имеет много общего с «песком». Многие оптимизаторы считают, что чем старше домен, то он имеет большее преимущество, так сказать «вызывает большее доверие у поисковиков, чем только что появившиеся. Повлиять на эту ситуацию очень трудно, но это можно поправить, если на вас будут ссылаться авторитетные сайты. Можно еще стараться перекупать старые домены.
Понижение рейтинга вашего сайта. Фильтр -30
Этот фильтр применяется Google к сайтам, использующие нечестные чёрные методы, дорвеи и редиректы посредством установки JavaScript. Когда Google находит это на вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы снять этот фильтр, как правило, достаточно убрать редирект.
Неуникальное содержание вашего сайта. Фильтр дублирующийся контент
В сети большое количество сайтов, которые размещают на своих страницах контент, уже опубликованный на других сайтах. Если ваш сайт попал под этот фильтр, тогда сайт обесценивается и он может попасть в “опущенные результаты”, то есть ваш сайт оказывается на «задворках» выдачи по ключевому слову или фразе. Приложите максимум усилий, чтобы не было дублирующегося контента. Можно попробовать написать письма тем, кто опубликовал у себя ваш контент, с просьбой убрать ваш контент. Также можно написать компании, которая предоставляет услуги хостинга их сайта. Также нужно написать «абузу» на их сайт Google. Но я рекомендую писать письма с жалобами в том случае, если вы на 110% уверены, что это именно ваш контент, как показывает практика это далеко не так и этими действиями вы вполне можете сделать только хуже своему сайту.
Понижение результатов выдачи. Фильтр опущенные результаты
Страницы вашего сайта могут попасть под фильтр опущенные результаты, в таком случае можно сказать, что фактически страницы вашего сайта выпадали из поиска. Почему же это произошло? Объясняется это недостатком входящих ссылок, кА уже отмечалось ранее это дублирующий контент, дублирующиеся заголовки разных страниц (что является очень важным) и метатеги, а также слабая или вовсе отсутствующая внутренняя перелинковка страниц сайта. Но можно поправить ситуацию, выйти из под этого фильтра, что для этого рекомендую сделать:
Множество исходящих ссылок на сайте. Фильтр ссылочные фермы
Ссылочные фермы ещё по-другому говносайты (или страницы), которые содержат огромное количество ссылок совершенно различной тематики, перелинкованные между собой беспорядочно, которые созданы для поисковых роботов, но никак не для людей. Присутствие вашего сайта в подобной ссылочной ферме с высокой вероятностью может существенно понизить позиции сайта или вообще сайт может «выброшен из индекса» или другими словами забанен. Чтобы не попадать под этот фильтр не участвуйте в подобных ссылочных фермах.
Когда «плохие» сайты ссылаются на вас. Фильтр социтирование
Google отслеживает сайты, которые ссылаются на вас. Представьте что порно-сайт или онлайн-казино ссылаются на вас, тогда Google может посчитать, что тематика вашего сайта такая же. Это может существенно повредить настоящей теме которой посвящён сайт и он будет понижен в результатах поисковой выдачи по этой теме. Чтобы этого не случилось нужно тщательно в ручную выбирать места под покупку ссылок.
Много хорошо не есть хорошо. Фильтр много ссылок сразу
В последние время стала популярна авторегистрация сайта в каталогах. В этом случае можно попасть под этот фильтр, который блокирует сайт когда у него слишком быстро растет число внешних ссылок. Это может привести к самым ужасным последствиям полному бану сайта всеми поисковиками. Чтобы этого не произошло следует очень аккуратно покупать ссылки и не пользоваться авторегистрацией сайта.
Спорный фильтр много страниц сразу
Предполагают, что количество страниц у нормального сайта не может увеличиваться слишком быстро:
Если у сайта количество страниц увеличивается очень быстро, то это расценивается Google как искусственно сгенерированный контент не достойный внимания поисковика. Некоторые считают что 5000 страниц в месяц это предел, однако многие полагают, что эта цифра может зависеть от различных факторов. Я также присоединяюсь к мнению, что нельзя одназначно считать 5000 это предел, знаю такой форум, где каждый день добавляется более 500 страниц и все они учитываются Google. Правда, если этот фильтр сработает, то может быть помещение страницы сайта в “опущенные результаты”, а в некоторых случаях к полному бану сайта.
Если ваш сайт автоматически генерирует страницы, используя информацию из открытых источников, делайте так, чтобы новых страниц не было больше 5000 за календарный месяц. Конечно, это зависит насколько большой а главное известный у вас сайт эта цифра может меняться, как в плюс так и в минус, но всё равно нужно помнить что при чрезмерном увлечении создания страниц, можно попасть под этот фильтр.Этой страницы нет или фильтр битые ссылки
Если ссылка ведёт на несуществующую страницу, то поисковый бот не может попасть на неё и соответственно не может получить её содержимое, также дальше не может закешировать её и поместить в индекс. Если ваши второстепенные страницы не имеют ссылку на главную страницу сайта, то это может плохо сказаться на результатах поиска и на общих показателях качества вашего web сайта. Это не только плохо для SEO, но это говорит о плохо проработанном дизайне и юзабилити интернет сайта. Это может привести к снижению трафика и плохим позициям в поисковиках. Убедитесь, что все страницы ссылаются на главную страницу сайта, также что на карте сайта отмечены все ваши страницы и у вас не должно быть битых ссылок.
Важный параметр время загрузки
Я бы не назвал это фильтром, но по-моему разумению это очень важный параметр, который учитывается поисковиками. Представьте, что поисковый бот Google не дождался загрузки страницы в течение определенного времени, логично предположить, что он её просто пропустит. Значит, что страница не попадёт в индекс. Следовательно эта страница не попадёт в результаты поиска Google. Поэтому при создании страниц вашего сайта учитывайте, что размер имеет значение.
Фильтр объединяющий все вышеописанное это степень доверия
На мой взгляд, это концентрированный фильтр, который получается из всех предыдущих фильтров. Он называется степень доверия (Google Trust Rank) объединяет множество влияющих факторов. Из используемых факторов можно отметить:
Абсолютно каждый сайт проходит через этот фильтр и если ваш Trust Rank низкий, то это негативно скажется на ваших позициях в результатах поиска. Как молодой так и старый сайт могут иметь одинаково высокий или низкий Trust Rank. Для того чтобы его повысить оптимизируйте ваш сайт, чтобы повысить степень доверия.Бывает и такое, как чрезмерная оптимизация
В любом деле существует оптимальность. Вспомним царя Мидаса, который всё превратил в золото, или слова героя из кинофильма «Белое солнце пустыни» по поводу икры, что ему хочется просто хлеба. Чрезмерность всегда чревата какими-то последствиями. При чрезмерной оптимизации можно угодить под фильтр. Сюда могут попасть сайтысвоего сайта. состоящие сплошь из ключевых фраз, с чрезмерно высокой плотностью ключевиков, со слишком близким расположением ключевых слов, с перенасыщенными мета-тегами. Рекомендация очень проста, не нужно перебарщивать с оптимизацией
Автор: Климов Александр