Пендальф белый каталог сайтов Регистрация Вход
Меню сайта

Заработок в сети

Раскрутка сайта

Наша кнопка

<a href="http://pendalf.ucoz.net"> <img src="http://pendalf.ucoz.net/b.gif" border=0 title="Пендальф белый каталог сайтов"></a>


Как проверить сайт на сопли гугла?

Как проверить сайт на сопли гугла?

За что сайты попадают в сопли Google, статья про сопли Гугла

Направленность ресурса - это семантическое ядро страниц и тематика сайтов под рекламные цели, активная раскрутка и привлечение целевых посететелей в Гугле и Яндексе. Как изготовить сайт без лишних расходов?

Дополнительный индекс Гугл, или сопли Гугла (Google Supplemental Index) - это самая распространенная причина резкого падения в позициях сайта в поисковой выдаче. Именно по этой причине на сайт перестает идти траффик по поисковым запросам и падает посещаемость. Все просто: на сайте НЕЧЕМУ хорошо показываться в SERP’е, а траффику НЕКУДА идти, поскольку целевые страницы Гугл поместил в сопли, они практически не участвуют в поиске. Занять высокие позиции при ранжировании и приносить поисковый траффик могут лишь страницы сайта занимающие основном индексе Гугла. В этой статье для SEO-оптимизаторов рассматриваются следующие вопросы:

  • как узнать, какие страницы находятся в основном индексе;
  • способ получить перечень страниц, находящихся в соплях;
  • как проверить сайт на сопли и установить причину пессимизации;
  • как узнать судьбу отдельной страницы, не попала ли она в сопли Гугла;
  • как СЕО-оптимизатору избежать попадания сайта в сопли;
  • а также некоторые SEO-шные мифы относительно соплей;

Как проверить сайт на сопли? Какие страницы в соплях?

Проверить, какие страницы сайта не подверглись пессимизации и НЕ попали в "сопли”, можно так (на примере этого ресурса): набрать в строке поиска в Гугле "site:com-seo.ru/*” (без кавычек, разумеется). Это и будет основной индекс Гугла, или проверка сайта на сопли в Гугле.

Чтобы узнать судьбу отдельной страницы, не в соплях ли она, достаточно взять часть ее заголовка TITLE и сделать следующее:
- оператором "запрос_из_заголовка site:com-seo.ru” убедиться, что страница есть в Гугле вообще;
- оператором "запрос_из_заголовка site:com-seo.ru/*” убедиться, что что она в основном индексе.

Посмотреть, какие страницы оказались в соплях, можно таким оператором: "site:com-seo.ru -site:com-seo.ru/*". При этом их число определяется неправильно, и надо долистать до последней, чтобы узнать, сколько их там. Это - балласт сайта, который тянет его назад и портит общее впечатление у Гугла. По мнению Google, хороший сайт состоит из хороших страниц, а плохой - из плохих, и с этим трудно поспорить.

Одна из бед "соплей” - что Гугол старается как можно реже обходить страницы в дополнительной выдаче. Поэтому, даже исправив их наилучшим образом, веб-мастер может ждать месяцами, пока Гугол заменит в кэше содержание этих страниц, проанализирует и выпустит из "соплей” в основной индекс. Если же исправить быстро нельзя - например, проблема с контентом, - то их гораздо лучше убить совсем, чем держать в "соплях”. Но даже после удаления с сайта придется ждать чуть ли не три месяца, пока они не исчезнут из кэша Гугла. И вот тогда сайт снова станет белым и пушистым. Правда, их можно поудалять из WMT (Google Web-Master’s Tools) в течении суток, это но если их не тысячи, или они лежат в отдельной директории.

Как не попасть в сопли (дополнительный индекс) к Гуглу?

Веб-мастер или SEO-оптимизатор, задающий такой вопрос, не правильно понял чуть происходящего. Не нужно бояться соплей, как черт ладана: даже у сильных, трастовых сайтов редко когда более 50% страниц находятся в основном индексе. Если страница пессимизирована - то она не обязательно тянет сайт назад, нет! Зависит от причины. И Пушкин по молодости (да и не только) писал дамам в альбомы четверостишия сомнительного содержания; но он потом написал "Евгения Онегина”, а сотни других так и остались на уровне частушек матом. Так же и сайты: если весь контент сайта сомнительного с точки зрения Google содержания, код грязный, дизайн небрежный, да еще ссылки продает, то для него страницы в "соплях” - трагедия. И вывести сайт из соплей Гугла в таком случае будет нелегко.

За что Гугл отправляет страницу в сопли? Наибоее частые причины.

Подавляющее большинство страниц находится в соплях у Гугла по одной из четырех причин (перечислены в порядке частоты встречающихся деффектов):

  • отсутствующее, повторяющееся или слишком короткое описание DESCRIPTION
  • отсутствующий, не уникальный или слишком короткий заголовок страницы TITLE
  • минимальное количество индексируемого контента на странице (ссылки не в счет)
  • страница состоит из содержания, встречающегося на других сайтах в Интернете

Первые две причины часто указываются в WMT (инструментах Гугла для веб-мастеров), третью нетрудно оценить визуально, если диагностика по первым даум не дала заключения о причинах сопливости. Последнюю можно проверить при помощи сервиса COPYSCAPE.COM. Все эти моменты однозначно и недвусмысленно приведены в "Руководстве Google для веб-мастеров”, а также в мануалке Яндекса по обеспечению качества сайта.

Стремиться надо к другому: попадать в основной индекс к Гуглу. Если туда попало 500 страниц при общем числе 1000 - этот сайт может чувствовать себя королем. К гадалке не ходи, что он имеет хороший траффик; может, только по НЧ, зато много. И если на страницах описания товара не хватает контента (предположим, это Интернет-магазин) - это не смертельный грех; просто страница оказалась недостаточно ценна, только и всего. Но чаще всего в сопли (Supplemental Index) попадают из-за элементарный и вопиющих ошибок (перечислял раньше). Соответственно, чтобы не попасть в сопли, нужно их не делать. А если сделали - то вовремя обнаружить и аккуратно исправить. Только и всего!

Мифы и заблуждения оптимизаторов относительно соплей

1. В дополнительный индекс попадают страницы, недостаточно авторитетные в глазах Гугла.

Да, это так. Но в это утверждение вкладывается смысл "вот станет сайт авторитетным, тогда …” Тогда - не будет! Этот сайт не станет авторитетным. В сопли к Гуглу попадают НЕ из-за отсутствия надлежащего авторитета, а из-за присутствия откровенных "косяков” на страницах!

2. Путем наращивания хороших ссылок на страницу ее можно вытащить из соплей.

Это смотря за что она туда попала. Если у нее не-уникальный заголовок в одно слово, DESCRIPTION отсутствует как класс, один абцаз контента, зато ссылок с САПЫ полон подвал - то толстый кошелек вам в помощь, горе-оптимизаторы! Не вытащить ее ни за какие ссылки, пока веб-мастер не приведет ее в порядок. Ну, а если таких страниц тысяча? Одним словом, в общем случае неверно, или слишком дорого.

3. Страницы в соплях? Ничего страшного, для молодых сайтов это нормально.

Как раз наоборот! Для молодых сайтов нет ничего страшнее, чем писать "в стол” (в смысле, "в сопли”). Если такое происходит - надо НЕМЕДЛЕННО прекращать плодить фигню и идни разбираться, отчего такое получается. Иначе, когда страниц в соплях накопится моного, Гугол изменит мнение о сайте в целом.

4. Если на странице не уникальный контент, Гугол отправит ее в "сопли”.

Предположим, что статью скопировало 99 блогов. С учетом этого сайта - ровно 100 не-уникальных страниц. Все там окажутся, или через одну? А я могу наперед сказать, "как фишка ляжет”: три-четыре сайта попадут этой страницей в основной индекс, остальные будут отправлены в дополнительный. Впрочем, как тырить контент и чтобы за это ничего не было - это отдельная тема.

5. Все разговоры о "соплях” - легенды SEO. Ведь Гугол официально заявлял…

Опровергается легким движением руки: достаточно проверить десяток сайтов операторами, что приводились выше, как все становится ясно. Как это ни назови - соплями, или дополнительной выдачей, или пессимизацией - страницы в соплях высоко ранжироваться не будут и траффика с Гугла не принесут.

Поиск

Актуальное в сети

Друзья сайта