Некоторые из вас знают, что я провожу много времени за кулисами, задавая вопросы и ответы для профессионалов. Одна из проблем, связанных с вопросами и ответами, заключается в том, что нам часто приходится решать сложные проблемы за очень короткий промежуток времени — у нас может быть 10-15 минут, чтобы решить проблему типа «Почему моя страница не отображается в Google?» без доступа к внутренним данным, серверному коду и т. д.
Конечно, я бы никогда не посоветовал вам попытаться решить свои собственные проблемы с SEO всего за 10 минут, но удивительно, что вы можете сделать, когда вы вынуждены действительно рассчитывать свое время. Я хотел бы поделиться своим 10-минутным (плюс-минус) процессом решения одной распространенной проблемы SEO — поиска «недостающей» страницы. Фактически вы можете применить его к ряду проблем, в том числе:
- Выяснение, почему страница не индексируется
- Как узнать, почему страница не ранжируется
- Определение того, была ли страница оштрафована
- Выявление проблем с дублированным контентом
Я буду разбивать 10 минут на минутку (плюс-минус). Мини-часы на каждом элементе показывают прошедшее время в режиме реального времени.
- 0: 00-0: 30 — Подтвердите, что сайт проиндексирован
- 0: 30–1: 00 — Подтвердите, что страница нет проиндексирован
- 1: 00–1: 30 — Подтвердите, что страница нет рейтинг
- 1: 30–2: 00 — Проверить файл Robots.txt на наличие плохих файлов.
- 2: 00-2: 30 — Проверить META Noindex
- 2: 30–3: 00 — Проверить наличие ошибок Rel = Canonical
- 3: 00–4: 00 — Проверить наличие неверного заголовка / перенаправления
- 4: 00-5: 00 — Проверка на межсайтовое дублирование
- 5: 00-7: 00 — Проверка на внутреннее дублирование
- 7: 00-8: 00 — Проверка качества анкорного текста.
- 8: 00-10: 00 — Проверка качества профиля ссылок.
- (10:00) — Время вышло
0: 00-0: 30 — Подтвердите, что сайт проиндексирован
Всегда начинайте с начала — действительно ли ваша страница отсутствует? Хотя иногда он получает плохую репутацию за точность (в основном, общее количество страниц), Google сайт: Команда по-прежнему остается лучшим инструментом для работы. Он отлично подходит для глубокого погружения, так как вы можете комбинировать его с поиском по ключевым словам, поиском по ключевым словам (точное соответствие) и другими операторами (название:, inurl:, и т.д.). Конечно, самый простой формат — это просто:
Для этой конкретной работы всегда используйте корневой домен. Вы никогда не знаете, когда Google индексирует несколько поддоменов (или неправильный поддомен), и эта информация может пригодиться позже. Конечно, пока вы просто хотите убедиться, что Google знает о вашем существовании.
ТОП-3 ЛУЧШИХ КРЕДИТНЫХ КАРТ ДО 1 МЛН РУБЛЕЙ ДО 365 ДНЕЙ БЕЗ ПРОЦЕНТОВ!
Кредитная карта №1
- Беспроцентный период: 365 дней без процентов
- Кредитный лимит до 500 000 рублей
- Доставка и облуживание карты БЕСПЛАТНО!ПОДРОБНЕЕ >>>
Кредитная карта №2
- Беспроцентный период: до 365 дней без процентов
- Кредитный лимит до 1 000 000 рублей
- Доставка и облуживание карты БЕСПЛАТНО!ПОДРОБНЕЕ >>>
Кредитная карта №3
- Беспроцентный период: до 200 дней без % на всё: покупки, переводы, снятие наличных.
- Кредитный лимит до 1 000 000 рублей
- Доставка и обслуживание карты БЕСПЛАТНО!ПОДРОБНЕЕ>>>
0: 30–1: 00 — Подтвердите, что страница нет проиндексирован
Предполагая, что Google знает, что ваш сайт существует, пора проверить конкретную страницу, о которой идет речь. Вы можете ввести полный путь после команды site: или использовать комбинацию сайт: и inurl:
Если страница не попадает в поле зрения Google, сузьте проблему, протестировав просто «/ folder» и посмотрите, индексируется ли что-нибудь на том же уровне. Если страница вообще не индексируется, следующий шаг можно пропустить.
1: 00–1: 30 — Подтвердите, что страница нет рейтинг
Если страница индексируется, но вы не можете найти ее в поисковой выдаче, вытащите фрагмент тега TITLE и выполните поиск с точным соответствием (в кавычках) в Google. Если вы все еще не можете его найти, объедините site: example.com на вашу страницу TITLE или ее часть. Если страница проиндексирована, но не ранжируется, вы, вероятно, можете пропустить следующие несколько шагов (перейти к отметке 4:00).
1: 30–2: 00 — Проверить файл Robots.txt на наличие плохих файлов.
А пока предположим, что ваш сайт частично индексируется, но соответствующая страница отсутствует в индексе. Хотя плохие файлы Robots.txt, к счастью, становятся все реже, все же стоит быстро взглянуть, чтобы убедиться, что вы случайно не заблокируете поисковых ботов. К счастью, файл почти всегда находится по адресу:
http://www.example.com/robots.txt
Вам нужен исходный код, который выглядит примерно так:
Это может быть либо директива, блокирующая все пользовательские агенты, либо только один, как Googlebot. Аналогичным образом проверьте наличие директив, запрещающих конкретную папку или страницу.
2: 00-2: 30 — Проверить META Noindex
Другая проблема случайной блокировки может возникнуть из-за неправильной директивы META Noindex. В заголовке исходного кода HTML (между
и ) вы ищете что-то вроде этого:Хотя кому-то может показаться странным блокировать страницу, которую он явно хочет проиндексировать, плохие теги META и Rel = Canonical (см. Ниже) могут быть легко созданы из-за неправильной настройки CMS.
2: 30–3: 00 — Проверить наличие ошибок Rel = Canonical
Это немного сложнее. Тег Rel = Canonical сам по себе часто полезен, поскольку помогает эффективно канонизировать страницы и удалять дублированный контент. Сам тег выглядит так:
Проблема возникает, когда вы слишком узко канонизируете. Предположим, например, что каждая страница вашего сайта имеет канонический тег с URL-адресом «www.example.com» — Google воспримет это как инструкцию свернуть весь ваш поисковый индекс до ОДНОЙ страницы.
Зачем тебе это делать? Вы, вероятно, не стали бы этого делать специально, но плохая CMS или плагин могут выйти из строя. Даже если это не по всему сайту, легко канонизировать слишком узко и вычеркнуть важные страницы. Это проблема, которая, кажется, растет.
3: 00–4: 00 — Проверить наличие неверного заголовка / перенаправления
В некоторых случаях страница может возвращать неверный заголовок, код ошибки (например, 404) или плохо структурированное перенаправление (301/302), что препятствует правильной индексации. Для этого вам понадобится средство проверки заголовков — в Интернете есть множество бесплатных (попробуйте HTTP Web-Sniffer). Вы ищете код состояния «200 ОК». Если вы получаете строку переадресации, 404 или любой код ошибки (серии 4xx или 5xx), у вас может быть проблема. Если вы получаете перенаправление (301 или 302), вы отправляете «отсутствующую» страницу на другую страницу. Оказывается, на самом деле это вовсе не пропало.
4: 00-5: 00 — Проверка на межсайтовое дублирование
По сути, существует два потенциальных сегмента дублированного контента — повторяющиеся страницы на вашем сайте и дубликаты между сайтами. Последнее может произойти из-за того, что вы делитесь контентом с вашими собственными объектами, юридически перепрофилируете контент (как это может делать аффилированный маркетолог) или полностью очищаете. Проблема в том, что как только Google обнаружит эти дубликаты, он, вероятно, выберет один и проигнорирует остальные.
Если вы подозреваете, что контент с вашей «отсутствующей» страницы был взят с другого сайта или взят с другого сайта, возьмите предложение с уникальным звучанием и введите его в Google с кавычками (для точного совпадения). Если появляется другой сайт, возможно, ваша страница была отмечена как дубликат.
5: 00-7: 00 — Проверка на внутреннее дублирование
Внутреннее дублирование обычно происходит, когда Google сканирует несколько вариантов URL для одной и той же страницы, например параметры CGI в URL. Если Google достигает одной и той же страницы по двум URL-адресам, он видит две отдельные страницы, и одна из них, вероятно, будет проигнорирована. Иногда это нормально, но иногда Google игнорирует неправильный.
Для внутреннего дублирования используйте сфокусированный сайт: запрос с некоторыми уникальными ключевыми словами заголовка со страницы (опять же, в кавычках), либо автономный, либо с использованием название:. Дубликаты, управляемые URL-адресом, естественно, имеют повторяющиеся заголовки и МЕТА-данные, поэтому заголовок страницы — одно из самых простых мест для его поиска. Если вы видите одну и ту же страницу, всплывающую несколько раз с разными URL-адресами, либо одну или две страницы, за которыми следует следующее:
… тогда вполне возможно, что ваша отсутствующая страница была отфильтрована из-за внутреннего дублирования.
7: 00-8: 00 — Проверка качества анкорного текста.
Последние два варианта немного сложнее и субъективнее, но я хочу дать несколько быстрых советов, с чего начать, если вы подозреваете штраф или девальвацию страницы. Одна проблема, которую довольно легко обнаружить, — это когда у вас есть образец подозрительного якорного текста — обычно это необычная комбинация ключевых слов, которая доминирует над вашими входящими ссылками. Это могло произойти из-за очень агрессивной (и часто некачественной) кампании по построению ссылок или из-за чего-то вроде виджета, который доминирует в вашем ссылочном профиле.
Open Site Explorer позволяет довольно легко взглянуть на ваш якорный текст широкими мазками. Просто введите свой URL, нажмите Распределение якорного текста (4-я вкладка) и выберите Фразы:
Вы ищете образец неестественного повторения. Некоторое повторение допустимо — естественно, у вас будет текст привязки к ключевым словам вашего доменного имени и, например, к вашему точному названию бренда. Предположим, однако, что 70% наших ссылок, указывающих на SEOmoz, имеют якорный текст «Дэнни Довер — это круто». Это было бы неестественно. Если Google сочтет это признаком манипулятивного построения ссылок, вы можете увидеть, что целевая страница оштрафована.
8: 00-10: 00 — Проверка качества профиля ссылок.
Качество ссылочного профиля может быть очень субъективным, и это не та задача, которую вы можете решить за две минуты, но если у вас есть штраф в игре, иногда легко быстро обнаружить некоторые сомнительные ссылки. Опять же, я собираюсь использовать Open Site Explorer, и я собираюсь выбрать следующие параметры: Подписаны + 301, Только внешние страницы, Все страницы в корневом домене:
Вы можете экспортировать ссылки в Excel, если хотите (отлично подходит для глубокого анализа), а пока просто сделайте выборочную проверку. Если на первых двух страницах есть что-то подозрительное, велика вероятность, что более слабые ссылки — беспорядок. Перейдите на несколько страниц и обратите внимание на такие проблемы, как:
- Подозрительный анкорный текст (нерелевантный, спам и т. Д.)
- Сайты с совершенно нерелевантной тематикой
- Ссылки, встроенные в явно оплаченный или обмененный блок
- Ссылки, которые являются частью нижнего колонтитула страницы с несколькими ссылками
- Рекламные ссылки, по которым переходят (и не должны)
Кроме того, обратите внимание на любую чрезмерную зависимость от одного вида некачественных ссылок (комментарии в блогах, маркетинг статей и т. Д.). Хотя полный анализ профиля ссылок может занять несколько часов, часто на удивление легко обнаружить спамерские ссылки всего за несколько минут. Если вы сможете обнаружить это так быстро, велики шансы, что Google тоже.
(10:00) — Время вышло
Десять минут могут показаться не таким уж большим количеством (возможно, вам потребовалось столько времени, чтобы прочитать этот пост), но как только вы начнете процесс, вы сможете многое узнать о сайте всего за несколько минут. Конечно, найти проблему и решить ее — две совершенно разные вещи, но я надеюсь, что это, по крайней мере, даст вам начало процесса, чтобы попробовать себя и улучшить свои собственные проблемы с SEO.