Добрый день!
Хотелось бы услышать от профи мнение по вопросу, ответ на который я не нашёл ни в инете, ни в ваших предыдущих выпусках. Вопрос вот в чём: Одним из запросов, нужных нам, является «Ламинат Ecoflooring», под который создана страничка www.plekus.ru/list.php?c=ecoflooring. Гугл довольно быстро понял, что мы от него хотим, и теперь неплохо показывает нас в ТОП10 по запросам «Ламинат Ecoflooring», «Ecoflooring», «Ламинат Экофлоринг» и «Экофлоринг». Запрос даже и не СЧ, а НЧ: «ecoflooring ламинат» – 1137 по вордстату Яши, но в Директе довольно конкурентный (1,7-4 у.е. за клик). Проблема с Яндексом. Он не хочет видеть релевантную страницу для запроса «Ламинат Ecoflooring», хотя по «ecoflooring» показывает с недавнего времени на 17 месте нужную страницу. Для «Ламинат Ecoflooring» Яша выбрал страницу, которая, если мягко сказать, нерелевантна – www.plekus.ru/index.php?c=news&d=28. Я ждал, пока он одумается, но тщетно. Потом взял и запретил эту страницу для индексации – в надежде, что выбирая другую, он выберет продвигаемую www.plekus.ru/list.php?c=ecoflooring. Но не тут-то было. Он выбрал главную страницу. Чем руководствовался – не знаю. Запрещать главную в robots.txt – дело SEOшника, которому не заплатили за работу. Мне платят, поэтому и хотелось бы все же вывести этот запрос в ТОП. Тексты 100% уникальные, писали сами. Вопросы: С уважением, Максим. |
Юзабилити
Сложно признать удачной попытку сделать интернет-магазин на слабо приспособленном для этого движке. Уверен, что среди ваших покупателей почти исключительно люди, которые уже собаку съели в предлагаемой продукции и точно знают, чего хотят. Новичку придется слишком много кликать, скачивать файлы, блуждать по товарным категориям и так далее. Не хочу сказать, что все плохо — сайт достаточно аккуратен, информативен, вызывает доверие. Я бы порекомендовал объединить разделы «Прайс-лист» и «Каталог» в единый каталог с актуальными ценами, упростить порядок заказа (не через форму обратной связи) — в общем, переделать сайт из витрины в полноценный интернет-магазин.
В качестве же «первой помощи» рекомендую убрать бесполезное облако тегов, непонятный баннер с игуаной, дублирование акций в центре и слева. Показывайте меньше: все-таки правило Миллера о возможности адекватно воспринимать лишь 7 объектов при быстром взгляде не лишено здравого смысла.
SEO-показатели
- тИЦ — 50.
- PR главной страницы — 2.
- Домен создан 1 марта 2005 года.
- После ваших слов «Запрещать главную в robots.txt — дело SEOшника» мне первым делом захотелось проверить настройки индексации. Разделение директив отдельно для Яндекса, отдельно для всех остальных роботов я понять могу, то само распределение директив вызывает вопросы. Во-первых, директива Host, является межсекционной и будет учитываться Яндексом, независимо от расположения в файле, но если вы используете отдельные правила индексации сайта для Яндекса, то предпочтительней использовать директиву Host именно в группе, начинающейся с записи User-agent: Yandex, непосредственно после директив ‘Disallow’(‘Allow’). Таким образом, файл robots.txt будет максимально совместим с роботами всех поисковых систем. Во-вторых, при текущем формате файла robots.txt, Яндекс, помимо директив Host и Sitemap, учитывает только директивы, которые прописаны в группе User-agent: Yandex, и не учитывает важные директивы, которые прописаны в группе User-agent: *, что может препятствовать правильной индексации вашего сайта именно Яндексом. Необходимо продублировать для Яндекса директивы, которые используются в группе User-agent: *. Более детально об особенностях составления файла robots.txt вы можете узнать из рассылки №64. В-третьих, необходимо добавить запрет индексации страниц с результатами поиска. И последнее, на что хотелось бы обратить особое внимание — это страницы, которые закрыты от индексации посредством директивы ‘Disallow’ в группе User-agent: Yandex. Данные страницы являются дублями страниц с ЧПУ-адресами. Следует отметить, что таким образом эти страницы закрыты от индексации только для роботов Яндекса, а другим поисковикам они будут доступны, что в полной мере не решает проблему дублирования контента. В данной ситуации единственно правильным выходом было бы не закрывать эти страницы от индексации в файле robots.txt, а установить с них 301-редирект на соответствующие им новые страницы с ЧПУ-адресами. Таким образом, вы поможете всем поисковым системам правильно проиндексировать ваш сайт и поклеить дубли, а также не потеряете собранный старыми страницами вес, который посредством 301-редиректа и склейки перейдет к новым страницам.
- Поскольку в анализе файла robots.txt я упоминал директиву ‘Sitemap:’, то хотелось бы несколько слов сказать о содержимом файла с картой сайта в формате .xml. Многие страницы сайта не прописаны в данном файле, нет даже главной страницы. Необходимо отредактировать содержимое файла Sitemap, то есть добавить в него все страницы, которые следует проиндексировать роботам поисковых систем, и, в первую очередь, главную страницу.
- На сайте до сих пор существуют страницы как с www, так и без www, что может усложнить индексацию и склейку сайта поисковыми системами. На данный момент как Яндекс, так и Google ваш сайт уже склеили, и главным зеркалом определили сайт с www. Но для избегания каких-либо проблем со склейкой в будущем, необходимо установить 301-редирект со страниц без www на соответствующие им страницы с www.
- Хотелось бы еще обратить внимание на то, что у главной страницы есть страница-копия по адресу www.plekus.ru/index.php, что может создать дополнительные проблемы при индексации сайта и уменьшить вес главной страницы в целом. Чтобы устранить потенциальное усложнение при индексации сайта, со страницы с /index.php необходимо установить 301-редирект на главную страницу.
- При запросе к несуществующей странице вашего сайта, например www.plekus.ru/page-not-found.php, сервер возвращает код 302 Moved Temporarily (временное перенаправление), и перенаправляет на страницу www.plekus.ru/page.php?al=404, которая в свою очередь возвращает код 200 ОК. Данный алгоритм может существенно усложнить правильную индексацию вашего сайта, так как ответ 302 указывает роботам поисковиков, что страница временно находится по другому адресу, и исключать из индекса адрес страницы, который возвращает 302 редирект, пока не стоит. Для всех несуществующих страниц сайта необходимо возвращать исключительно код 404 Not Found. Это важно, поскольку код статуса 404 помогает поисковым машинам различать, какие страницы сохранять в индексе, а какие нет.
- Заголовки целевых страниц сайта учитывают ключевые фразы, но созданы не совсем рационально, так как в каждом из них используется запрос «Плекус.ру». Он уменьшает вес ключевой фразы в заголовке, соответственно уменьшается релевантность страницы этой фразе. Чтоб не засорять заголовки нецелевыми запросами, необходимо удалить «Плекус.ру» со всех заголовков, в которых он используется. Заголовок будет максимально соответствовать содержимому страницы, что сможет значительно улучшить сниппет вашего сайта в поисковой выдаче. В частности речь идет о навигационной цепочке в сниппете. Для выбора названий в навигационной цепочке используются тег title и тексты ссылок на страницу. Рекомендуется давать короткое название странице в теге title и в ссылках. И желательно, чтобы они (title и название ссылок) совпадали. Это одно из некоторых необходимых условий для построения навигационной цепочки сайта в сниппете. В результате сниппет вашего сайта по запросу «Ламинат Ecoflooring» может выглядеть следующим образом (в качестве примера приведу сниппет сайта-конкурента по этому запросу):
Как вы можете видеть, искомая ключевая фраза выделена в адресе целевой страницы, хотя реальный адрес страницы следующий: www.stm2000.ru/category/laminat/. Подобное отображение ключевого запроса в навигационной цепочке является дополнительным стимулом для пользователя перейти именно на этот сайт. А в свете серьезного влияния на поисковое продвижение поведенческих факторов, отображение в навигационной цепочке ключевого запроса становится весомым подспорьем для продвижения вашего сайта. - Поскольку была затронута тема навигационных цепочек, то хотелось бы немного остановиться на том, в каком виде отображаются адреса целевых страниц на вашем сайте. В принципе, просматривается попытка оптимизировать адреса страниц под целевые запросы, но использования транслитерации ключевого запроса в адресе страницы недостаточно. Адрес страницы должен иметь четкую структуру, глядя на которую пользователь смог бы однозначно понять, в каком разделе сайта он находится. Но помимо удобства пользователей, структуризация адресов страниц крайне полезна для поисковых роботов, особенно для построения тех же навигационных цепочек, так как навигационные цепочки строятся строго по директориям. То есть дерево разделов сайта должно соответствовать URL. Для URL вида /list.php?c=ecoflooring цепочки не будет. Надо так: /catalog/laminat/laminat_ecoflooring/. Преимущества подобных URL налицо, так как помимо увеличения релевантности страницы ключевому запросу, возрастет количество переходов из поиска на страницы с таким адресами, потому что сниппеты станут более привлекательными.
Итог: Внутренняя оптимизация вашего сайта на достаточно неплохом уровне, но не учтены многие важные факторы, которые по отдельности могут показаться не столь критичными, но в совокупности реально влияют на восприятие сайта поисковиками. Именно на устранении этих недочетов вам необходимо сосредоточить свои усилия. Особое внимание следует уделить настройке сервера, склейке сайта, преобразованию адресов страниц в ЧПУ и внутренней контекстной перелинковке. Также не помешает подать заявку на регистрацию вашего сайта в каталоге Яндекса.
Касательно ваших вопросов, то попытаюсь ответить на все три вопроса сразу, так как, по сути, они подразумевают одно и то же. Чтобы поисковик для определенного запроса в качестве релевантной страницы выбрал именно нужную вам страницу, необходимо эту страницу максимально оптимизировать под этот запрос и всю ссылочную массу с этим ключевым запросом сосредоточить на ней. Но при этом ни в коем случае нельзя устанавливать с целевой страницы прямые текстовые ссылки на другие страницы, в анкоре которых будет использоваться продвигаемый ключевой запрос целевой страницы. Если по какой-либо причине поисковик не определяет нужную вам страницу в качестве релевантной, то необходимо пессимизировать под этот ключевой запрос страницу, которую выбрал поисковик, а также установить с нее прямые контекстные ссылки на нужную страницу с чистым вхождением ключевого запроса в анкоре. Но при этом необходимо максимально оптимизировать нужную вам страницу, чтоб увеличить ее релевантность. Касательно целевой страницы www.plekus.ru/list.php?c=ecoflooring, то из всех страниц вашего сайта Яндекс именно ее считает максимально релевантной указанным вами ключевым запросам. А столь низкие позиции по этим запросам в поисковой выдаче Яндекса объясняются тем, что релевантность данной страницы не может конкурировать с релевантностью страниц сайтов конкурентов. Это может быть связано с упомянутыми мною недочетами всего сайта и этой страницы в частности, а также с тем, что на данной странице установлены прямые текстовые ссылки, в анкоре которых используется вхождение ключевой фразы «Ламинат Экофлоринг». Таким образом, значительная часть релевантности страницы запросу «Ламинат Экофлоринг» отдается другим страницам, тем самым уменьшая собственную релевантность этому запросу.