Популярные ошибки и недочеты, которые мешают продвижению сайта

Спонсор месяца: в моем недавнем посте вы можете прочитать про сеть партнерских программ gdeslon.ru, которая предоставляет эффективные инструменты для заработка.

Привет, друзья! За последние годы мною было проанализировано достаточно много сайтов. В итоге сложился небольшой костяк популярных ошибок и недочетов, которые мешают поисковому продвижению ресурса. О них и пойдет речь в этой статье.

ошибки

Большинство из них, конечно, не критичны, но их устранение в любом случае поможет сайту в оптимизации под поисковые системы. У меня получилось 10 пунктов.

1. Сайт доступен с www и без www

Это, по-моему, самое распространенное явление, когда страницы ресурса доступны как с www, так и без www. Здесь же можно отметить про то, что многие забывают в robots.txt выделять главное зеркало.

Как определить главное зеркало для сайта? Для этого нужно посмотреть, какое из зеркал участвует в поисковой выдаче, то и выбирать. Если проект находится на стадии разработки, то выбирать можно любое на ваш вкус. Итак, в robots.txt для Яндекса прописываем главное зеркало (случай для без www):

User-agent: Yandex
Тут могут стоять ваши различные условия Disallow или Allow
Host: domen.ru

Для настройки редиректа с www на без www нужно прописать в вашем файле .htaccess следующее:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.domen\.ru$ [NC]
RewriteRule ^(.*)$ http://domen.ru/$1 [R=301,L]

Для редиректа с без www на www:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^domen\.ru$ [NC]
RewriteRule ^(.*)$ http://www.domen.ru/$1 [R=301,L]

Примечание: domen.ru изменить на имя вашего домена.

2. Дубли страниц внутри домена и не настроенный robots.txt

Любая система управления контентом (CMS) не совершенна. Зачастую популярные движки, на которых делают сайты, создают дубли страниц по разным URL-ам. Во-первых, некоторые из них оказываются в поисковой выдаче выше, чем продвигаемые целевые страницы. Во-вторых, дубли страниц даже внутри сайта - это не очень хорошо.

Также если вообще забыть про robots.txt, то в индексе может оказаться множество ненужных и бесполезных страниц. Подобные документы и дубли можно найти, проанализировав проиндексированные страницы поисковыми системами. Для этого можно задать такой запрос:

site:domen.ru

К сожалению, универсального файла robots.txt не существует. Его необходимо создавать с учетом специфики вашей системы управления контентом. Зачастую грамотный robots.txt можно составить только в связке оптимизатор и программист, так как последний будет лучше разбираться в особенностях CMS.

3. Смена структуры URL без 301 редиректа

Не раз попадались проекты, которые меняли CMS или структуру URL и не ставили редирект со старых страниц на аналогичные новые. Тем самым получалось, что все ссылки, которые до этого ставили на внутренние документы ресурса, начали ссылаться на несуществующие страницы. Это был первый отрицательный момент. Второй - это то, что у страницы терялась история индексации и возраст. В общем, ни к чему хорошему это не приводит.

Если вы планируете поменять структуру URL (например, перейти на ЧПУ), то заранее задумайтесь о возможности настройки грамотного 301-редиректа. Если урлы планируется поменять на молодом проекте без ссылочной массы, то тогда в принципе редирект не обязателен.

4. Контекстная перелинковка

Многие вебмастера, оптимизаторы и владельцы сайтов забывают про внутреннюю перелинковку, довольствуясь лишь сквозным меню и системой пагинации. Контекстные ссылки на внутренние страницы проекта полезны как для пользователя, так и для всей внутренней оптимизации. Не стоит забывать про это.

5. Отсутствие желания развивать веб-проект

Некоторые заказчики на SEO полагают, что вся обязанность по увеличению посещаемости с поисковиков лежит на оптимизаторе. К сожалению, это не так. Грамотный seo-специалист должен подготовить ряд рекомендаций и советов по развитию ресурса, но внедрять их, как правило, может только заказчик, так как полного доступа к его ресурсу у исполнителя нет.

Получается следующая картина. Заказчик не выполняет рекомендации, и посещаемость не увеличивается. Виноват кто? Правильно! Seoшник :smile:.

6. Нецелевое семантическое ядро

Для охвата как можно большего семантического ядра, в него иногда добавляются нецелевые ключевые слова. Например, для коммерческого проекта добавляются некоммерческие запросы и закупаются ссылки на них. Просто создать страницу, заточенную под некоммерческий ключевик можно (дополнительный тематический контент никогда не повредит), но продвигать его зачастую нецелесообразно и неэффективно.

В посте "целевой и мусорный трафик" я уже высказывался по этому поводу. В общем, необходимо концентрироваться на ключевых словах или запросах, которые действительно могут принести выгоду.

7. Фокусировка на одном источнике ссылок

Источников ссылок великое множество. Не стоит зацикливаться на каком-то одном. Хорошо, когда на веб-проект ссылаются множество различных по типу и характеру ресурсов. Во-первых, для полезного сайта - это более естественно. Во-вторых, при увеличении или снижении влияния определенного источника, общая ссылочная масса останется практически на прежнем уровне. Получили достаточное количество ссылок с одного источника, можно переходить на другой :smile:.

8. Неэффективные ключевые слова

Стоит ли сразу при создании ресурса стараться продвинуться по высококонкурентному запросу? Стоит ли продвигать ключевое слово, по которому нет потенциального трафика или он не соизмерим с затратами на продвижение. Ответ на вопросы очевиден - "нет". В связи с этим нужно тщательнее подходить к анализу семантического ядра, удаляя запросы-пустышки и концентрируясь на трафикогенерирующих ключевых словах.

9. Непоследовательность в продвижении

Бывают такие ситуации, когда оптимизатор (или владелец ресурса) начинает метаться из стороны в сторону, от одного метода продвижения к другому. Например, клиент от 1-го человека услышал о каком-то новом направлении раскрутки, начинает развиваться в этой сфере. Через короткое время 2-ой говорит, что это все неэффективно и бессмысленно, а вот его методы работают. Владелец проекта бросает первый вариант и переходит на второй. Это, как правило, плохо сказывается на самом сайте.

Параллель можно привести и в ситуациях, когда происходит метание от одного ссылочного агрегатора к другому. В итоге у ресурса получается нестабильная ссылочная масса. Большой пользы она не принесет. Поэтому нужно быть последовательным в вопросах продвижения.

10. Быстрая раскрутка

Многие заказчики хотят получить результат как можно быстрее, но не всегда скорость бывает полезна. Проводить внутреннюю оптимизацию можно и сразу, а вот создавать ссылочную массу лучше постепенно. Не лучшим вариант для недавно созданного проекта будет закупка тысячи арендуемых ссылок с площадок сомнительного качества.

Какие бы вы еще отметили ошибки при продвижении сайтов, которые вам часто встречаются? Есть ли среди перечисленных те, которые совершали вы? Буду рад вашим отзывам в комментариях ;-).

Рейтинг
1 звезда2 звезды3 звезды4 звезды5 звезд (4 голос., в среднем: 4,25 из 5)
Загрузка...
Аудит сайта

Найду причины, мешающие продвижению сайта. Подготовлю рекомендации, которые позволят увеличить трафик и конверсию. Составлю стратегию развития. Помогу с внедрением.

От 19000 руб.
Продвижение

Комплексное развитие проектов по актуальным направлениям в SEO. Используются методики, имеющие стабильный долгосрочный эффект (без накруток и спама).

От 25000 руб.
Консультации

Консультирую по вопросам поисковой оптимизации, продвижения сайтов. Лучший способ узнать мое подробное мнение по волнующей задаче/проблеме. Конкретные ответы на конкретные вопросы.

От 5000 руб.
Отзывов уже 89:
Написать комментарий
  1. 1. Archil

    не настроенный robots.txt наверно самая большая и частая ошибка, список хороший :idea:

  2. 2. SANO

    Не сказал бы что дубли большая ошибка, как показывает практика дубли практически не учитываются. Ваш пост про аякс. Сайт бар постоянно же дублировался, при его закрытии ПС не отреагировали.

  3. 3. AdSensor

    Часто считают за дубли — страницы категорий и тэгов. Однако, недавно, саппорт Яндекса мне ответил что это для их ПС — не дубли. Дубли — это полностью идентичный контент, т.е. страница категорий с одним постом.
    Однако, я предпочитаю тэги и категории закрывать в роботсе.

  4. 4. Станислав

    Еще в качестве ошибки — закрытие всех ссылок с сайта атрибутом nofollow. Или наоборот — все ссылки оказываются открытыми, передающими вес.

  5. 5. dachnik

    сначало по заголовку подумал, что данный пост написан на основе топэксперт.рф, но оказалось кое-что добавлено от себя

  6. 6. SmotruOnline

    Спасибо за информацию. По опыту, главная ошибка, это когда поисковики проиндексируют страницу с неправильным контентом, потом их оптимизация не учитывается долгое время…

  7. 7. Ночной_Блоггер (Sergio)

    Как угадал =) У меня как раз на 2-х проектах не настроен робот, а тут инструкция ) Спасибо!

  8. 8. Ariec.md

    Пренебрежение парой качественных каталогов, а прогонка по тысячам «левых».

  9. 9. Алексей

    Понятно, что нет универсальной настройки robots.txt, но все-таки, чтобы ты мог посоветовать по настройке файла для СДЛ на WP?

    С проблемой 301 редиректа я сталкивался, на самом деле не приятная ситуация. Менял тогда на блоге ЧПУ, быстренько все поменял, а про редирект совсем забыл. В итоге страницы вылетели из индекса постепенно, а потом блог попал под АГС. Поставил редирект, написал Платону, объяснил все, что это просто небольшая оплошность и через месяц блог полностью вернулся в индекс уже с новыми страницами.

  10. 10. utb

    host для User-agent: Yandex можно не прописывать, в настройках вебмастера можно поменять :|
    А так спасибо, все собрали в кучу, думаю начинающим самое то :)

  11. 11. WebNetc

    Привет Сергей
    Хотел кое-что прояснить для себя

    Пока проект не проиндексировался, я использую покупку ссылок с сайтов из як с высоким тИЦ. Как ты уже сказал, что не стоит гнаться за скоростью. А, если я хочу продвинуть ВЧ-НК, бюджет по seopult и rooke(200-300 рублей). Стоит ли сразу брать на продвижение нескольких статей — (бюджет 100 рублей на 1 запрос). Но эти сервисы на эти деньги накупят действительно много ссылок

    В общем вопрос заключается вот в чем: стоит ли использовать автоматические сервисы продвижения на начальной раскрутке сайта? Как продвигать НК Вч запросы на начальном этапе и стоит ли вообще за них цепляться? (желательно расширенный ответ).

  12. 12. Серега

    «системой пагинации» это как?

  13. 13. kickboxer

    хм…вот зачем на блоге такая статья для нубов???:(

  14. 14. AdverTrash

    Как показали наблюдения, некоторые так же недооценивают проверку текстов, а ведь беря сайт на продвижение совсем нелишним будет проверить тексты как на переспам, так и вообще на разметку тегами, вхождение ключей в текст. Не забываем так же проверить кейворды и тайтлы с дескрипшинами. Зачастую это элементарно отсутствует. Встречается так же и злоупотребление ключей в мета тегах

  15. 15. Dominik_x

    Сайт в выдаче с WWW или без, нужно указывать в панеле вебмастера яндекс. Эти настройки для поисковика будут приорететнее чем в robots.txt

  16. 16. kickboxer

    доминик_х, но менее приоритетно, чем редирект 301

  17. 17. Александр Борисов

    Сергей отличный пост! Действительно это жесткие ошибки. Провожу анализы блогов и постоянно вижу первые 2 ошибки у людей.

    Я бы еще 11 ошибку добавил. Люди не проводят конкурсы :idea: Конкурсы — это мощь!

  18. 18. AdverTrash

    Александр Борисов, Эй, стопэ товарищь :o

    Как конкурсы влияют на оптимизацию сайта? И вообще, если смотреть получше, то видно что затронута в основном техническая составляющая… И при чем тут конкурсы? :evil:

  19. 19. Александр Борисов

    AdverTrash, Отсутствие желания развивать веб-проект — это техническая составляющая?

    Вы знаете как сказывается возврат одного и того же посетителя на раскрутке? То есть то, когда человек возвращается на ресурс снова и снова?

    Если не знаете, то надо начать учиться…

  20. 20. AdverTrash

    Александр Борисов, Хоть и не сеошник, но знаю, что пользователей на сайт не конкурсами возвращать надо, а качеством контента, качеством услуг. А конкурсы…хм, ну закончится конкурс и все, кто придет если сайт говно? Да и врятли мне будет интересен конкурс, если я например ищу услуги или товар. Нашел в поиске то что подходит, и забыл. Когда снова появится потребность, я в поиск полезу, а не вспоминать, кто ж там такой грамотный сео специалист придумал мне конкурс, выиграть стопицот призов. И коли уж про конкурсы начали, то это не сео а маркетинг (тут чувствуем разницу). Да, для повышения лояльности клиентов можно и конкурс, но для продвижения…хм, не ко всем подходит. Для блогов возможно, но и то не ко всем. А вот вы мч провели уже конкурс? А блог есть? Хотелось бы почитать :idea:

  21. 21. Александр Борисов

    AdverTrash, заходите в гости посмотрите :idea:

    И советую еще пост сегодняшний почитать! Скоро выйдет!

    Сергей прости за рекламу! ;-)

  22. 22. Rj.DiNex

    Отличные советы, но лично сам лишь 1 ошибку делаю из 10’и. :cry:

    Сергей, благодарю тебя за существование твоего блога.

  23. 23. guard

    Я бы добавил ещё два очевидных для всех просчёта:
    1) Неуникальный контент — копипаст. Как ни странно, для Яндекса это не всегда проблема, а для google — сколько угодно ссылок закупай — страница никуда не вылезет
    2) Внезапный обвал ссылочной массы — после чего тратить на ссылки придется намного больше

  24. 24. Дмитрий

    Александр Борисов, Ну, вот по вашему совету устроил конкурс и что? :twisted: Пообещал 200 рублей на телефон.Посетителей вроде достаточно, но не участвуют в конкурсе. Может зря пообещал на мобильник, а надо было яндекс деньги обещать?

  25. 25. Дмитрий

    AdverTrash, У Александра, один из лучших блогов про заработок на блоге. Дизайн, мне правда не нравится, но содержание очень качественное и главное честное, свое.

  26. 26. voleyko

    guard, у меня порой, такое бывает: Внезапный обвал ссылочной массы

  27. 27. AdverTrash

    Дмитрий, Да, судя по тому сколько людей посещают его блог, он действительно хорош, хотя дизайн да, не прям супер. Не скажу что у меня суперский дизайн, но то, что если на его блоге поставить оригинальный качественный диз, как у Сергея например, то будет супер, однозначно!!!

  28. 28. Оксана Лебедь

    Сергей! Спасибо большое! у меня помимо проблем с главным зеркалом еще ошибки в robots.txt обнаружились. Теперь все поправила — что бы я без вас делала:)

  29. 29. Руслан

    Про 301 редирект, можно подробнее плиз! Блогу 2 месяца, позавчера было 750 уников, с поисковиков не больше 30. Это нормально в 2 мес 30 человеков с Яндекса и Гугла? Явно в чем-то ошибку допустил, только понять не могу в чем!

  30. 30. Александр Борисов

    AdverTrash, Что реально у меня дизайн хреновый? Не знаю почему все говорят что плохой. Мне нравится. Мож завидуют? :shock:

  31. 31. ivanbl4

    Спасибо огромное за список. Для себя вынес полезного из данной статьи. Улыбнуло, что всегда виноват сеошник :x

  32. 32. Sosnovskij

    SANO, я имел в виду полные дубли страниц, находящиеся по разным адресам. Да и частичные дубли основного контента (не сквозного) тоже не будут на руку.
    Станислав, а почему закрытие всех ссылок с сайта может навредить ему?
    dachnik, скидывайте ссылку на страницу. Еще в день публикации поста на почту пришла рассылка от сеопульта по ошибкам внутренней оптимизации :).
    Алексей, https://sosnovskij.ru/robots.txt .
    utb, думаю, что лишним не будет указать. Тем более это займет не более минуты :).
    WebNetc, для молодого сайта автоматические биржи не советовал был. Если запрос низкоконкурентный, то почему бы и нет. Как продвигать? Качественный, тематический, слегка оптимизированный контент. Через 2-3 месяца можно ссылки начать закупать.
    Серега, это постраничная навигация. Например, если зайти на главную страницу блога https://sosnovskij.ru/ , то это внизу циферки 1,2,3 и так далее. То же самое на страницах категорий.
    kickboxer, многие не нубы допускают такие ошибки. Я не позиционирую свой блог только для гуру.
    AdverTrash, верно!
    Руслан, 2 месяца это малый срок для высокой посещаемости с поисковиков.

  33. 33. AdverTrash

    Александр Борисов, Ну честно говоря да, жаль у сереги ругаться нельзя, как я люблю в интернете, а то высказал бы в паре «емких» слов по поводу дизайна. Однако что интересно, в данной ситуации дизайн играет далеко не лидирующую роль, что так же может стать инфо-поводом. Однако думаю не зазорно и сменить его будет, тем более с тем учетом, что другим советы раздаешь) Тут что значит, нужно держать марку! Так что с удовольствием попаду на блог с новым дизом.

  34. 34. Денис

    Да уж, мне многому придется еще научиться, спасибо за статью

  35. 35. Валерий

    Статья конечно хорошая, спору нет, но подскажите на мою ошибку, что я делаю не так… В общем суть в том, что совсем недавно(дней 10 как..) я сделал блог на WP, гугл его успешно проиндексировал, но после добавлений трех постов, проверяю вот так: «site:aimblog.ru» он выдает мне в выдачи 23 стр. из них три стр. с ошибкой 404. На серче получил один ответ, что я что-то с ЧПУ намутил. Подскажите что не так. В CEO только окунулся, уже крыша едет…..

  36. 36. Димм

    А моя самая большая ошибка — недавно повесил копию уже имеющегося у меня сайта под другим доменом, чтобы быстро заполнить абсолютно другими данными, но неправильно закрыл его от индексации. И теперь старый сайт упал с 1 на 16 место в яндексе, а новый исключен из индекса и не индексируется, чтобы обновить неуникальный контент на новый!:/ Теперь не знаю что и делать и сколько это будет в таком состоянии? Называется попал!:)

  37. 37. Sosnovskij

    Димм, закрыть к индексации дублирующий домен и ждать.
    Валерий, а в чем проблема-то? :)

  38. 38. Валерий

    Sosnovskij, Так в том и проблема, что индексирует статьи с 404 ошибкой, уже и не знаю где собака зарыта и что не так сделал

  39. 39. Sosnovskij

    Валерий, вообще поисковый робот не индексирует страницы, которые отдают 404 ошибку. Сейчас такая ситуация. Например, когда-то была страница aimblog.ru/sample-page . Google ее проиндексировал. Потом вы изменили ее адрес или удалили, но google об этом еще не знает. Поэтому в индексе эта страница есть (посмотрите сохраненную копию), а когда переходишь по ссылке, то открывается страница с 404 ошибкой. Нужно просто подождать и гугл удалит из индекса все страницы, которые отдают 404 ошибку.

  40. 40. Игорь

    Спасибо за статью! С 301 редиректом сам недавно мучался, пока всё настроил — сейчас вроде работает

  41. 41. tom0rrow

    Конкурсы это УГ, если их проводит такой человек как Александр Борисов.
    По теме: самой главной ошибкой на начальных этапах является кража контента, из-за чего на сайт налаживаются санкции.. :shock:

  42. 42. Александр Борисов

    AdverTrash, скоро будет! Уже давно думаю, да все как-то руки не доходят или боязно как-то. Мало ли что перекосится и т.д…. Да и привык уже к нему…

  43. 43. tom0rrow

    Александр Борисов, на мороз как бы ушел, не делай так :o
    AdverTrash, сайт у парня офигенный

  44. 44. Alex

    SmotruOnline, Полностью с тобой согласен. Нужно сразу об этом думать. Потом ооооочень геморойно все индексируется.

  45. 45. Булат Максеев

    После того, как я загружаю robots.txt в корень у меня блог по главному ключу вылетает из индекса или блог из индекса вовсе вылетает. С чем это может быть связано? Или robots.txt неправильный?

  46. 46. Sosnovskij

    Булат Максеев, проблем в вашем robots.txt я не нашел (его удалил, так как из-за размера комментария, он криво отображается). После установки этого роботса попробуйте проверить будут ли индексироваться страницы блога этим сервисом от яндекса webmaster.yandex.ru/robots.xml

  47. 47. Булат Максеев

    Спасибо большое. Сделаю. Сейчас блог не работает пока. Его хостинг-провайдер закрыл на время DDOS-атаки. Вот такие дела.

  48. 48. venetonn

    Сервис от Яндекса не всегда правильно показывает статистику.

  49. 49. Сергей

    Сергей, научите правильно покупать ссылки тематические, как находить сайты. Это ж целая статья получится… Только практики бы побольше.

  50. 50. Oksana

    Мужчины, ответьте даме,
    в пункте первом про редирект оба кусочка кода вставлять в файл, там где с www и без www или какой-то один, тогда как понять какой.

    И второй вопрос про отказы. Какой процент отказов считается нормальным? А то что-то беспокоюсь я. :lol:

    Автору удачи и спасибо за полезные материалы!

  51. 51. Sosnovskij

    Сергей, https://sosnovskij.ru/vybor-kachestvennyh-ploshhadok-dlya-razmeshheniya-ssylok/
    Oksana, я же там все расписал подробно. 2 кусочка вставляются в разные файлы: robots.txt и .htaccess.
    «тогда как понять какой» — там написаны условия. Выбирайте, какой вам нужен. Зависит от главного зеркала.
    Средний показатель отказов для каждой группы сайтов (например, по тематике) разный.

  52. 52. Александр

    Согласен с мнением многих, что не настроенный robots.txt первая проблема, особенно для молодых блогов. Многие уходят под АГС наверное из за этого.

  53. 53. Павел

    Отличная статья, Сергей!
    Следует так же проследить за внешним видом сайта и как уже отмечалось выше — это качество контента, конечно. Если сайт будет нелепо смотреться — то на нем и оставаться то не захочеться) Давно

  54. 54. SANO

    Добавь себе опрос на блог, и узнаешь))Александр Борисов,

  55. 55. Oksana

    Sosnovskij, спасибо за ответ! Я не могу найти файл .htaccess, мне его нужно создать?

  56. 56. Sosnovskij

    Oksana, да.

  57. 57. Евгений

    Хороший пост, согласен ошибок совершают много и многие, ну без этого ни как. я например все никак не могу сделать нормальный редирект 301.
    в роботсе прописано основное зеркало, однако при анализе сайта (например в rookee.ru) мне выдается инфа что редирект не настроен. Прописывал в .htaccess
    и Options +FollowSymLinks
    RewriteEngine On
    RewriteCond %{HTTP_HOST} ^www.domen\.ru$ [NC]
    RewriteRule ^(.*)$ domen.ru/$1 [R=301,L] (изменяя domen на реальный адрес)
    и
    Redirect 301 / site.com/index.htm
    что то у меня не получается(. так и не могу понять что не так делаю.
    Но гугл надеюсьдаст ответ)).

  58. 58. Levikov

    Отсутствие желание, наверно самая большая ошибка :)

  59. 59. Евгений

    Levikov,
    Причем по жизни).

  60. 60. Евгений

    Евгений,
    И все таки я его сделал.
    Весь вопрос оказался в месте установки кода))). Большинство мнений в сети что разницы нет, где именно прописывать код, просто в файл .htaccess и все. Ан нет. в моем случае его пришлось прописать последним.
    после строчек #END WORDPRESS.

  61. 61. Димм

    Где бы найти информацию по достоверней о том, как корректней (а то сайт и так уже ошибался в глазах поисковика) сделать 301 редирект для всего 10 страниц, причем различия во вложенности (к сожалению не удается на другом компоненте сделать) из site.ru/all/page в site.ru/home/all/page.

  62. 62. Евгений

    Димм,
    здесь хорошая инфа sb-money.ru/article.php?a=75
    но стоит пробовать устанавливать по-разному. сам перепробовал много вариантов а оказалось что место установки кода в самом файле надо было поменять

  63. 63. jak

    Александр Борисов, извини, но фиговые цвета какие-то, мрачные, сделай посветлее и посетителям будет приятней на нем, и дольше будут оставаться.

  64. 64. Ирина

    Спасибо за очень интересный пост. Настроила robots.txt, пока ничего лишнего в индекс не попало :)

  65. 65. Эндрю

    Начал разбираться с индексируемым, и в статистике pr-cy.ru выдало, что у некоторых внутренних ссылок заголовок как правильное название, а у некоторых надпись «Подробнее»:
    «Информация о… » (_http://ссылка….), «Подробнее» (_http://ссылка….). Это я делал намного ниже заголовка дополнительную ссылку с аналогичным адресом, на вроде, «читать далее», вот теперь что лучше сделать «nofollow» или другой адрес, типа перенаправления на место на странице?

  66. 66. Sosnovskij

    Эндрю, сделайте в качестве ссылки «Подробнее» перенаправление на место контента на странице или в том место, где есть тег more.

  67. 67. Дмитрий

    Спасибо за статью! очень полезно!

  68. 68. Оле.М

    Да! статья действительно интересная! кратко, четко и понятно! Вот только наткнулся на нее довольно позновато прошел уже мондраж, когда метаешся со стороны в сторону и не знаешь, что делать и с чего лучше начать пока четкий план действий не написал на клочке бумаги и не приколотил его большим гвоздем к монитору!))) Я думаю все через это прошли!!! Бегло пробежался по статье вроде бы все мне известно и я об этом знаю! Вчитался оказывается НЕ ВСЕ!!! Еще раз спасибо автору!!!

  69. 69. Владислав

    Если у меня есть некая написанная и проиндексированная статья с тайтлом (например:как создать сайт), но по неким причинам я захотел переименовать тайтл на (как создать свой сайт бесплатно). Если в вордпрессе настроеные ЧПУ, то адрес ссылки поменяется? Старая ссылка на такую-статью в кэше поисковой системы то останеться…? не будет ли это дублем контента? и вообще, как относятся поисковые системы к редактированию тайтлов? и просто к редактированию содержимого статьи в плане СЕО и дублей контента?

  70. 70. Sosnovskij

    Владислав, URL не поменяется, если вы его сами не поменяете.
    Ну и вот полезное https://sosnovskij.ru/otvety-na-voprosy-8/#8-vopros-11

  71. 71. Владислав

    Sosnovskij, Спасибо!

  72. 72. Андрей ЕГО

    Извини, конечно, но я как увидел заголовок в почте решил, что обязательно прочитаю, так как наверняка будет полезно, а выяснилось, что советы многие совсем не стоят внимания, а остальные для новичков только полезны или же КО-шные. Просто я думаю следовало бы назвать популярные ошибки новичков в SEO.

  73. 73. Sosnovskij

    Андрей ЕГО, многие не новички тоже допускают такие ошибки. А гуру так вообще не должны совершать ошибок :smile: .

  74. 74. Эндрю

    Подскажите, мучаюсь, как закрыть в robots.txt
    sitename.ru/allpage
    но, чтобы не закрывались
    sitenamename.ru/allpage/1-statya
    sitenamename.ru/allpage/2-statya

  75. 75. Sosnovskij

    Эндрю, попробуйте
    Disallow: /allpage$

    Не забывайте проверять здесь webmaster.yandex.ru/robots.xml , чтобы случайно не запретить нужные страницы.

  76. 76. Эндрю

    Да, спасибо! Только пришлось запрещать со слешем и без «Disallow: /1-vse/$» и «Disallow: /1-vse$». В вебмастере всё проверил — статьи не закрываются.

  77. 77. land_driver

    С Яндексом какие-то непонятки. Сначала он проиндексировал страницу, потом эта страница исчезла из индекса, причем содержимое страницы никак не менялось. Чтобы это значило?

  78. 78. Sosnovskij

    land_driver, возможно ошибка робота, возможно она перестала ему нравится, возможно она вскоре будет опять проиндексирована.

  79. 79. vemsik

    Спасибо. Только начал познавать все это. Сразу посмотрел на robots.txt — и вот они первые ошибки )).

  80. 80. Алексей

    Наткнулся на систему экспрес аудита сайта auditme.ru

    Выдает такой косяк: Страницы с произвольными параметрами обрабатываются некорректно, при запросе подобных адресов site-name.ru/?qwerty123456 сервер отдает ответ HTTP/1.1 200 OK. Необходимо настроить ответ сервера HTTP/1.1 404 Not Found для подобных страниц.

    Как побороть и на сколько критично? На многих сайтах такая штука срабатывает.

  81. 81. Sosnovskij

    Алексей, нужно проверить, есть ли у вас на сайте страница с 404 ошибкой. Страниц, которых нет должны отдавать 404 ошибку. Возможно, еще, что сервер не правильно работает.

  82. 82. Алексей

    Sosnovskij,
    404 страница есть. Про сервер не знаю. В инете искал как забороть эту гадость, не нашел.

    У вас на сайте тоже такая штука проскакивает : https://sosnovskij.ru/?qwerty12345

    Я вот думаю влияет оно или нет? На том сервисе пишут, что не очень хорошо.

  83. 83. Sosnovskij

    Алексей, да, действительно так. Я проверял всегда без ? или подобных символов. В таком случае отдается 404 страница. Это из-за особенностей движка видимо.

  84. 84. Алексей

    Sosnovskij,
    У вас вордпресс, у меня джумла.

    Есть мысли как убрать? И стоит ли заморачиваться?

  85. 85. Sosnovskij

    Алексей, убрать — это, скорее всего, на уровне программирования CMS. Думаю, что не особо стоит заморачиваться. У того же яндекса такая же песня :). Попробуйте.

  86. 86. Алексей

    Sosnovskij,
    Им то чего боятся -)

    Я сайт только делаю, не знаю, будет ли это дубли порождать.

    Вопрос: В индексе у поисковиков такие ссылки появляются?

    Если нет, то не понятно зачем в той проге аудиторской это указано как недостаток. Если оно дубли не порождает.

  87. 87. Александр

    /?qwerty12345
    На сайте созданным 10 лет назад из одних .html страниц, та же песня.
    Это не только в CMS

  88. 88. Arthur

    Нужна ли категория в поиске? Если нет, то обоснуйте ответ.

  89. 89. Sosnovskij

    Arthur, я оставляю категории в поиске. На них идет трафик с ПС + они дают дополнительный статический вес другим внутренним страницам.

Добавить комментарий

 

* Нажимая на кнопку "Добавить комментарий" я соглашаюсь с Политикой конфиденциальности.

Привет! А еще у меня есть телеграм-канал @sosnovskij. Туда я публикую чаще =).
Это короткие, но емкие посты по SEO: эксперименты, наблюдения, личный опыт. Заходите, читайте, подписывайтесь ;-) .