+2.15
Рейтинг
3.97
Сила

Женя

  • avatar CapLS
  • 2
Извините — но это не верно. советую посмотреть для примера сайты на WP и Joomla и Вы удивитесь как и что можно и нужно закрывать в robots.txt и обязательно прочтите справку яндекса о robots и гугла
Правильнее вместо страниц дублей отдавать ошибку 404 или поставить редирект
Не верно. Верно — исключить на уровне CMS — это вопрос к разработчикам.
Мой роботс для примера:
Disallow: /rss
Disallow: /search/
Disallow: /tmp/
Disallow: /logs/
Disallow: /config/
Disallow: /webstat/
Disallow: /engine/
Disallow: /include/
Disallow: /templates/
Disallow: /blogs
Disallow: /tags
Disallow: /tag
Disallow: /top
Disallow: /talk
Disallow: /classes
Disallow: /logs
Disallow: /registration
Disallow: /login
Disallow: /profile
Disallow: /my
Disallow: /people
Disallow: /profile
Disallow: /settings/
Disallow: /index

Что имеем? В гугле — 100% индексация и 0 соплей.
Насколько я понял при деактивации плагина выполняется запрос на удаление всех переводов. Переводы блогов точно удаляются. Не очень как-то. А так же напдпись «Язык сайта» у меня в хроме отображается как «Мова сайта», в ФФ — «Язык сайта», хоть я из Украины но все интерфейсы и общий язык — русский.