Извините — но это не верно. советую посмотреть для примера сайты на WP и Joomla и Вы удивитесь как и что можно и нужно закрывать в robots.txt и обязательно прочтите справку яндекса о robots и гугла
Правильнее вместо страниц дублей отдавать ошибку 404 или поставить редирект
Не верно. Верно — исключить на уровне CMS — это вопрос к разработчикам.
Мой роботс для примера:
Насколько я понял при деактивации плагина выполняется запрос на удаление всех переводов. Переводы блогов точно удаляются. Не очень как-то. А так же напдпись «Язык сайта» у меня в хроме отображается как «Мова сайта», в ФФ — «Язык сайта», хоть я из Украины но все интерфейсы и общий язык — русский.
Не верно. Верно — исключить на уровне CMS — это вопрос к разработчикам.
Мой роботс для примера:
Что имеем? В гугле — 100% индексация и 0 соплей.