Вопрос по seo-оптимизации лс.

Решил оптимизировать некоторые разделы сайта, с последующим их продвижением.

Для анализа по внутренней оптимизации использовал пульт и ему подобные системы (для автоматического продвижения), двигать им не собираюсь но для предварительной работы они вроде подходят, по отзывам.

Так вот ближе к делу.

Есть раздел (коллективные блог), в нем статьи.

Этот раздел оптимизируется под ключевой запрос к примеру «слоники». Статьи в разделе тоже естественно про «слоников». Если нажать на раздел то он выводит список статей. с анонсами.

Решил проверить этот раздел «слоники» сервисом пульта. А он мне пишет что у вас контент не уникальный, весь уникальный контент внутри страниц.

И тут я впал в ступор и непонимание.

Получается что все анонсы в коллективном блоге считаются дублями? И что теперь их закрывать от индексации нужно?

Если кто в этом разбирается проясните пожалуйста.

5 комментариев

avatar
Советую не париться по пустякам и не пользоваться такими программами.
читай forum.searchengines.ru/
avatar
Можно поподробней почему не пользоваться подобными программами (сеопульт, руки, вебэффектор)?
avatar
Перестаньте читать чепуху и почитайте действительно общепризнанные книжки по seo-оптимизации.
avatar
Советую не париться по пустякам и не пользоваться такими программами.
читай forum.searchengines.ru/

форум просматриваю и пытаюсь читать, но там много мнений и много хлама и мой неокрепший в seo ум, там просто перестает работать…

а программы в целом не плохие, там есть средства для анализа сайтов и составления семантического ядра и всякие плюшки…
Но в любом случае без головы программы не помогут)

Можно поподробней почему не пользоваться подобными программами (сеопульт, руки, вебэффектор)?
Да можно пользоваться, если хватает ума без программ с помощью сапы работать то можно и без программ…
Программы просто автоматизируют процесс и берут за это комиссию…

Перестаньте читать чепуху и почитайте действительно общепризнанные книжки по seo-оптимизации.
посоветуйте, что почитать можно?
avatar
И что теперь их закрывать от индексации нужно?
Причем здесь движок? На любом сайте, независимо от движка, желательно закрывать от индексирования все дубли.

Пропишите в robots.txt что-нибудь наподобие этого — и будет вам счастье.

User-agent: *
Disallow: /rss
Disallow: /people
Disallow: /tag
Disallow: /top
Disallow: /comments
Disallow: /talk
Disallow: /search
Disallow: /classes
Disallow: /config
Disallow: /include
Disallow: /templates
Disallow: /logs
Disallow: /registration
Disallow: /login
Disallow: /profile
Disallow: /my
Host: xxx.ru
Crawl-delay: 0.5

Хотя, сейчас поисковые роботы становятся все умнее и уже сами неплохо учатся разбирать структуру сайта и исключать лишнее без штрафных санкций, так что можно и забить.
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.