Вопрос по seo-оптимизации лс.
Решил оптимизировать некоторые разделы сайта, с последующим их продвижением.
Для анализа по внутренней оптимизации использовал пульт и ему подобные системы (для автоматического продвижения), двигать им не собираюсь но для предварительной работы они вроде подходят, по отзывам.
Так вот ближе к делу.
Есть раздел (коллективные блог), в нем статьи.
Этот раздел оптимизируется под ключевой запрос к примеру «слоники». Статьи в разделе тоже естественно про «слоников». Если нажать на раздел то он выводит список статей. с анонсами.
Решил проверить этот раздел «слоники» сервисом пульта. А он мне пишет что у вас контент не уникальный, весь уникальный контент внутри страниц.
И тут я впал в ступор и непонимание.
Получается что все анонсы в коллективном блоге считаются дублями? И что теперь их закрывать от индексации нужно?
Если кто в этом разбирается проясните пожалуйста.
Для анализа по внутренней оптимизации использовал пульт и ему подобные системы (для автоматического продвижения), двигать им не собираюсь но для предварительной работы они вроде подходят, по отзывам.
Так вот ближе к делу.
Есть раздел (коллективные блог), в нем статьи.
Этот раздел оптимизируется под ключевой запрос к примеру «слоники». Статьи в разделе тоже естественно про «слоников». Если нажать на раздел то он выводит список статей. с анонсами.
Решил проверить этот раздел «слоники» сервисом пульта. А он мне пишет что у вас контент не уникальный, весь уникальный контент внутри страниц.
И тут я впал в ступор и непонимание.
Получается что все анонсы в коллективном блоге считаются дублями? И что теперь их закрывать от индексации нужно?
Если кто в этом разбирается проясните пожалуйста.
5 комментариев
читай forum.searchengines.ru/
форум просматриваю и пытаюсь читать, но там много мнений и много хлама и мой неокрепший в seo ум, там просто перестает работать…
а программы в целом не плохие, там есть средства для анализа сайтов и составления семантического ядра и всякие плюшки…
Но в любом случае без головы программы не помогут)
Да можно пользоваться, если хватает ума без программ с помощью сапы работать то можно и без программ…
Программы просто автоматизируют процесс и берут за это комиссию…
посоветуйте, что почитать можно?
Пропишите в robots.txt что-нибудь наподобие этого — и будет вам счастье.
User-agent: *
Disallow: /rss
Disallow: /people
Disallow: /tag
Disallow: /top
Disallow: /comments
Disallow: /talk
Disallow: /search
Disallow: /classes
Disallow: /config
Disallow: /include
Disallow: /templates
Disallow: /logs
Disallow: /registration
Disallow: /login
Disallow: /profile
Disallow: /my
Host: xxx.ru
Crawl-delay: 0.5
Хотя, сейчас поисковые роботы становятся все умнее и уже сами неплохо учатся разбирать структуру сайта и исключать лишнее без штрафных санкций, так что можно и забить.