+13.91
132 читателя, 28 топиков

Так что должно быть robots.txt версии LS 1.01

Прочитал все топики данного блога и так и не нашел ответ на свой вопрос: что должно быть robots.txt версии LS 1.01?

Я имею в виду какие каталоги сайта должны быть закрыты Disallow, а какие нет.

Это очень важная тема, так как можно вообще закрыть сайт от поисковиков.

Я вот на своем сайте www.infowind.ru сделал robots.txt, но хочу узнать ваше мнение прав как мне его заполнить.

Так же посоветуйте, как защитить каталоги сайта от постороннего вхождения (htaccess или еще каким способом)?

Про директиву Disallow из robots.txt

Навеяно яростно обсуждавшейся заметкой господина Znayka .

Disallow из robots.txt ( как и гаубица М-30 ) — самая лучшая и старейшая из систем. SEO, правда, но тоже штука массового поражения. На данный момент, это единственный 100%-ый способ закрыть от всех поисковиков линки на сайте. Ибо rel=«nofollow», то ли вообще не работает, то ли работает оригинальным образом, но точно больше не работает так, как раньше. А noindex принимается во внимание не всеми поисковиками (Яндекс — точно понимает, а Google — точно нет).

Чем опасно? robots.txt — самый высоко приоритетный файл для веб краулеров. Изменения в нём учитываются очень быстро. Одно не верное движение — и N тысяч ваших страниц будут выкинуты из поисковых систем. И очень не скоро вернуться обратно, даже после исправления. Особенно в отношении Яндес верно. Google — он пошустрее.

Читать дальше →

Как убрать слэш в htaccess? Или склеиваем дубли.

Все знают, что дубли это плохо, при их большом количестве можно сильно пострадать, особенно от Яндекса. Итак, я попробую дать ответ на то, как убрать часть дублей в ЛС. А если кто поможет убрать другую часть дублей — буду премного благодарен!

Убираем дубли типа ваш сайт/blog и ваш сайт/blog/ — как видите, здесь отличие только в слэше в конце. Нужно эти страницы склеить. Я предлагаю сделать так, чтобы в конце всегда был слэш, написать в .htaccess:


RewriteCond %{REQUEST_URI} (.*/[^/.]+)($|\?)
RewriteRule .* %1/ [R=301,L]


Но в таком случае (да и по умолчанию, если код указанный выше не писать), остается еще часть дублей — это сами статьи. Каждая статья доступна по двум адресам:

название статьи.html и название статьи.html/

Как видите, есть в конце слэш, и все статьи со слешем есть в индексе Яндекса. На этом сайте, кстати, тоже. Как решить эту склейку, я не знаю. Поэтому, предлагаю решить ее вместе.

Как улучшить LiveStreet CMS для поисковых систем?

Ни для кого не секрет, что LiveStreet CMS не является seo friendly CMS, но таких CMS не так и много. По этому поводу я написал топик в своем блоге на своем сайте. Адресованный больше разработчикам LiveStreet CMS, чем простым вебмастерам. Хотя, и владельцам сайтов будет полезно почитать. Здесь же я вкратце даю советы по оптимизации сайта на LiveStreet CMS для лучшего ранжирования в поисковых системах. По личному опыту.

Узнать, как улучшить LiveStreet CMS для поисковых систем

Оптимизация автоматической генерации мета тега keywords плагином "SEO"

Плагин «SEO» прекрасен в своей простоте, но результат выдаёт несколько прямолинейный. Этот вопрос уже как-то поднимал господин ETNO , но действительно интересного решения не предложил. К счастью, нет никакой магии в том, чтобы подправить нужные tpl-и и получить более интересный результат.

Чего хотелось?
  1. Всегда и везде исключить дублирование ключевых фраз.
  2. Добавить название блога в список ключевых фраз страницы топика и, собственно, самой страницы блога.
  3. Убрать запихивание стандартных ключевых фраз из конфигурации livestreet для страниц блога и топика, но всё же, кроме всего прочего, добавлять туда название сайта.
  4. Сформировать список ключевых слов для страниц «Блоги» из их названий.
  5. Ключевые фразы для списков топиков сформировать как стандартный список из конфигурации livestreet, расширенный названиями блогов, к которым относятся топики из списка.
  6. Ключевые фразы для страницы поиска по тегу сформировать как стандартный список из конфигурации livestreet, расширенный названием тега по которому искали и названиями блогов, к которым относятся найденные топики.
  7. Ключевые фразы для страницы поиска — стандартный список из конфигурации livestreet, расширенный фразой которую искали и названиями блогов, к которым относятся найденные топики или комментарии.

Читать дальше →

Небольшой эксперимент по СЕО-оптимизации шаблона LS

Оговорюсь сразу: я не СЕОшник и споров о том, что правильно и как надо делать разводить не хотелось бы. Хочу просто поделиться опытом по небольшой оптимизации дефолтного шаблона. Только личный опыт.

Итак, в наличии имеется сайт новостной тематики на LS, небольшой поток посетителей в основном с поисковых систем. По «важности» страницы для себя делю так: главная, страницы блогов, страницы топиков, прочие страницы.

Наблюдая за переходами из поисковиков (запросы по которым пользователи переходят на сайт и страницы куда они попадают по этим запросам) заметил следующее: преобладающее количество запросов ведет на страницы тегов, вместо необходимых мне страниц топиков и блогов. Было решено поэкспериментировать.

Здесь где-то мелькали предложения просто запретить индексацию страниц тегов в robots.txt — это не вариант, так как по ним тоже есть переходы и их терять не хочется, а хочется просто поднять выше в выдаче страницы топиков и блогов.
Читать дальше →

Is LiveStreet optimized for Google semantic search ?

Google is launching a massive semantic search update. This update impacts of all searches. This is the new update to the Google algorithm this year. If your site relies on people, places, or reviews to generate traffic it is time to get serious about microformats.
support.google.com/webmasters/bin/answer.py?hl=en&answer=99170
support.google.com/webmasters/bin/topic.py?hl=en&topic=1088474&parent=21997&ctx=topic

Free Webmaster tool for this: www.google.com/webmasters/tools/richsnippets

Update 1) 30.05.2012

microformats.org news about microformats
schema.org collection of schemas
www.optimum7.com/internet-marketing/web-development/microdata-for-wordpress.html Example plugin microformats

Update 2) 30.05.2012

semanticweb.com about semantic web technology

Прогон сайта по белым каталогам

Интересует есть ли тут люди которые занимаются прогоном сайта по белым каталогам или могут кого то посоветовать? И цена вопроса. Заинтересованность такая что бы не было кидалова.

P.S. возможно у кого то есть бесплатные сайты по прогону сайта по бесплатным каталогам. Оставляйте ссылки в комментариях.