+0.12
Рейтинг
0.34
Сила

Про директиву Disallow из robots.txt

Навеяно яростно обсуждавшейся заметкой господина Znayka .

Disallow из robots.txt ( как и гаубица М-30 ) — самая лучшая и старейшая из систем. SEO, правда, но тоже штука массового поражения. На данный момент, это единственный 100%-ый способ закрыть от всех поисковиков линки на сайте. Ибо rel=«nofollow», то ли вообще не работает, то ли работает оригинальным образом, но точно больше не работает так, как раньше. А noindex принимается во внимание не всеми поисковиками (Яндекс — точно понимает, а Google — точно нет).

Чем опасно? robots.txt — самый высоко приоритетный файл для веб краулеров. Изменения в нём учитываются очень быстро. Одно не верное движение — и N тысяч ваших страниц будут выкинуты из поисковых систем. И очень не скоро вернуться обратно, даже после исправления. Особенно в отношении Яндес верно. Google — он пошустрее.

Читать дальше →

Оптимизация автоматической генерации мета тега keywords плагином "SEO"

Плагин «SEO» прекрасен в своей простоте, но результат выдаёт несколько прямолинейный. Этот вопрос уже как-то поднимал господин ETNO , но действительно интересного решения не предложил. К счастью, нет никакой магии в том, чтобы подправить нужные tpl-и и получить более интересный результат.

Чего хотелось?
  1. Всегда и везде исключить дублирование ключевых фраз.
  2. Добавить название блога в список ключевых фраз страницы топика и, собственно, самой страницы блога.
  3. Убрать запихивание стандартных ключевых фраз из конфигурации livestreet для страниц блога и топика, но всё же, кроме всего прочего, добавлять туда название сайта.
  4. Сформировать список ключевых слов для страниц «Блоги» из их названий.
  5. Ключевые фразы для списков топиков сформировать как стандартный список из конфигурации livestreet, расширенный названиями блогов, к которым относятся топики из списка.
  6. Ключевые фразы для страницы поиска по тегу сформировать как стандартный список из конфигурации livestreet, расширенный названием тега по которому искали и названиями блогов, к которым относятся найденные топики.
  7. Ключевые фразы для страницы поиска — стандартный список из конфигурации livestreet, расширенный фразой которую искали и названиями блогов, к которым относятся найденные топики или комментарии.

Читать дальше →

Настройка TinyMCE в LiveStreet (универсальная инструкция)

У меня возникла необходимость настроить WYSIWYG редактор TinyMCE в LS, но толковой инструкции по этой теме я на сайте найти не смог, а так как уже порядком подзабыл что там и как, да еще и в связке с LiveStreet — то пришлось разбираться самому. Прочитав все что есть по данной теме здесь, я решил, что будет полезно написать универсальную инструкцию по настройке данного редактора. Всех кого эта тема заинтересовала — прошу под кат.
Читать дальше →

Номера страниц в title [решено]

Добрый вечер. Проблема такая, слишком много повторяющихся заголовков, тк в ls не прописываются номера страниц в TITLE.
По сути, главная site.ru/ должна иметь
<title>Название сайта</title>

А вторая страница (/index/page2)
<title>Название сайте - 2 страница</title>


Еще, есть описания блога. Как организовать вставку описания (на самой странице блога) только на первой странице? Получается очень много дублей, благодаря которым можно легко схлопотать АГС.
Как такое организовать в LS?
UPD 0.1
Решение вопроса выше нашёл сам. Этого можно добиться конструкцией:
{if $aPaging.iCurrentPage=='1'}Текст{else}текст2{/if}


Читать дальше →

Быстрая интеграция поиска от Google в ваш сайт.

Задача довольно простая, но на всякий случай изложу готовое решение, на тот случай если кто-то сходу не разберется.

Интеграция гугло-поиска может пригодится если Sphinx вы установить не в силах (к примеру виртуальный хостинг, как это в моем случае), а плагин aceMySearch вам по каким-то причинам не подходит (не хотите получить дополнительную нагрузку на сайт или просто хотите немного заработать на AdSense :)

Читать дальше →