Помощь в раскрутке

Разыскивается человек, имеющий положительный опыт работы с Google AdWords. Примеы работ привествуются. Задача: помощь в создании рекламной компании, грамотном распределении бюджета.

Цены ваши. Предложения в личку.

Плагин "TrickyTitle" - хитрые и уникальные заголовки страниц

Привет друзья!

С удовольствием представляю вам новый, полезный, модуль для LiveStreet 1.0.1.


Плагин предназначен для автоматической модификации содержимого HTML тега «title». Таким образом, чтобы это содержимое выглядело информативно для поисковых систем, было уникальным для любой страницы, и вместе с тем, не теряло осмысленности.

В первую очередь нацелено на различные страницы со списками топиков, которые по умолчанию не имеют уникальных заголовков совсем, либо имеют их в очень ограниченном виде (акции index, blog, tag и тому подобное)

Читать дальше →

share42 и LiveStreet

Да, я знаю, что об интеграции социальных кнопок скриптом share42 уже пару раз писали. Но оба предложенных варианта не переполнили меня восторгом.

Отступление: На справедливый вопрос «а зачем это вообще нужно?» у меня нету готового ответа. Это SEO. Но базовая интеграция с социальными сетями в каком-то виде, есть в шаблонах изначально. На мой взгляд этого мало, но даже в рамках команды нашего сайта, мы долго обсуждали необходимость дополнительных усилий в этом направлении, и целесообразность применения share42, в частности. Тема глубоко субъективная.

Так вот, плагин для подобной задачи кажется мне слишком тяжёлым решением, а ручная модификация tpl-ей шаблонов — слишком грубым.

В итоге, я решил попробовать прикрутить кнопки применив механизм блоков.

Читать дальше →

Про директиву Disallow из robots.txt

Навеяно яростно обсуждавшейся заметкой господина Znayka .

Disallow из robots.txt ( как и гаубица М-30 ) — самая лучшая и старейшая из систем. SEO, правда, но тоже штука массового поражения. На данный момент, это единственный 100%-ый способ закрыть от всех поисковиков линки на сайте. Ибо rel=«nofollow», то ли вообще не работает, то ли работает оригинальным образом, но точно больше не работает так, как раньше. А noindex принимается во внимание не всеми поисковиками (Яндекс — точно понимает, а Google — точно нет).

Чем опасно? robots.txt — самый высоко приоритетный файл для веб краулеров. Изменения в нём учитываются очень быстро. Одно не верное движение — и N тысяч ваших страниц будут выкинуты из поисковых систем. И очень не скоро вернуться обратно, даже после исправления. Особенно в отношении Яндес верно. Google — он пошустрее.

Читать дальше →

Оптимизация автоматической генерации мета тега keywords плагином "SEO"

Плагин «SEO» прекрасен в своей простоте, но результат выдаёт несколько прямолинейный. Этот вопрос уже как-то поднимал господин ETNO , но действительно интересного решения не предложил. К счастью, нет никакой магии в том, чтобы подправить нужные tpl-и и получить более интересный результат.

Чего хотелось?
  1. Всегда и везде исключить дублирование ключевых фраз.
  2. Добавить название блога в список ключевых фраз страницы топика и, собственно, самой страницы блога.
  3. Убрать запихивание стандартных ключевых фраз из конфигурации livestreet для страниц блога и топика, но всё же, кроме всего прочего, добавлять туда название сайта.
  4. Сформировать список ключевых слов для страниц «Блоги» из их названий.
  5. Ключевые фразы для списков топиков сформировать как стандартный список из конфигурации livestreet, расширенный названиями блогов, к которым относятся топики из списка.
  6. Ключевые фразы для страницы поиска по тегу сформировать как стандартный список из конфигурации livestreet, расширенный названием тега по которому искали и названиями блогов, к которым относятся найденные топики.
  7. Ключевые фразы для страницы поиска — стандартный список из конфигурации livestreet, расширенный фразой которую искали и названиями блогов, к которым относятся найденные топики или комментарии.

Читать дальше →

Плагин «AutoAlt» — автоматические alt-ы изображений

Уважаемые коллеги,

Пользователи вашего сайта всегда заполняют описание (alt) изображений в создаваемых топиках? А вы сами — всегда? Но по идее это важно, из соображений доступности для людей с ограниченными возможностями, и для поисковой оптимизации.

Поэтому вам может оказаться полезным плагин AutoAlt, который заполняет пустые alt-аттрибуты на изображениях топика автоматически (при сохранении топика).



Плагин написан для и используется на сайте ММОзговед. Отправной точкой в создании плагина стал фрагмент TopicExtend, который был значительно переработан для работы с названием блога.

Работает по следующему сценарию:

  • Если alt-а нет или он пустой, то создаёт его со значением «Название блога: Название топика».
  • Если alt есть и не содержит название блога, то добавляет «Название блога: Существующий ALT». Иначе alt не изменяется.

В config/config.php можно отключить добавление названия блога (тогда берётся только название топика).

Изменение производится при сохранении топика — т.е. чтобы увидеть его на существующих топиках, их необходимо пересохранить. Фотосеты не затрагиваются данным плагином.

Исходный код доступен на GitHub (только надо переименовать папку с плагином в autoalt, если будете качать его оттуда до прохождения модерации).

Дайте знать, если встретятся какие-либо проблемы.

PS Аватар сгенерен забавным сервисом RoboHash по тексту “AutoAlt LS plugin”. Не всегда же быть серьёзными! :)

Плагин «Оптимизация и внутренняя перелинковка сайта (Cross linker)» - мечты сбываются!

НОВОЕ

Более 20 улучшений! Рассмотрим их поближе:

Читать дальше →

Текст в сайдбаре на произвольной странице

Здравствуйте.

Как на странице типа livestreet.ru/tag/css/ в сайдбаре разместить блок с произвольным текстом?

Хочу заняться продвижением отдельных страниц, поэтому нужно вносить точные вхождения и другие текста на страницы. Было бы здорово в виде плагина. Я могу спонсировать разработку плагина.

Требуется программист для оптимизации LS под SEO оптимизацию

Приветствую требуется программист для проведение работы над LS 051, для оптимизации движка.

Работы примерно следующие:
  1. Дублирование урлов
  2. Дублирование улов с слешом на конце
  3. Конфликт robot.txt и sitemap

Подробнее скину в личку. Пишите так сказать у кого есть возможность в комменты или в ЛС.

Пунктов примерно 10-15 с подпунктами :) Буду рад сотрудничеству.

Если с этой задачей будет все нормец, буду подливать работы постоянно.

Вобщем ищу доброго души человека и знающего прогера на LS