Как улучшить LiveStreet CMS для поисковых систем?
Ни для кого не секрет, что LiveStreet CMS не является seo friendly CMS, но таких CMS не так и много. По этому поводу я написал топик в своем блоге на своем сайте. Адресованный больше разработчикам LiveStreet CMS, чем простым вебмастерам. Хотя, и владельцам сайтов будет полезно почитать. Здесь же я вкратце даю советы по оптимизации сайта на LiveStreet CMS для лучшего ранжирования в поисковых системах. По личному опыту.
Тем не менее, имея то, что есть сейчас, LiveStreet CMS можно улучшить для поисковых систем. Улучшить ранжирование сайта на LiveStreet CMS. Для этого нужно соблюдать несколько простых правил. Делюсь личным опытом. Что-то касается только ЛС, что-то взято по опыту продвижения других проектов.
1. Создайте хороший robots.txt. К сожалению, он не входит в поставку по умолчанию. Но уже поднимался вопрос создания верного на сайте сообщества, есть что почитать.
2. Создайте карту сайта. Как можете – повысьте стоимость хостинга (чтобы был доступен SSH Доступ, необходимый для создания карты), создайте, потом понизьте стоимость, карта по идее должна остаться.
3. Закройте передачу веса на облако тегов. Где-то здесь, на сайте сообщества был топик, как это сделать. То есть, все теги (под прямым эфиром) должны быть c атрибутом rel=«nofollow». А вообще их лучше закрыть в robots.txt от индексации.
4. Пусть все внешние ссылки с вашего сайта будут с rel=«nofollow», это легко настраивается из админки.
5. Не используйте перед
6. Используйте ключевые слова в заголовке (и в тексте, конечно же). А также поставьте себе этот плагин. Но не делайте слишком длинных заголовков. Для лучшего ранжирования, сделайте адреса такими: ваш сайт/название блога/название топика или же ваш сайт/название топика
7. Ставьте под
8. Используйте минимальное количество плагинов, на начальном этапе, чтобы не ухудшать скорость загрузки сайта.
9. Следите за поведенческими факторами на сайте, и улучшайте их.
10. Распространяйте ссылки на сайт через социальные сети. А в идеале, за год до создания проекта завести тематические странички на твиттер, фейсбук, в контакте, гугл +, и даже в одноклассниках. И не просто завести, а раскрутить. Это даст приток социального трафика (активного).
11. Не вешайте рекламу на сайт, пока его посещаемость не вырастет хотя бы до минимального уровня Рекламной Сети Яндекса. А вообще, если дело касается ЛС – пока не появится активный костяк сообщества.
12. Не перегружайте сайт рекламой, это влияет на ранжирование в поисковых системах.
13. Не торгуйте ссылками на сайте, если собираетесь продвигать его через поисковые системы. За это тоже бывают фильтры и понижение позиций.
Пока что все. Но это у меня все – ваш опыт и мнения в комментариях.
Тем не менее, имея то, что есть сейчас, LiveStreet CMS можно улучшить для поисковых систем. Улучшить ранжирование сайта на LiveStreet CMS. Для этого нужно соблюдать несколько простых правил. Делюсь личным опытом. Что-то касается только ЛС, что-то взято по опыту продвижения других проектов.
1. Создайте хороший robots.txt. К сожалению, он не входит в поставку по умолчанию. Но уже поднимался вопрос создания верного на сайте сообщества, есть что почитать.
2. Создайте карту сайта. Как можете – повысьте стоимость хостинга (чтобы был доступен SSH Доступ, необходимый для создания карты), создайте, потом понизьте стоимость, карта по идее должна остаться.
3. Закройте передачу веса на облако тегов. Где-то здесь, на сайте сообщества был топик, как это сделать. То есть, все теги (под прямым эфиром) должны быть c атрибутом rel=«nofollow». А вообще их лучше закрыть в robots.txt от индексации.
4. Пусть все внешние ссылки с вашего сайта будут с rel=«nofollow», это легко настраивается из админки.
5. Не используйте перед
<cut>крупные и тяжелые картинки, видео – это понижает загрузку сайта в разделе блога, и на главной, если топик туда попадет.
6. Используйте ключевые слова в заголовке (и в тексте, конечно же). А также поставьте себе этот плагин. Но не делайте слишком длинных заголовков. Для лучшего ранжирования, сделайте адреса такими: ваш сайт/название блога/название топика или же ваш сайт/название топика
7. Ставьте под
<cut>только картинки, оставляя, таким образом, текст статьи полностью уникальным. (Сейчас нет возможность ввода уникального анонса, поэтому, текст под
<cut>будет дублироваться как минимум в блоге, в тегах, и в самом топике, и как максимум еще и на главной).
8. Используйте минимальное количество плагинов, на начальном этапе, чтобы не ухудшать скорость загрузки сайта.
9. Следите за поведенческими факторами на сайте, и улучшайте их.
10. Распространяйте ссылки на сайт через социальные сети. А в идеале, за год до создания проекта завести тематические странички на твиттер, фейсбук, в контакте, гугл +, и даже в одноклассниках. И не просто завести, а раскрутить. Это даст приток социального трафика (активного).
11. Не вешайте рекламу на сайт, пока его посещаемость не вырастет хотя бы до минимального уровня Рекламной Сети Яндекса. А вообще, если дело касается ЛС – пока не появится активный костяк сообщества.
12. Не перегружайте сайт рекламой, это влияет на ранжирование в поисковых системах.
13. Не торгуйте ссылками на сайте, если собираетесь продвигать его через поисковые системы. За это тоже бывают фильтры и понижение позиций.
Пока что все. Но это у меня все – ваш опыт и мнения в комментариях.
Интернет все больше приходит в нашу жизнь. Многие начинают предлагать свои товары и услуги через интернет-сайты, поэтому очень важно грамотно и качественно раскрутить свой сайт. В раскрутке вам может помочь компания Продекс http://prodex.ua/lvov/.
139 комментариев
А то из описания «предназначение плагина это оптимизация структуры сайта на LiveStreet CMS
для поисковых систем» — не особо понятна суть манипуляций для улучшения сео ))
Во-первых, большая часть авторских текстов в сети по теме представляет довольно мало ценности ибо всё устарело. Поисковые движки обновляют алгоритмы несколько раз в год и не особенно охотно рассказывают о себе правду. Так что брать на вооружение надо с большой осторожностью.
Во-вторых, robots.txt штука опасная, одно неверное движение — и пройдут недели прежде чем Яндекс пересмотри своё мнение. От себя посоветую обязательно прописать там Host и Sitemap. Точно стоит закрыть линки на логин и регистрацию. Мы так же закрыли там streаm и rss — но я по сей день не уверен, что это верное решение.
sitemap.xml — обязательно надо. Для этого есть бесплатный плагин. Но вот нюансы настройки там Priority & Change Frequency это очень индивидуальная тема. Надо думать в контексте своего сайта. Плюс поисковики обходят сайтмэп очень медленно. очень.
rel=«nofollow» уже года три как игнорируется поисковыми движками. Для вашего сайта он совершенно точно не даёт ровным счетом ничего. А вот тем на кого ссылается линк — возможно приносит вред. Вообщем: ни себе ни людям. :)
мета таг keywords уже давно игнорируется гуглом. По их официальным словам, причём. Совершенно точно наличие или отсутствие этого тага никак не скажется на ранке страниц. НО! похоже качественный таг keywords способствует лучшей индексации страниц, по крайне мере таково наше наблюдение.
Nice URL — да. одна из не многих штук, которая точно работает.
скорость загрузки страниц — да, играет роль. но где там порог после которого краулер плюёт на страницу — не знаю. По идее он не так низок, в районе двух секунд.
социальные сети — да. Но там всё не просто. Раскрутка в социальных сетях особая тема, требующая особых и постоянных усилий. Наличие кнопки like само по себе не даст ничего.
ну и ещё работающая тема — alt на картинках.
как-то так…
А keywords приносит сайту пользу, я это подтверждаю. Замачиваться с ним стоит. Но это совсем не тот эффект как скажем 5 лет назад. Намного слабее :)
В рунете имеют значение только два поисковика Гугл и Яндекс — всё остальное не существенно.
P.S. Упс, по теме keywords совершенно забыл прорекламировать себя: livestreet.ru/blog/13477.html :)
Кстати, сайт о котором я говорю (по процентам из поиска) у меня не на ЛС. Сайт на ЛС хорошо идет под гугл и яндекс, в майл.ру еще не засвечен. Под гугл особенно хорошо пошел когда отметил ссылки тегов rel='nofollow' Конечно же, может это предрассудки и совпадения, но факт есть факт — он был недвижим в росте посещаемости уже давно. А тут буквально неделя и она полетела вверх.
Мы rel='nofollow' не делаем, сайт растёт и в гугле и в янлексе стабильно… SEO это, конечно, шаманство в крупной степени. :)
все подробно расписал, с первого раза все понял.
т.е. Я правильно понял что вы предлагаете закрыть (к примеру robots.txt: Disallow: /tag/) теги?
Тогда смотрите что получится: У меня гугло по запросу «Новини Ужгород» ведет именно на страницу: goloskarpat.info/tag/Ужгород/ и никак не на другие страницы тем более не на 1-ю. Если я теперь закрою через robots доступ к индексаци то я вылечу из выдачи гугла по этому запросу. Так?
А про яндекс — напишите платону вопрос.
Мне ответили просто: Вы можете закрыть от индексирования страницы, содержащие повторяющийся контент, с помощью файла robots.txt. Подробнее о том, как это сделать, Вы можете прочитать на странице нашей помощи: help.yandex.ru/webmaster/?id=996567#996571.
В таком случае никаких проблем с отражением страниц в поиске быть не должно.
Если у вас два список заметок и они отличаются только скажем сортировкой — то это Duplicated Content.
Первое — не зло и не нуждается в оптимизации. Второе — зло и с ним желательно бороться, но robots.txt для этого — варварский метод экстремальной жестокости :)
вы не потратили не копейки?
Можно узнать, какая у вас посещаемость на сайте?
так что юкоз уже не тот.
Но я понимаю вы делаете контентный ресурс и точите под поисковик, в надежде прихода пользователей по поисковым запросам, а о том как выглядит сайт, как подается информация — не задумываетесь.
всегда удивлялся как многие блоггеры учат оптимизировать и при этом у самих кака, хотя конечно умные мысли есть…
«Наверняка» можно сказать только про Disallow: /registration и Disallow: /login остальное на свой страх и риск.
думаю еще закрыть blogs
Disallow: /profile/
livestreet.ru/blog/sollutions/9962.html
Плохая, адсенс для фидов прекратил работу((
Хорошая, появился блок 600 на 300 — этакая простыня
Рассчитываю на сообщество и на регулярное посещение гостями (без регистрации). Для обеих групп посетителей есть целевой функционал.
больше кислородуменьше конкуренция :)Если у Вас есть хороший robots.txt так приведите его здесь и поделитесь с сообществом.
Есть соответствующий плагин. Я не понял при чем здесь стоимость хостинга и наличие ssh доступа.
Там же ссылки на внутренние страницы, я не знаток сео, но зачем запрещать ссылки из облака тегов на свои же страницы?
Они и так по умолчанию такие.
Для нормального хостинга думаю не актуально.
Согласен
Опять же для нормального хостинга неактуально.
Согласен.
В целом положительный топик, но хотелось бы побольше практической помощи и реализаций в сео, например реально хороший robots.txt и другие примеры. Автор молодец, хоть специалистов по сео многие «не переваривают», но реальность все таки требует продвижения и действий в этой области. Один уникальный контент и уникальный дизайн как некоторые считают дают к сожалению очень мало… почти ничего.
т.е. суммируя, среднестатистически можно закрыть:
— рсс
— поиск
— авторизацию
— регистрацию
все остальное — по выбору
Но, честно сказать, проблемы которые вы упоминали (падение производительности при использовании плагинов и тормоза с большим количеством видио с youtube), вполне могут быть следствием использования дешёвого хостинга.
выше ответил
ну ок.
не нужно этого делать до определения стратегии развития сайта (см. п. 1 выше)
это включено по-умолчанию. редко кто трогает эту опцию вообще.
полностью согласен на счет видео. картинки — разве что они реально не маленькие.
снова без выяснения стратегии из п. 1 данное утверждение неверно. ну и про 7 тоже самое.
есть просто тяжелые плагины сами по себе, а есть легкие. и зависит от мощности вашего сервера или если у вас просто шаред хостинг.
помогайте вермишели.
10-13 — все к п. 1.
итого понятно что совет выше полностью сделает ваш сайт не для людей, а для бирж ссылок.
Но если для вас топик ни о чем, напишите топик про сео-продвижение проекта на ЛС, который будет конкретный, по личному опыту (если он у вас, программиста, есть, конечно, а не вольные мысли) и своему же сайту.
Ну вот, например, картинко www.aleydasolis.com/wp-content/uploads/2012/02/seo-cms-friendly-checklist-infographic.gif
Вывод: LS в связке с несколькими плагинами вполне SEO friendly CMS.
У SeoLib есть фича, которую нигде не встречал — он учитывает количество проданных ссылок и при след индексации добавляет максимум страниц на 2-ой уровень, где еще нет продажных ссылок. Эта техника приводит к существенному увеличение заработка.
Если кто заинтересовался — пара промо-кодов на 30% скидку 74ffb05d и 764e48da
Нужен Ваш совет, хочу чтобs не заходили поисковики сюда:
http://домен/blogs/
http://домен/blog/название блога/top/
http://домен/blog/название блога/discussed/
http://домен/blog/название блога/newall/
http://домен/blogs/?order=*
Заходил сюда:
http://домен/blog/название блога/
Стоит ли закрывать вот эти линки:
http://домен/blog/top/
http://домен/blog/discussed/
http://домен/blog/news/