Как улучшить LiveStreet CMS для поисковых систем?

Ни для кого не секрет, что LiveStreet CMS не является seo friendly CMS, но таких CMS не так и много. По этому поводу я написал топик в своем блоге на своем сайте. Адресованный больше разработчикам LiveStreet CMS, чем простым вебмастерам. Хотя, и владельцам сайтов будет полезно почитать. Здесь же я вкратце даю советы по оптимизации сайта на LiveStreet CMS для лучшего ранжирования в поисковых системах. По личному опыту.


Тем не менее, имея то, что есть сейчас, LiveStreet CMS можно улучшить для поисковых систем. Улучшить ранжирование сайта на LiveStreet CMS. Для этого нужно соблюдать несколько простых правил. Делюсь личным опытом. Что-то касается только ЛС, что-то взято по опыту продвижения других проектов.

1. Создайте хороший robots.txt. К сожалению, он не входит в поставку по умолчанию. Но уже поднимался вопрос создания верного на сайте сообщества, есть что почитать.

2. Создайте карту сайта. Как можете – повысьте стоимость хостинга (чтобы был доступен SSH Доступ, необходимый для создания карты), создайте, потом понизьте стоимость, карта по идее должна остаться.

3. Закройте передачу веса на облако тегов. Где-то здесь, на сайте сообщества был топик, как это сделать. То есть, все теги (под прямым эфиром) должны быть c атрибутом rel=«nofollow». А вообще их лучше закрыть в robots.txt от индексации.

4. Пусть все внешние ссылки с вашего сайта будут с rel=«nofollow», это легко настраивается из админки.

5. Не используйте перед
<cut>
крупные и тяжелые картинки, видео – это понижает загрузку сайта в разделе блога, и на главной, если топик туда попадет.

6. Используйте ключевые слова в заголовке (и в тексте, конечно же). А также поставьте себе этот плагин. Но не делайте слишком длинных заголовков. Для лучшего ранжирования, сделайте адреса такими: ваш сайт/название блога/название топика или же ваш сайт/название топика

7. Ставьте под
<cut>
только картинки, оставляя, таким образом, текст статьи полностью уникальным. (Сейчас нет возможность ввода уникального анонса, поэтому, текст под
<cut>
будет дублироваться как минимум в блоге, в тегах, и в самом топике, и как максимум еще и на главной).

8. Используйте минимальное количество плагинов, на начальном этапе, чтобы не ухудшать скорость загрузки сайта.

9. Следите за поведенческими факторами на сайте, и улучшайте их.

10. Распространяйте ссылки на сайт через социальные сети. А в идеале, за год до создания проекта завести тематические странички на твиттер, фейсбук, в контакте, гугл +, и даже в одноклассниках. И не просто завести, а раскрутить. Это даст приток социального трафика (активного).

11. Не вешайте рекламу на сайт, пока его посещаемость не вырастет хотя бы до минимального уровня Рекламной Сети Яндекса. А вообще, если дело касается ЛС – пока не появится активный костяк сообщества.

12. Не перегружайте сайт рекламой, это влияет на ранжирование в поисковых системах.

13. Не торгуйте ссылками на сайте, если собираетесь продвигать его через поисковые системы. За это тоже бывают фильтры и понижение позиций.

Пока что все. Но это у меня все – ваш опыт и мнения в комментариях.
Интернет все больше приходит в нашу жизнь. Многие начинают предлагать свои товары и услуги через интернет-сайты, поэтому очень важно грамотно и качественно раскрутить свой сайт. В раскрутке вам может помочь компания Продекс http://prodex.ua/lvov/.

139 комментариев

avatar
Однозначно ЗЕЛЕНЫЙ Плюс, хороший мануал для пользователей LiveStreet. Добавлю на всякий в избранное. Спасибо.
avatar
Спасибо.
avatar
а как же плагин SEO livestreetcms.com/addons/view/94/ :)?
avatar
Ничего не могу сказать, не было опыта использования :)
avatar
можете добавить в статью
avatar
Обязательно, вечерком поздним, и завтра же опробую на своем сайте :)
avatar
а можно по-подробнее, что именно этот плагин делает?
А то из описания «предназначение плагина это оптимизация структуры сайта на LiveStreet CMS
для поисковых систем»
— не особо понятна суть манипуляций для улучшения сео ))
avatar
автоматически формирует мета теги keywords & description
avatar
Это обычные правила для любого сайта.
  • aex
  • +4
avatar
Знаете, у нас так, сложилось что в команде не оказалось ни одного человека хоть как-то не поверхностно знакомого с проблематикой SEO. Пришлось читать много в сети и ставить эксперименты. Делюсь глупым опытом набитым на собственных ошибках.

Во-первых, большая часть авторских текстов в сети по теме представляет довольно мало ценности ибо всё устарело. Поисковые движки обновляют алгоритмы несколько раз в год и не особенно охотно рассказывают о себе правду. Так что брать на вооружение надо с большой осторожностью.

Во-вторых, robots.txt штука опасная, одно неверное движение — и пройдут недели прежде чем Яндекс пересмотри своё мнение. От себя посоветую обязательно прописать там Host и Sitemap. Точно стоит закрыть линки на логин и регистрацию. Мы так же закрыли там streаm и rss — но я по сей день не уверен, что это верное решение.

sitemap.xml — обязательно надо. Для этого есть бесплатный плагин. Но вот нюансы настройки там Priority & Change Frequency это очень индивидуальная тема. Надо думать в контексте своего сайта. Плюс поисковики обходят сайтмэп очень медленно. очень.

rel=«nofollow» уже года три как игнорируется поисковыми движками. Для вашего сайта он совершенно точно не даёт ровным счетом ничего. А вот тем на кого ссылается линк — возможно приносит вред. Вообщем: ни себе ни людям. :)

мета таг keywords уже давно игнорируется гуглом. По их официальным словам, причём. Совершенно точно наличие или отсутствие этого тага никак не скажется на ранке страниц. НО! похоже качественный таг keywords способствует лучшей индексации страниц, по крайне мере таково наше наблюдение.

Nice URL — да. одна из не многих штук, которая точно работает.

скорость загрузки страниц — да, играет роль. но где там порог после которого краулер плюёт на страницу — не знаю. По идее он не так низок, в районе двух секунд.

социальные сети — да. Но там всё не просто. Раскрутка в социальных сетях особая тема, требующая особых и постоянных усилий. Наличие кнопки like само по себе не даст ничего.

ну и ещё работающая тема — alt на картинках.

как-то так…
avatar
rel=«nofollow» вроде учитывается яндексом еще. Про мета таг keywords гугл говорил в своем видеоблоге, что они не учитываются, НО используется описание. Опять же, гугл не единственный поисковик в мире.
avatar
rel=«nofollow» вероятно как-то учитывается но, совершенно точно (и для Яндекса и для Гугла), это не играет роли для вашего сайта никакой. Только для сайта на который ссылается линк с rel=«nofollow». Причём это давняя история. Которая бурно обсуждалась года три назад. Вот вам более менее внятный линк по теме devaka.ru/articles/nofollow-and-noindex-now и заметьте что этой статье уже два года.

А keywords приносит сайту пользу, я это подтверждаю. Замачиваться с ним стоит. Но это совсем не тот эффект как скажем 5 лет назад. Намного слабее :)

В рунете имеют значение только два поисковика Гугл и Яндекс — всё остальное не существенно.
avatar
Спасибо за ссылку на статью. 14% поискового трафика на мой сайт приносит mail.ru как ни банально. Гугл дает 29. Ничего не имею против ключевых слов, только За, потому как не работаю только под гугл. Кстати, гугл+яндекс вместе дают 83 процента. Итого, еще 5 % уходит на другие поисковые системы (рамблер, бинг, вебальта, нигма, квип, и так далее).
avatar
Вы наверное фигурируете в каталогах mail.ru, поэтому оттуда у вас эффект. У нас очень слабо заметно. Я не говорю что других поисковиков нет, но их доля настолько не велика, что тратить особые усилия на оптимизацию под них не имеет смысла. К тому же у большинства этих поисковиков стоят технологии либо Яндекс (Рамблер, Mail.ru) либо Гугл (Yahoo). Т.е. работают, очевидно, те же правила. Единственный, определённо уникальный движок это Bing, но его доля в рунете ни о чём…

P.S. Упс, по теме keywords совершенно забыл прорекламировать себя: livestreet.ru/blog/13477.html :)
avatar
Да, регистрация в майл.ру была только по счетчику, то есть счетчик их я на сайт ставил. Потом снял. Вообще, и под майл.ру и под рамблер часто требуют продвигать запросы у сео-спецов, видно по вакансиям. Голова кругом пошла от вашего топика — не в такое время, завтра, завтра… :)
Кстати, сайт о котором я говорю (по процентам из поиска) у меня не на ЛС. Сайт на ЛС хорошо идет под гугл и яндекс, в майл.ру еще не засвечен. Под гугл особенно хорошо пошел когда отметил ссылки тегов rel='nofollow' Конечно же, может это предрассудки и совпадения, но факт есть факт — он был недвижим в росте посещаемости уже давно. А тут буквально неделя и она полетела вверх.
avatar
Под гугл особенно хорошо пошел когда отметил ссылки тегов rel='nofollow' Конечно же, может это предрассудки и совпадения, но факт есть факт — он был недвижим в росте посещаемости уже давно.
На самом деле, любопытная информация. Вы уверены что изменение касалось только rel='nofollow'? Может еще что-то меняли с ним одновременно?

Мы rel='nofollow' не делаем, сайт растёт и в гугле и в янлексе стабильно… SEO это, конечно, шаманство в крупной степени. :)
avatar
как бы поиск майл более чем наполовину состоит из поиска яндекса+ плюс «собственные разработки»
avatar
rel=«nofollow» уже года три как игнорируется поисковыми движками. Для вашего сайта он совершенно точно не даёт ровным счетом ничего. А вот тем на кого ссылается линк — возможно приносит вред. Вообщем: ни себе ни людям. :)
Разрешите несогласится. Недавно настраивал ссылку на Google Plus. одно из ег требований чтоб была ссылка на профиль на сайте. Так вот, я по своей простоте душевной поставил rel=«nofollow» и пол дня промучался с тем что гугло в упор не хотел видеть эту подпись на сайте. И только после того как я снял этот rel он без проблем понял что где и когда
avatar
Хм… странно, раньше такого требования не было. И у меня таких проблем, буквально месяца 2-3 назад, не возникало.
avatar
Google+ это особый разговор, так как собственный сервис Гугла, и наверняка в его отношении у Гугла-поисковика особая политика.
avatar
Есть плагин robostat, но для 0.5.1. Который собирает статистику по поисковым роботам, которые посещают ваш сайт.
avatar
Объясните, пожалуйста, зачем нужна эта статистика вебмастеру, и как она помогает в продвижении сайта на ЛС?
avatar
Спасибо Znayka
все подробно расписал, с первого раза все понял.
  • Help
  • +1
avatar
Плюсанул, но меня смущает пунтк 3
3. Закройте передачу веса на облако тегов.
т.е. Я правильно понял что вы предлагаете закрыть (к примеру robots.txt: Disallow: /tag/) теги?
Тогда смотрите что получится: У меня гугло по запросу «Новини Ужгород» ведет именно на страницу: goloskarpat.info/tag/Ужгород/ и никак не на другие страницы тем более не на 1-ю. Если я теперь закрою через robots доступ к индексаци то я вылечу из выдачи гугла по этому запросу. Так?
avatar
Да вот я не уверен что вылетите. Неужели нет блога под названием «Новини Ужгород» куда бы логичнее приходить поисковику? Но если сомневаетесь, страшно, посещаемость высокая — не делайте. В любом случае, я рекомендую просмотреть вот это видео от гугл, про дубли контента. Там есть и про ситуацию когда существуют 2 страницы с одинаковым контентом.
avatar
Duplicate Content — достаточно просто решаемая тема с помощью link rel=«canonical», но это проблему на LS сложно получить. Только если совсем мало контента на сайте.
avatar
Почему же, очень даже легко — если есть блог «Легковые авто» и открытые теги «Легковые авто», «Авто легковые», «Легковой автомобиль» и так далее, полностью или частично дублирующий блог «Легковые авто». Еще есть публикации пользователей, также индексируются. Вот пишет какой-то 1 чем в блог «Легковые авто», создал он его себе, и все — вот вам блог, вот вам в его профиле топики, вот вам теги. Уже 3 страницы, как минимум, на ровном месте.
avatar
Ну да, согласен. У нас это относительно редкая ситуация, правда. Но опять же — link rel=«canonical» со страницы тега «Легковые авто» на блог «Легковые авто» — идеальное решение этой проблемы
avatar
Вообще link rel=«canonical» должно быть по умолчанию встроенное в CMS, а то слишком много придется руками менять. Мне простому обывателю, к примеру, даже не понятно где и какое условие прописывать, чтобы сразу все теги и профили пользователей сливать на другие страницы.
avatar
Невозможно ее встроить в CMS в лоб, потому что слишком индивидуальная тема. Например у нас блог «Aion» и tag «Aion» дают изрядно разный набор заметок, т.е. rel=«canonical» точно не нужен в этом случае. Каждый раз — по разному…
avatar
А это вообще другая тема. НУ как РАЗНЫЙ — текст же берется в них все равно не уникальный. Берется то, что под кат, и дублируется на массе страниц. Это как одна и та же колода карт, но перемешанная по другому.
avatar
Однако в Яндекс вебмастер такие страницы не помечаются такие страницы с Duplicate Content. А вот полное совпадение — помечается.
avatar
А вы гляньте видео выше там ясно говорится, что страницы с которых нужно перенаправлять ink rel=«canonical» совершенно не должны быть абсолютно и полностью идентичны.
А про яндекс — напишите платону вопрос.
Мне ответили просто: Вы можете закрыть от индексирования страницы, содержащие повторяющийся контент, с помощью файла robots.txt. Подробнее о том, как это сделать, Вы можете прочитать на странице нашей помощи: help.yandex.ru/webmaster/?id=996567#996571.
В таком случае никаких проблем с отражением страниц в поиске быть не должно.
avatar
да яндекс вечно голову мусолит всякой фигней, им лижбы деньги за сайт заплатить, только потом они начнут норм относиться к сайту.
avatar
т.е.? что имеется ввиду?
avatar
Если у вас два список заметок и они отличаются парой заметок — это НЕ Duplicated Content, даже с точки зрения робота Яндекса.

Если у вас два список заметок и они отличаются только скажем сортировкой — то это Duplicated Content.

Первое — не зло и не нуждается в оптимизации. Второе — зло и с ним желательно бороться, но robots.txt для этого — варварский метод экстремальной жестокости :)
avatar
avatar
А это… $400 за то чтобы заявку возможно отклонили выглядит для меня откровенным разводом :) Ну их нафиг, барыг.
avatar
вот и я про тоже, я когда сайт создавал, мне даже гугл проиндексировал и дал 10 PR а яндекс не дал не 1 ТИЦА, так что пока ты 12000 не скинешь, они даже пальцем шевелить не будут.
avatar
Если кто реально начнет заниматься сайтом, то ему как минимум 50000 отдать придется, это если человек еще все знает, и делает все сам, а если будет за него кто то делать, то на это минимум 200000 уйдет.
avatar
Бред. Я сам начинал свой первый проект и ни копейки не потратил на него, только на домен и хостинг, пока не стукнуло мне в голову прикрутить блоги на ЛС туда (которые потом снес). Сайт сам делал, статьи сам писал. Сейчас посещаемость выше 2000уников, не фонтан, но и проект уже не один у меня в копилке.
avatar
мне хостинг не нравится, как то на выделенный сервер больше тянет, особенно если сайт под ЛС
вы не потратили не копейки?
Можно узнать, какая у вас посещаемость на сайте?
avatar
я имею веду в день?, или у вас в день 2000 заходят?
avatar
Да, 2000 уникальных посетителей в день, скачет от сезонов. Но сайту 2 года, и я им занимался активно только в первый год, потом меньше. Можно самому все сделать и поднять — главное знать как, и пахать, пахать, пахать… ну и жить этим, любить, планировать.
avatar
а каким вы хостингом пользуетесь, чтоб он держал 2000 человек?
avatar
У меня на сайте, в профиле, ссылка на него справа. Стоит тариф за 5уе в месяц.
avatar
ну посещаемость сейчас маленькая как я вижу.
avatar
Это не тот сайт, о котором шла речь выше — этот сайт я никак не продвигаю, он просто хобби, для излияния души моей и друзей.
avatar
В Dmoz хорошо регаться — и бесплатно, и трафик дает новый, из разных поисковых систем. Мелочь, а приятно.
avatar
В DMOZ чрезвычайно не просто попасть.
avatar
я так понял что DMOZ, больше шансов попасть если сайт на английском.
avatar
Да нет, вообще когда-то давно туда приняли мой сайт на юкоз (юношеское увлечение), я чуть не присел — даже заявку не подавал.
avatar
сейчас юкоз, меньше всего индексируют, слишком много школьников, создают пустые шаблоны.
так что юкоз уже не тот.
avatar
В рубрике DMOZ которая наиболее подходит нашему проекту ровно один сайт :) Прикиньте какие шансы туда попасть. Я считаю — близкие к нулю. Завку мы конечно послали N недель назад — ни ответа ни привета. Правда, они честно предупреждают, что вопрос рассматривается несколько месяцев. DMOZ, в любом случае это очень круто, PR в гугле поднимет точно.
avatar
Наоборот, модераторы ДМОЗ пишут, что если в категории мало сайтов, то шансы попасть туда выше — им же надо заполнять чем-то каталог :) Так что ждите, и будет вам счастье ;)
avatar
гугл PR поднимает за уникальный текст, и сколько этого текст пашется в день, если вы только создали сайт и у вас там хотя бы больше 10 статей с уникальным текстом, то гугл сразу дает 10 PR после проверки, главное чтоб CMS еще норм индексировалась, например как много популярная worldpress.
avatar
Это вы так прикалываетесь? ОГО, чего же у этого сайта нет тогда 10 PR?
avatar
да я не про ваш сайт)
avatar
10 PR это запредельный ранк который я даже не знаю кто имеет в мире :) стартовый PR = 1. У самого Гугла — 9. Очень большой сайт национального уровня PR = 6-7
avatar
ну значет я был самым крутым в мире) потому что у меня было 10 RP
avatar
Недавно проводился Сео-курс для владельцев сайтов, тренинг своеобразный платный. После него на одном из форумов появилась вот такая интересная тема которую я вам (да и всем) рекомендую почитать.
avatar
а вот про Dmoz я не знал спасибо)
avatar
Да и что вам мешает поставить редирект с теговых страниц на те, куда бы и должен политься трафик, а через некоторое время закрыть теги от индексации.
avatar
Да и что вам мешает поставить редирект с теговых страниц на те, куда бы и должен политься трафик
Тогда зачем эти страницы с тегами придумали вообще ???
avatar
Навигация и удобство пользования. Как следствие, повышение поведенческих факторов. Но не облаком тегом единым они повышаются.
avatar
Закрывать поиск по тегу — идея точно плохая. Вы подумайте сколько у вас кросс-линков на сайте через таки в каждой заметке. А вот закрыть поиск — скорее да, чем нет.
avatar
Все таки я надеялся увидеть что то действительно что то не банальное. А вы перечислили как раз то о чем должны заботиться владельцы сайтов.
avatar
Особенно круто читать про убирание картинок и видео под кат — конечно, «не для пользователей» же делаем сайт.
avatar
Говорилось о крупных и тяжелых картинках, и как раз для пользователей — чтобы сайт нормально грузился у них, а не в ожидании загрузки 5 видео с главной страницы.
avatar
Конечно это правильно, но ждать пользователям как раз таки не приходиться ибо картинки весь браузер не блочат — картинки подгружаются. Как и видео, если вы умышленно autoplay не выставите загружается только превью и сам плеер, который уже давным давно закэшировался.

Но я понимаю вы делаете контентный ресурс и точите под поисковик, в надежде прихода пользователей по поисковым запросам, а о том как выглядит сайт, как подается информация — не задумываетесь.
avatar
Скажу по своему опыту, на ЛС 0.5.1 когда на главной 3-4 видео с ютуба скорость загрузки 7 секунд, когда их убираю — меньше секунды.
avatar
mmozg.net/tag/видео/ — 7 видео с ютуба. 0.3 сек. Не могу поверить что дело в ЛС 0.5.1 (у нас 1.0.1). Скорее причина в другом, а не ютюбе
avatar
Возможно, тут играют роль какие-то еще плагины, которые в купе с ютубом дают такой эффект. Но я говорю о том, что было актуально на моем сайте на главной странице — в топиках и блогах тормозов не было.
avatar
Хотя нет, в блогах были тоже. В самих топиках не было.
avatar
Было бы полезно услышать ваши рекомендации по этому вопросу для владельцев Flow. Как избежать загрузки пользователями тяжелых картинок на главную.
avatar
А зачем этого избегать??? Если боитесь связанных с этим нагрузок — nginx и CDN, и плевать вам чего они там грузят.
avatar
Я бы все-таки хотел услышать ответ от специалиста.
avatar
К сожалению, я не являюсь владельцем Flow, и не знаю принципов его работы. Может он изменяет размер картинок до минимального какого-то, своего (похоже на это, глядя на демо-сайты), может что еще — это нужно спрашивать у разработчиков Flow.
avatar
Если хотите чего не банального, вам сюда, а в этом посте и правда банальное, но такое банальное о котором многие вебмастера не знают.
avatar
Значит фантазеры, а не веб-мастера :)
avatar
100 хостов в день, 7 месяцев сайту
всегда удивлялся как многие блоггеры учат оптимизировать и при этом у самих кака, хотя конечно умные мысли есть…
avatar
Вообще-то сайт никак не продвигается в поисковиках, это коллективное хобби, как раз для выкладывания умных мыслей, о наболевшем :)
avatar
Да уж, умных. Вам на конференциях надо выступать с таким богажом уникальной информации.
avatar
народ а мне вот что еще интересно комментарии в LS, индексируются поисковиками?
  • Help
  • 0
avatar
avatar
Господа, будьте так добры, подскажите конкретно пути какие в robots.txt наверняка нужно закрывать? если не сложно пример своего(работающего и справляющегося со своей задачей) robots.txt сюда выложите
avatar
mmozg.net/robots.txt

«Наверняка» можно сказать только про Disallow: /registration и Disallow: /login остальное на свой страх и риск.
avatar
мой:
User-agent: *
Disallow: /login/
Disallow: /registration/
Disallow: /rss
Disallow: /search/
Disallow: /tag/
Disallow: /stream/

думаю еще закрыть blogs
avatar
Объясните, а почему /plugins не закрывем? Я думал что там для поисковика ничего нет?
avatar
/plugins а что там? а там 403 ошибка, ради прикола можно закрыть
avatar
Благодарю)
avatar
может еще можно закрыть профиль, там тоже дубли есть?..
Disallow: /profile/
avatar
Простите за глупый вопрос, но что будет если контент не уникальный? Например если это тупо копипаст с других ресурсов? Поиск в гугл не помог, в топе какое-то SEO с «помощью» как это исправить, а что будет то если не исправлять? Поисковики перестанут индексировать? Полностью? Или просто выдавать результат после первоисточника? Вот правда, интересно.
avatar
Попадете под фильтры. У яндекса это АГС.
avatar
То есть, под «фильтр» (исключение из индекса, как я понимаю) попадает весь сайт или не уникальные страницы? Если скажем пользователи общаются между собой, часто линкуя материал с других ресурсов, можно забыть про хорошую индексацию даже уникального материала?
avatar
линкуют = копипастят
avatar
ну линки в ЛС по умолчанию закрыты от индексации. Контент сайта если у вас ворованный. Хотя тут все спорно. Некоторые сайт живут на копипасте и спокойно индексируются. Помню даже сайт который с моего новости тыбрил и он по запросам на этот контент вылазил в гугле только в путь, а меня и в десятке не было. Возможно потому, что он старше моего намного.
avatar
Ничего подобного
avatar
В гугле на вас могут пожаловаться, мол вы копипастите, и гугл выбросит страницу из индекса. А если страниц неуникальнх много — сайту обнуляют пиар, и весь сайт выбрасывают. В яндексе фильр, или вас отметят как поисковый спам.
avatar
не видел топа еще где стоко людей в избранное щОлкнули)
avatar
а я видел.
avatar
avatar
Это, как мне кажется, снова ни о чём с умным лицом. При этом у автора топика посещаемость сайта до этой статьи не переваливала и за 30 визитов. Когда мне сеошники покажут хотя бы один успешный проект, выстроенный по их рекомендациям, то я наверное задумаюсь, а так… Пеар.
avatar
а я на самом деле не отказался бы от консультации по увеличению посещаемости и грамотной раскрутке. Особенно по работе с адсенс и директом (спамить форумы я уже научился :)
avatar
Ну, в этом топике таких консультаций вы точно не найдете — это мыльные пузыри, а не советы.
avatar
По адсенсу достаточно много открытой инфы, это не проблема)) Главное определиться на однократное посещение юзера вы рассчитываете или все же сообщество. Далее смотрите рейтинг эффективности блоков и тепловую карту сайта. Кстати по адсенсу есть 2 новости — хорошая и плохая:
Плохая, адсенс для фидов прекратил работу((
Хорошая, появился блок 600 на 300 — этакая простыня
avatar
По адсенсу достаточно много открытой инфы, это не проблема
в том то и дело, что ее очень много, и зачастую смотришь на дату публикации и сомневаешься в ее актуальности.

Рассчитываю на сообщество и на регулярное посещение гостями (без регистрации). Для обеих групп посетителей есть целевой функционал.
avatar
Сайт, который фигурирует в топике никак не продвигаются. Я об том уже писал тут много раз. А те, которые продвигаются, сеошники стараютсяя нигде не светить. Так вот — будьте наивными, и не верьте в сео и дальше — меньше народу, больше кислороду меньше конкуренция :)
avatar
Ну, объективности ради, нужно заметить что SEO оптимизация сейчас играет гораздо меньшее значение чем в прошлом. Краулеры очень многому научились за последние 10 лет. Их так просто не обманешь :). Сейчас в первую очередь важен уникальный контент, естественно поведение посетителей и кросс-ссылки с ресурсами той же тематики.
avatar
Я говорил о сеошниках вполне определённого типа, например о таких как вы: 13 гениальных советов и ни одного конкретного, одни общие слова. Мало того некоторые советы вызывают некоторое недоумение.
avatar
Статья неплохая для общего развития, позволю немного комментариев:
1. Создайте хороший robots.txt.
Если у Вас есть хороший robots.txt так приведите его здесь и поделитесь с сообществом.
2. Создайте карту сайта.
Есть соответствующий плагин. Я не понял при чем здесь стоимость хостинга и наличие ssh доступа.
3. Закройте передачу веса на облако тегов.

Там же ссылки на внутренние страницы, я не знаток сео, но зачем запрещать ссылки из облака тегов на свои же страницы?
4. Пусть все внешние ссылки с вашего сайта будут с rel=«nofollow»
Они и так по умолчанию такие.
5. Не используйте перед
Для нормального хостинга думаю не актуально.
6-й и 7-й пункты
Согласен
8. Используйте минимальное количество плагинов
Опять же для нормального хостинга неактуально.
9-13 пункты
Согласен.

В целом положительный топик, но хотелось бы побольше практической помощи и реализаций в сео, например реально хороший robots.txt и другие примеры. Автор молодец, хоть специалистов по сео многие «не переваривают», но реальность все таки требует продвижения и действий в этой области. Один уникальный контент и уникальный дизайн как некоторые считают дают к сожалению очень мало… почти ничего.
avatar
Если у Вас есть хороший robots.txt так приведите его здесь и поделитесь с сообществом.
А какой нужен именно вам? не будет одного универсального файла для всех и сразу. Однозначно можно закрыть авторизацию и регистрацию. Все остальное выбирается в зависимости от того, к какому результату вы хотите прийти: если для хороших отношений с ПСми, то закрывать дубли страниц (рсс, поиск, коллективные, персональные, фид, стрим, теги, список блогов), если хотите больше рекламы/ссылок продавать, то оставить все дубли, все равно не всегда корректно они распознаются.

т.е. суммируя, среднестатистически можно закрыть:
— рсс
— поиск
— авторизацию
— регистрацию

все остальное — по выбору
avatar
Я не понял при чем здесь стоимость хостинга и наличие ssh доступа.
У меня лично стоит ЛС 0.5.1 на хостинге за 1уе в месяц, или же за 10,50 уе в год. При небольшой посещаемости (до 300 уникальных посетителей, а может и больше, поглядим), и пока отсутствие активности особой, не вижу смысла брать ни хостинг дороже, ни тем более сервер. Для выполнения команд в строке, а это нужно для создания карты сайта, нужен SSH Доступ, пишет «У вас нет права на использование SSH!» А он доступен только с тарифа 10уе в месяц.
avatar
Для генерации sitemap.xml, нужно просто поставить Плагин «Sitemap». Не очень улавливаю зачем для этого прямой доступ к серверу по SSH…

Но, честно сказать, проблемы которые вы упоминали (падение производительности при использовании плагинов и тормоза с большим количеством видио с youtube), вполне могут быть следствием использования дешёвого хостинга.
avatar
вы лучше бы хостинг мощней выбрали, чем писать недосоветы на основе того, что у вас плагин на это дешевом хостинге не запускается.
avatar
У меня хороший хостинг, не смотря на цену (они, кстати, по такой цене уже не продают). Пойдите, поглядите его конфигурацию. Сайт грузится очень быстро. На этом хостинге у меня не один сайт, у каждого свой отдельный «хостинг-кабинет». Допустимая нагрузка на сервер 10% от 2.66Ghz, даже на половину не используется. При этом, полно свободного места на самом хостинге.
avatar
топик ни о чем и плюсуют его те, кто в этом не разбирается вообще/частично и ищет варианты "улучшить сайт любыми способами в ОВЕР9000РАЗ!!11111".

1. Создайте хороший robots.txt. К сожалению, он не входит в поставку по умолчанию. Но уже поднимался вопрос создания верного на сайте сообщества, есть что почитать.
выше ответил

2. Создайте карту сайта.
ну ок.

3. Закройте передачу веса на облако тегов. Где-то здесь, на сайте сообщества был топик, как это сделать. То есть, все теги (под прямым эфиром) должны быть c атрибутом rel=«nofollow». А вообще их лучше закрыть в robots.txt от индексации.
не нужно этого делать до определения стратегии развития сайта (см. п. 1 выше)

4. Пусть все внешние ссылки с вашего сайта будут с rel=«nofollow», это легко настраивается из админки.
это включено по-умолчанию. редко кто трогает эту опцию вообще.

5. Не используйте перед

<cut>


крупные и тяжелые картинки, видео – это понижает загрузку сайта в разделе блога, и на главной, если топик туда попадет.
полностью согласен на счет видео. картинки — разве что они реально не маленькие.

6. Используйте ключевые слова в заголовке (и в тексте, конечно же). А также поставьте себе этот плагин. Но не делайте слишком длинных заголовков. Для лучшего ранжирования, сделайте адреса такими: ваш сайт/название блога/название топика или же ваш сайт/название топика

снова без выяснения стратегии из п. 1 данное утверждение неверно. ну и про 7 тоже самое.

8. Используйте минимальное количество плагинов, на начальном этапе, чтобы не ухудшать скорость загрузки сайта.

есть просто тяжелые плагины сами по себе, а есть легкие. и зависит от мощности вашего сервера или если у вас просто шаред хостинг.

9. Следите за поведенческими факторами на сайте, и улучшайте их.
помогайте вермишели.

10-13 — все к п. 1.

итого понятно что совет выше полностью сделает ваш сайт не для людей, а для бирж ссылок.
avatar
есть просто тяжелые плагины сами по себе, а есть легкие.
а еще есть несовместимые плагины, конфликтные.

Но если для вас топик ни о чем, напишите топик про сео-продвижение проекта на ЛС, который будет конкретный, по личному опыту (если он у вас, программиста, есть, конечно, а не вольные мысли) и своему же сайту.
avatar
напишите топик про сео-продвижение проекта на ЛС
зачем? я не вызывался на роль всезнайки сео. но знаю точно что выше перечисленное не нужно всем. оно только для определенно одного вектора развития сайта
avatar
Тут сам Гугл обо всем подробно рассказывает.
  • aex
  • +1
avatar
Ну вы что, сео-шники пишут свои — уникальные статьи :)
avatar
Спасибо! Капитан очевидность — отдыхает. )
комментарий был удален
комментарий был удален
комментарий был удален
комментарий был удален
avatar
Прочел, и тут и по ссылке и нигде не нашел конкретного примера так называемой seo friendly CMS по мнению автора — если не сложно ткните пальцем, чтобы пощупать и знать с чем сравнивать!
avatar
Джумла, друпал и WP — все три считаются seo friendly CMS
avatar
Спасибо, о подобных китах я в принципе думал. Однако предполагал что будут названы и рыбки поменьше мне не знакомые ;)
avatar
А как определяется SEO friendly CMS или нет?
Ну вот, например, картинко www.aleydasolis.com/wp-content/uploads/2012/02/seo-cms-friendly-checklist-infographic.gif

Вывод: LS в связке с несколькими плагинами вполне SEO friendly CMS.
avatar
Ни для кого не секрет, что LiveStreet CMS не является seo friendly CMS
Для меня секрет кто и по какой причине решил, что LiveStreet CMS не является seo friendly CMS. Помнится когда-то кто-то ляпнул не подумав и покатилсь… Как вы оценили ее несеофрендовость? ))
avatar
Нет даже нормально плагина для ввода к постам ключевых слов (keywords), описания (descreption) и заголовка (title).
avatar
Вы считаете это нормальным критерием оценки?
avatar
Нет считаю, но это базовые возможности SEO.
avatar
Я знаю 4 таких плагина: «SEO», «Ручные Меты», «SeoLib», «TrickyTitle». И не уверен что это полный список.
avatar
SeoLib — зачем платить больше, если в других системах это бесплатно? =)
avatar
Так не платите. Я тоже бесплатными обошелся и вполне счастлив. Но опция — есть. И не плохая.
avatar
Основное назначение SeoLib в другом — заработок на продаже ссылок.
У SeoLib есть фича, которую нигде не встречал — он учитывает количество проданных ссылок и при след индексации добавляет максимум страниц на 2-ой уровень, где еще нет продажных ссылок. Эта техника приводит к существенному увеличение заработка.
Если кто заинтересовался — пара промо-кодов на 30% скидку 74ffb05d и 764e48da
avatar
1. Создайте хороший robots.txt. К сожалению, он не входит в поставку по умолчанию. Но уже поднимался вопрос создания верного на сайте сообщества, есть что почитать.
Анализировал свой сайт, увидел много дублирующих линков. Хочу написать вот так:
Disallow: /blog*/newall/
Disallow: /blog*/top/
Disallow: /blog*/discussed/
Disallow: /blogs
Disallow: /*?order=*/  

Нужен Ваш совет, хочу чтобs не заходили поисковики сюда:
http://домен/blogs/
http://домен/blog/название блога/top/
http://домен/blog/название блога/discussed/
http://домен/blog/название блога/newall/
http://домен/blogs/?order=*
Заходил сюда:
http://домен/blog/название блога/

Стоит ли закрывать вот эти линки:
http://домен/blog/top/
http://домен/blog/discussed/
http://домен/blog/news/
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.