Здравствуйте, начал использовать ЛС, по многочисленным рекомендациям. Но не вижу ни одно поста по SEO для ЛС, где можно хоть что-то написать.
На некоторых сайтах 70-80% страниц в сапплементале Гугла, я не мог понять почему?… Потом увидел, что страницы дублируются по несколько раз. Естественно это касается Меток/Тегов — кто пользовался блоггером, знает, что через 1-2 месяца 70% страниц улетают в Супплементал Индекс.
Как закрыть метки от индексации? И есть ли другие страницы, которые следует закрыть от индексации? А то не очень хочется наполнять контентом сайт, зная, что он уйдет «в сопли»
В основном индексе 350 страниц из 1200 проиндексированных, даже если весь контент сайта спёрт с других сайтов — то всё равно этот показатель сродни самых худших ГС-ов
16 комментариев
кажется, последнее время SE смягчились по отношению к дублированному контенту в рамках 1 сайта. Если хотите волноваться, волнуйтесь лучше по поводу мультииспользования h1 и низкого уровня семантической верстки в дефолтном варианте.
P.S. CEO — chief executive officer
SEO — search engine optimization
SEO —
И это меня тоже беспокоит — так много раз h1 использовать нельзя… Да и ссылку с h1 тоже очень вредно ставить. Подскажите, как лучше реализовать использование заголовков? Я думаю сделать h1 — название сайта, h2 — заголовки постов.
волнуйтесь лучше по поводу мультииспользования h1 и низкого уровня семантической верстки в дефолтном варианте
Предлагаю считать это не багом, а фичей. Те, кто серьезно озабочен продвижением, будут делать собственную верстку (а уж тогда лучше вообще дизайн свой сделать). А те, кто клепает с дефолтным дизайном — им пофиг должно быть, чо там поисковики себе надумают.
Те, кто серьезно озабочен продвижением, будут делать собственную верстку
Так мы придем, что люди, серьезно озабоченные продвижением проекта, будут просто заказывать свой движок. Чтобы заплатить один раз, получить законченный продукт, нормальную техническую поддержку от профессионалов, и не возится со всем этим мелким гемором.
Все верно. Либо ты заказываешь работу профессионалу, либо сам становишься профи. Возможен, конечно, и промежуточный вариант (когда делаешь сам, но на любительском уровне), но в этом случае ты просто занимаешься интересным делом на уровне хобби, где результат не так важен, а важен сам процесс.
Это понятно. Но бесплатность базового функционала — одно из его основных преимуществ LS. Платные модули, платная поддержка — это нормально. Но недочеты предоставленной базы — это уже плохо.
Или делать хорошо, или не стоило вообще всю эту песню с шаблоном затевать. Нет никаких бесплатных шаблонов у движка, и все тут. Но можете купить. Другое дело, что это, по факту, был бы уже платный движок. И львиная доля пользователей трижды бы подумала: купить его или купить аналог.
Программер, сеошник, верстальщик (особенно под темплейтор какой-нить) — это все оч. близко. Но при всей своей близости — это все же разные специализации. Если б ЛС разрабатывала студия с кучей людей, думаю, эти нюансы были б учтены. Но когда разработку такого движка ведут всего 1-2 человека, то пусть лучше на ядре движка сосредоточатся.
А со скинами для ЛС и правда беда. Дизигнеры-верстальщики какие-то все меркантильные, не хотят халявных скинов делать :)
Может кто посоветует, как правильно сделать оптимизацию под Google. С яндексом всё понятно и удачно складывается, а вот гугл не очень высоко ранжирует сайт. Хотя и pr 4 и в Dmoz сайт есть и контент уникальный.
Понимаю что могу вызвать неоднозначное отношение к своему комментарию, но так как сам не знаю — поэтому спрашиваю мнение у всех.
Как вы считаете нужно ли закрывать в robots.txt то что дублирует топики, допустим:
Disallow: /tags
Disallow: /my
Недавний в рунете выброс из индексации Яндекса большинства страниц многих ГС, молодых сайтов — немного испугал. Разговаривал со специалистом в среде СЕО, его мнение — обязательное исключение дублирования страниц через
Disallow: /tags
Disallow: /my
Посмотри, 80-90% сайтов на ЛС с индеком тегов нормально себя чувствуют (это один там про магов сайт, где 70% страниц в сапплементале). Google выдача всё расскажет;)
16 комментариев
P.S. CEO — chief executive officer
SEO — search engine optimization
SEO —
а можно поподробнее? что изменить нужно?)
Так мы придем, что люди, серьезно озабоченные продвижением проекта, будут просто заказывать свой движок. Чтобы заплатить один раз, получить законченный продукт, нормальную техническую поддержку от профессионалов, и не возится со всем этим мелким гемором.
Или делать хорошо, или не стоило вообще всю эту песню с шаблоном затевать. Нет никаких бесплатных шаблонов у движка, и все тут. Но можете купить. Другое дело, что это, по факту, был бы уже платный движок. И львиная доля пользователей трижды бы подумала: купить его или купить аналог.
А со скинами для ЛС и правда беда. Дизигнеры-верстальщики какие-то все меркантильные, не хотят халявных скинов делать :)
Disallow: /tags
User-agent: *
Disallow: /rss
Disallow: /people
Disallow: /blogs
Disallow: /tags
Disallow: /top
Disallow: /comments
Disallow: /talk
Disallow: /search
Disallow: /classes
Disallow: /config
Disallow: /include
Disallow: /templates
Disallow: /uploads
Disallow: /logs
Disallow: /templates
Disallow: /registration
Disallow: /login
Disallow: /profile
Disallow: /my
Host:
Crawl-delay: 0.5
Понимаю что могу вызвать неоднозначное отношение к своему комментарию, но так как сам не знаю — поэтому спрашиваю мнение у всех.
Как вы считаете нужно ли закрывать в robots.txt то что дублирует топики, допустим:
Недавний в рунете выброс из индексации Яндекса большинства страниц многих ГС, молодых сайтов — немного испугал. Разговаривал со специалистом в среде СЕО, его мнение — обязательное исключение дублирования страниц через
Disallow: /tags
Disallow: /my
У меня лично, только с
все хорошо. Но как должно быть правильно — я не знаю, спрашиваю совета