Как и зачем обновлять старые страницы блога?

Буквально сегодня увидел пост Вити Карпенко о том, нужно ли обновлять контент на старых страницах сайта? Тема очень актуальная, я сам давно это практикую и в этом году я придумал, как извлечь дополнительную пользу из этого процесса. Об этом сегодня и пойдет речь.

Итак, метод Карпенко: контент маркетинг

Кратко по сути:

  1. подбираете страницы, на которые идет трафик
  2. делаете информацию на странице более актуальной
  3. лучше оптимизируете под популярные на сегодняшний день запросы (они меняются каждый день, но если вы будете обновлять страницу хотя бы раз в год – уже круто)
  4. добавляете фишек в плане конверсии (может услугу свою вплетаете или товар какой, может партнерские ссылки на подходящие сайты, может просто призыв подписываться на обновления)
  5. делаете seo оптимизацию (заново)

Фишка от Димка: добавляем видео маркетинг

Теперь о том, что в этом году я придумал на эту тему.

Я не так давно начал вести свой канал на ютюбе, точнее я воскресил его, потому что создан он был еще много лет назад. Думая о том, как мне интереснее продвинуть канал, в голову пришла идея: делать видео ролики для старых трафиковых постов блога.

При таком подходе мы убиваем сразу толпу зайцев:

  • обновляем старые страницы
  • тренируемся делать видео
  • привлекаем внимание большого пласта аудитории (которая может и не пересекаться с теми, кто читает новые посты блога) к ютюб каналу
  • увеличиваем популярность канала, ведь без какой-либо раскрутки эти видео получают трафик (просмотры) с постов.
  • делаем старые страницы более привлекательными в поиске (наличие видео в контенте – это однозначный плюс в карму при ранжировании)

Пример:

Пост 2011-го года с обзором книги: Ирина Хакамада: дао жизни

Я записал видео с интересными мыслями из книги, заодно поэкспериментировав с видео монтажем в iMovie. Добавил видео в пост и оно медленно, но верно набирает просмотры за счет имеющегося трафика у этого поста. Из дополнительных бонусов: на это видео теперь идет и небольшой трафик с поиска по ютюбу.

А если не видео?

Вы не делаете видео? Никаких проблем, ведь наверняка вы делаете какой-то иной тип контента. Например, все еще популярную инфографику – так это же отлично: добавляйте в старые посты инфографику.

Нет? Может, вы тогда делаете презентации и заливаете их на slideshare? Отлично: добавляйте презенташки в старые посты.

Тоже нет? Ну хотя бы подкасты делаете? Фото снимаете? Или может умеете находить картинке на фотостоках? Ок, добавьте хоть что-то. Поверьте, наличие различных типов контента на странице дает вам преимущество – используйте это!

Вообще ничего из перечисленного? Ок, заведите блог, займитесь делом наконец то!

Подводя итоги

Хочу обобщить выше сказанное:

  1. контент на старых страницах обновлять надо
  2. помимо актуализации информации добавляйте современные типа контента
  3. меняйте ВСЕ страницы, начиная с самых трафиковых

Удачи в этом непростом дела. И да прибудет с вами трафик! 🙂

Как справиться с плохими ссылками

Для большинства специалистов по интернет-маркетингу и веб-мастеров не секрет, что на протяжении нескольких месяцев Google усиленно работал над усовершенствованием поисковых алгоритмов. Обновления алгоритмов Panda и Penguin стали причиной резкого снижения трафика для ряда сайтов, а также привели к полному фиаско тех компаний, которые в значительной степени зависели от поискового трафика.

Одним из актуальных вопросов, спровоцированных апдейтом Penguin является такой – что делать, если на ваш сайт стоит очень много ссылок с некачественных сайтов (если ваш ссылочный профиль заспамлен)?

Определение ссылок, которые Google видит, как плохие

Если вы занимаетесь продвижением сайтов, то можете однажды наткнуться на «любовную записку» в панели инструментов для веб-мастера от Google о том, что у вашего сайта плохая ссылочная масса, но вы так и не получите четкого указания на эти «проблемные» ссылки.

Среди основных признаков проблематичности ссылок можно выделить следующие:

  • низкое качество сайта-донора (низкий Page rank – это числовая величина, характеризующая «важность» веб-страницы) или Domain authority – это характеристики, которые зависят от нескольких десятков параметров (возраст сайтов, которые ссылаются на донор, собственный возраст домена донора и конкретной страницы), а также низкая оценка MozRank (MozRank создали в сервисе SEOMoz. MozRank – это оценка популярности страницы, которая отображает релевантность страниц);
  • в футере сайта-донора стоят ссылки на другие сайты по не смежным тематикам (которые не соответствуют тематике донора);
  • много точных вхождений поисковых запросов в анкорах ссылок на «глубокие страницы» вашего сайта с сайта-донора;
  • отсутствие брендового текста (имя вашего сайта, его URL) в анкорах ссылок на ваш сайт;

Постарайтесь полностью избавиться от однотипных ссылок, которые, скорее всего, довольно низкого качества и оставляют следы искусственного продвижения (например, ссылки в футерах, которые были куплены лично вами или с помощью бирж).

Устранение «плохих» ссылок

Обнаружить у себя такого рода ссылки или же составить их подробный перечень – это одно дело, но как же избавиться от этих «плохих» ссылок? Это разительно отличается от поиска владельцев сайтов для покупки ссылок; теперь их нужно искать, чтобы попросить удалить ссылки. Вы можете решить эту проблему двумя путями: либо самому отфильтровать все свои ссылки, либо же использовать инструмент (программу или сервис) для удаления ссылок, что будет гораздо проще.

Если вы отдадите предпочтение первому способу, то вам понадобится контактная информация для связи с владельцами сайтов, с которых стоят некачественные ссылки. Если вам повезет, то вы найдете на своем компьютере файл с контактами этих людей или же сможете выйти с ними на связь через биржи, в которых покупали ссылки. Но если вам не повезет добыть эту информацию, вам придется тщательно изучить все проделанные вами прежде шаги по приобретению этих ссылок.

Утешительной новостью для всех SEO-специалистов мира является то, что благодаря массовой атаке сайтов алгоритмом Penguin, некоторые разработчики уже начали создавать новые инструменты, которые автоматизируют процесс удаления ссылок или, по крайней мере, упрощают его.

Представляю вашему вниманию несколько таких инструментов:

  • LinkDelete.com. Этот инструмент поможет вам составить отчет об обратных ссылках, определить ссылки, подлежащие удалению.
  • DeleteBacklinks.com. Еще один сервис по удалению ссылок, а именно ссылок с каталогов. Компания разработала специальные плагины для работы с каталогами сайтов, что предоставляет возможность полного удаления ссылок на протяжении 24 часов.
  • RMoov.com. Этот сервис не осуществляет проверку ссылок, но вы можете добавить список URL, полученный с помощью других инструментов, а потом RMoov.com поможет отыскать контактную информацию для связи с владельцами сайтов и автоматизировать процесс удаления ссылок по электронной почте.
  • Removeem.com – это идеальное решение! Этот сервис обнаруживает обратные ссылки с трех разных источников, извлекает контактную информацию с миллионов веб-сайтов и предоставляет возможность отслеживать процесс удаления ссылок.

В зависимости от количества таких «плохих» ссылок в вашем ссылочном профиле, вам следует хорошо потрудиться над процессом их удаления.

Построение новых ссылок

После того, как вы удалили «плохие» ссылки, вы можете потратить немного своих средств на приобретение новых ссылок, на социальные закладки или ссылки с профилей, т.е. двигаться вперед, не забывая и про такие маркетинговые фишки, как гостевой блоггинг (продвижение гостевыми постами), создание и раскрутка контента, создание полезных инструментов и др. Если вы сделаете это хорошо и не построите слишком много ссылок, содержащих повторяющийся текст (спам-анкоры), вы сможете восстановить свой ссылочный профиль и увеличить его рейтинги.

Возможно вам придется начинать с нуля

Но не всегда есть верные ответы на все проблемы. Бывают случаи, когда не смотря на приложенные неимоверные усилия по удалению плохих ссылок и построению «безопасного» ссылочного профиля, приходится бросать домен и начинать все с чистого листа.

В некоторых случаях спасает 301 редирект на новый домен с сайта, попавшего под воздействие алгоритма Penguin.

К сожалению, не существует быстрого и безболезненного способа перехода на новый домен.

Посмотрите, сколько трафика на данный момент приходит к вам из поиска и прикиньте, сколько усилий вам понадобится для того, чтобы перенести весь контент на новый домен (если в вашем случае это даст толк) и поднять новый сайт к тому уровню, который был до санкций Penguin у прежнего.

21 совет Мэта Катса по оптимизации сайтов

Отличная подборка советов Мэта Катса по оптимизации:

1. http://www.mattcutts.com/blog/dashes-vs-underscores/
Мэт рекомендует использовать тире вместо подчеркивания для разделение слов в адресах страниц. 2005.

2. http://www.mattcutts.com/blog/seo-mistakes-sneaky-javascript/
Google убивает каждый отдельно взятый спам сайт как только находит его, но постоянно работает над алгоритмизацией этого процесса. Мэт рекомендует не использовать подозрительных JavaScript редиректов, потому что они могут попасть под пристальное внимание в ближайшее время. 2005.

3. http://www.mattcutts.com/blog/whats-an-update/
Google постоянно обновляет свои индексы – в том числе и беклинки и PageRank. Однако публикуют они новые беклинки и ПР примерно раз в 3 месяца. Поэтому новые беклинки и ПР ни о чем не говорят – их появление никак не связано с апдейтом. 2005.

4. http://www.mattcutts.com/blog/seo-mistakes-nearly-hidden-text/
Скрытый текст: делать цвет текста чуть отличным от цвета фона еще хуже, чем писать “белым по белому”. Испольщование “#EEEEEE” вместо просто белого на абсолютно белом фоне хуже, чем просто белый текст на белом фоне – очевидно же, что вы хотите что-то спрятать. 2005.

5. http://www.mattcutts.com/blog/q-a-thread-march-27-2006/
Если вы продаете ссылки, то Мэт рекомендует использовать “презервативы для ссылок”. Иначе репутация вашего сайта может сильно пострадать. Видимо, имеется в виду то, что исходящие ссылки перестанут учитываться (ака непот фильтр). 2006.

6. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Googlebot может обходить только общедоступные страницы, для доступа к которым не нужно логиниться. Поэтому не забывайте выкладывать в свободный доступ необходимые страницы. Ванесса Фокс. 2006.

7. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Если вам необходимо использовать флеш на сайте, то не забудьте сделать HTML версию. А флеш версию закройте от роботов через robots.txt. Ванесса Фокс. 2006.

8. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Используйте понятные все урлы типа “african-elephants.html”, а не бредни в стиле “343432ffsdfsdfdfasffgddddd.html”. Но не переусердствуйте — african-elephants-and-their-habitats-etc-etc-etc-etc.html. Ванесса Фокс. 2006.

9. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Задайте для каждой страницы уникальные, описывающие содержимое страницы заловки и теги TITLE. Ванесса Фокс. 2006.

10. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Количество редиректов при клике на урл сведите к минимуму. Ванесса Фокс. 2006.

11. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Количество параметров в урле сделайте минимальным – в идеале 1-2 параметра, если это возможно. Ванесса Фокс. 2006.

12. http://www.mattcutts.com/blog/guest-post-vanessa-fox-on-organic-site-review-session/
Неиспользуйте в урлах параметр “id=” для чего бы то ни было кроме идентификатора сессий. Иначе вы рискуете не попасть в индекс Гугла. Ванесса Фокс. 2006.

13. http://www.mattcutts.com/blog/text-links-and-pagerank/
Гугл не одобряет покупку ссылок с целью наращивание ПР и будет с этим бороться. 2006.

14. http://www.mattcutts.com/blog/google-analytics/
Черные оптимизаторы использует Google Analytics для своих сомнительных исследований, но обычных владельцев сайтов надо убеждать в пользе различных исследований сайта. 2006.

15. http://www.mattcutts.com/blog/text-link-follow-up/
Google борется с продажей и покупкой ссылок и Мэт отмечает, что они в этом преуспели – как алгоритмически, так и вручную. Сайты, продающие ссылки могут потерять доверие в поисковых системах. 2006.

16. http://www.mattcutts.com/blog/seo-mistakes-spam-in-other-languages/
В 2006 году Google уделяет особое внимение определению спама не только на английском языке, а на итальянском, испанском, китайском и других. 2006.

17. http://www.mattcutts.com/blog/seo-advice-discussing-302-redirects/
Используйте 302-й редирект для временного перенаправления пользователей и 301-й редирект для постоянного. В общем, если сайт переехал, то 301-й, если просто надо временно кидать на другие страницы, то 302-й. 2006.

18. http://www.mattcutts.com/blog/seo-advice-url-canonicalization/
Canonicalization (каноникализация?) – процесс выбора наиболее подходящего урла, обычно для отображения главной страницы, например, www.example.com или example.com или www.example.com/index.html. Потому как все эти урлы разные, то сервер может отдавать разный контент по каждому из них. Поэтому Google пытается выбрать лучший и отсечь остальные. Чтобы помочь Google используйте везде одинаковые урлы и ставьте 301-й редирект с неправильных на правильный. 2006.

19. http://www.mattcutts.com/blog/seo-advice-url-canonicalization/
Не стоит использовать “URL removal tool”, чтобы удалить урл domain.com, если вы волнуетесь о каноникализации и у вас в индексе два урла domain.com и www.domain.com. Так вы удалите весь сайт целиком! 2006.

20. http://www.mattcutts.com/blog/seo-advice-url-canonicalization/
Поисковые системы могут использовать механизм каноникализации для удаления ненужных слешей на конце урла, перевода верхнего регистра в нижний, удаления идентификаторов сессий на форумах и других подобны движках. 2006.

21. http://www.mattcutts.com/blog/sitemaps-interview/
404-я ошибка (документ удален, но может появиться) воспринимается как 410-я (удалени и никогда уже не появится). Большинство веб мастеров используют 404-ю именно как 410-ю. 2006.