Сегодня перевожу обзор темы “свежести” с seroundtable. Уверен, что многим будут интересны мысли и выводы, сделанные авторами обзора и сообщений на форуме. Да, в первую очередь тема касается Гугла, но остальные поисковики имеют тенденцию перенимать все лучшее с Гугла, так что инетересно всем!
Гугл, как и любой другой серьезный поисковик, постоянно усовершенствует и перенастраивает свои алгоритмы ранжирования, стараясь предоставлять пользователям максимально релевантную информацию. Оптимизаторы постоянно экспериментируют со своими сайтами-жертвами, пытаясь уловить эти изменения в алгоритмах Гугла и смену приоритетов. Это, конечно, не космические разработки, но все же довольно сложная с большой неопределенностью область исследований, где в долгосрочной перспективе только наиболее творческие команды оптимизаторов будут держать руку на пульсы новейших технологий, что и позволит им держать лучшие позиции по самым конкурентным запросам.
Один из отцов-основателей WebmasterWorld, известный как Tedster, пытается анализировать мартовские изменения в Гугле. Так вот он выдвигает интересную теорию:
Раньше, создавалось впечатление, что Гугл просто забывает сравнительно давно не менявшийся контент на некоторых сайтах. Сейчас я думаю, что алгоритм изменился, хоть немного, но все же изменился.
Tedster уверен, что “свежесть” (контента и возможно ссылок) является довольно важным компонентом в борьбе за топовые позиции в Гугле. И сообщество, похоже, с ним согласно:
Я чувствую, что определение “свежести” играет все большую роль в алгоритме Гугла, чем где-либо еще.
Если в двух словах, то я склонен согласиться с тем, что обновляемый контент становится конкурентнее, даже в противостоянии с хорошо закрепившимися доменными зонами типа .gov и .edu.
Больше можно узнать на WebmasterWorld.