Matt Cutts об апдейтах Google

17
2571

В очередном видео Мэт Катс рассказывает об апдейтах Google, которые так любят обсуждать на всех оптимизаторских форумах.

Неофициальный блог о Гугле все подробно записал со слов Мэта. Я решил сделать перевод, потому что текст показался мне весьма интересным. Перевод свободный.

Всем привет, рад снова вас видеть! Сегодня я решил поговорить об апдейтах наших датацентров, о том, чего ждать от Гугла в течение следующих нескольких недель и т.п.

Вообще у нас постоянно идет апдейт, практически каждый день, иногда действительно каждый день. Довольно большая часть нашего индекса обновляется каждый день по мере того как мы обходим известными нам сайты.

Кроме того у нас есть алгоритмы и «выбросы данных», которые запускаются реже. Например, выбросы данных были 27 июня, 27 июля, а затем 17 августа. Стоит заметить, что это не вчера началось, а все происходит примерно так уже около полутора лет.

Bigdaddy – это был апргрейд инфраструктуры нашего программного обеспечения и закончился он еще в феврале. Мы хорошенько освежили краулеров и механизмы индексации ??нтернета. Сделано это было за несколько месяцев и все работает довольно хорошо.

Было также полное обновление механизма индексации дополнительных результатов (supplemental results). Это произошло пару месяцев спустя после Bigdaddy и было завершено в течение месяца-двух. Инфраструктура индексации дополнительных результатов отличается от основной индексации, она была полностью переписана.

Еще немного слов о дополнительных результатах. Мы обнаружили некоторые маленькие фичи типа слова-исключения, тег noindex и т.п. Дополнительные результаты были связаны с основным индексом таким образом, что вы часто могли видеть при просмотре проиндексированных страниц сайта глюки типа пропущенных страниц или слишком большого количества страниц. Был как минимум один инцидент, когда очень многие думали, что некий спамер смог загнать в индекс сайт с 5 миллиардами страниц. Конечно, когда я капнул глубже, то оказалось, что страниц там всего 150 000 на самом крупном из доменов этого спамера. Так вот все эти «site:» результаты каким-то образом сложились и получилось действительно большое число.
(dimok: тут Мэт имхо немного лукавит. Объяснение какое-то невнятное. Особенно учитывая, что я вот прямо сейчас вижу для нескольких из своих сайтов о музыке по 10-16 миллионов страниц на как минимум 8 дата центрах… Стоит заметить, что посещаемость от сего глюка не растет.)

Мы сделали еще одно важно обновление инфраструктуры нашего ПО, которое прежде всего улучшает качество, но так же улучшает некоторые аспекты индексации. Это побочный эффект в хорошем смысле. Эксперименты ведутся на некоторых дата центрах и мы надеемся, что к концу лета сможем запустить это на всех дата центрах. Но дедлайна для этого процесса нет и поэтому мы будем все тестить пока это будет необходимо.

Следить за дата центрами становится все сложнее. У нас очень много направлений работы одновременно. На последнем собрании обсуждались десятки работ. И это только те, что направлены на улучшение качества поиска, не на интерфейс и все такое. Если вы пользуетесь локальным поиском (например, в русском сегменте), то скорее всего вы не заметите разницы. Но по большому счету у нас постоянно вносятся изменения и вы можете видеть различные данные на разных дата центрах.

Еще один повод не заморачиваться с дата центрами – это их количество. Если ты супер-пупер сеошник, то знаешь “72.2.14.любое-число”. Этот адрес обычно принадлежит какому-либо дата центру, но не всегда так. Иногда мы что-то меняем в аппаратной инфраструктуре, тогда тот же IP адрес может вести на совершенно иной дата центр.

Так что, я советую не сходить с ума по данным разных дата центров, а направить свои усилия на улучшение качества контента своего сайта, искать хорошие ресурсы, на которых очень к месту будет ссылка на ваш сайт, но ее почему-то до сих пор нет и т.д.

Будьте уверены, мы всегда работаем над улучшением нашей инфраструктуры, и вы никогда не сможете гарантировать себе или своим клиентам позиции по конкретному поисковому запросу. Потому что, если мы выясним, что можем улучшить качество результатов за счет смены алгоритмов, изменения данных или инфраструктуры, то мы это непременно сделаем!

Хорошие оптимизаторы в моем понимании это те, кто может адаптироваться к нашим изменениям. Если вы будете постоянно совершенствовать данный навык, то вам не придется встать в 3 часа утра и пережевывать на всех форумах по сотому разу “аааа, что у вас видно на таком-то дата центра, все поменялось!?” и вообще забивать себе голову подобными вещами.

17 КОММЕНТАРИИ

  1. Дим смени плз цвета, очень болят глаза читать в таких тонах большие тексты

    p.s. обычно читаю через ридер, а сегодня решил зайти

  2. Дим, глаза постоянно болят от ярко зеленого цвета.
    На ЖК еще ничего но на CRT просто ужас

  3. Перевод хромает, но для тех кто не знает английский – отлично. Спасибо.
    А вот цвета блога – полная фигня :))

  4. бомж, если есть моменты, с которыми не согласен, напиши – буду весьма признателен 😉

  5. Честно говоря можно вместо google поставить слово Yandex и в суть текста не изменится.

    Боюсь, что скоро любой чих инэинеров google на клавиатуру будет сопровождаться активным обсуждением в сео-сообществе.

Добавить комментарий для dimok Отменить ответ

Please enter your comment!
Please enter your name here