19.08.2012

SES-конференция в Сан-Франциско

На SES-конференции в Сан-Франциско Мэтт Каттс, заслуженный инженер Google, рассказывал о многом, в частности о роли социальных сигналов в поиске, про алгоритмы Панда и Пингвин и о дублировании контента. 

В начале своего выступления руководитель группы Google Webspam сообщал о том, что поисковая система постепенно внедряет Граф Знаний во всем мире. Google все также продолжает отслеживать обратную связь, чтобы было ясно, где пользователи желают видеть блоки Графа Знаний, или Knowledge Graph. Ко всему прочему, Мэтт Каттс обратил внимание на то, что сотрудники корпорации Команду Поиска Google назвали Командой Знаний уже давно.

На SES конференции 2012 года наконец-то выяснилось, почему анти-спам алгоритм Google назван Пингвином, и тем самым настал конец бесконечным спорам и догадкам. На деле оказалось все просто, и без особого глубокого подтекста. Коллеги Каттса сошлись на том, что пингвин из ста предложенных является самым симпатичным животным. Чёрно-белый раскрас пингвина и панды оказался только лишь банальным совпадением (стоит напомнить, что алгоритм Панда назван не в честь животного, а в честь инженера корпорации Google). 
Что касается работы алгоритма Пингвин, Мэтт сообщил, что он еще не устоялся. Разработчики надеются, что он со временем будет так же стабилен, как Panda, и продолжают работать над этим.
 
Мэтт Каттс также рассказывал про учет или не учет социальных сигналов как факторов упорядоченности в поисковых запросах. Теоретически Google способен учитывать количество подписчиков в Twitter, но индексировать Facebook и другие социальные сети у поисковика пока не выходит. Ко всему прочему, Twitter временами просто не дает доступ для Google. Можно подвести итог, что на сегодняшний день социальные сигналы не расцениваются как надёжный фактор. Что же касается лайков, расшариваний и твитов, то Google в принципе их посчитать может, но он видит отличие, и не может учитывать их как социальный сигнал.
 
Страницы Google+ в выдаче появляются гораздо реже, чем в январе, поэтому кнопке +1 Google также пока не может придавать весомого значения.
До сих пор основной проблемой поиска Google в индексировании страниц остаётся определение первоисточника наполнения сайтов. Через поисковик в день проходит более 30 триллионов ссылок и сканируется 20 миллиардов веб-страниц. Каждый месяц у Google в обработке около 100 миллиардов запросов, а каждый день около 3 миллиардов. Чаще всего поисковая система просто не в состоянии отследить, что и когда было опубликовано впервые. Эта проблема Google, которая еще в процессе решения.
 
Отдельной темой, специально для вебмастеров, Мэтт Каттс затронул вопрос дублированного контента на сайтах. Если сайт состоит из абсолютно неуникального наполнения, даже если в нем тысячи материалов с чужих источников, Google вряд ли позитивно отнесется к таким веб-страницам. Дублировать контент внутри своего сайта можно, но также в пределах разумного. Есть шанс, что Google не исключит из рейтинга, но и при ранжировании дополнительных «баллов» не прибавит. Мэтт Каттс подвёл итог, посоветовав лучше сделать меньше страниц, но с уникальным контентом.