Обновления каталога
Компаний: 52

Агентство социальной информации (АСИ)

Сложные исследования полного цикла "под ключ"

MegaResearch

Найдем персональное решение для вашего бизнеса

Русопрос

Выявляем потребительские предпочтения ваших клиентов




Интернет в буквах

Интернет в буквах

Оптимизация электронных СМИ портит контент

Для кого пишется контент сайтов? Этот вопрос-ловушка кажется наивным. Все знают, что наполнение сайтов существует как бы для людей, но реально пишется с оглядкой на поисковики. С большой оглядкой. Настолько большой, что сплошь и рядом люди оказываются сбоку припеку. Впрочем, представители поисковиков клянутся в публичных выступлениях: все не так, главный приоритет – люди. Проверить невозможно, ведь алгоритм поиска был и будет секретен, остается только анализировать видимые признаки его «человекоориентированности». Вот этим мы сейчас и займемся.

Известно, что поисковики «любят» часто обновляемые сайты с оригинальным контентом. Казалось бы, этим условиям должны лучше всего соответствовать электронные СМИ, которые этот контент, собственно, и изготавливают. Казалось бы, доля поискового трафика, ориентированного именно на содержательную часть сайта, у них должна быть значительна. Но это не так. У крупных деловых СМИ, которые включены в статистику Webomer.ru, доля поискового трафика варьирует от 50% («Деловой Петербург») и 31% («КоммерсантЪ») до 5% (РБК Дейли), причем, это никак не коррелирует ни с общей посещаемостью ресурсов, ни с их влиятельностью. Та же ситуация и у специализированных СМИ. Рассмотрим их подробнее.
Возьмем, например, раздел «реклама» в рейтинге сайтов LiveInternet. Здесь есть несколько известных и уважаемых СМИ, но они отнюдь не стоят на первых позициях по посещаемости. На дату написания этой заметки Adme.ru на пятом месте, Sostav.ru на шестом, Advertology.ru – на 19-м. В каждом из них ежедневно появляется несколько десятков новых материалов. И тут же рядом находятся другие сайты – каталогов, модельных агентств, сервисов по размещению рекламы и т.п. У них примерно такая же посещаемость, хотя обновляемость на несколько порядков уступает упомянутым СМИ, не говоря уж о качестве контента. О причинах можно только догадываться – статистика закрыта. Попробуем догадаться.  Для этого надо лишь найти хороший пример с доступной статистикой. И он находится.
На 31 месте в той же категории «Реклама» и на ту же дату мы обнаруживаем запущенный в 2005 году сайт AdVesti.ru с общедоступной статистикой счетчика Liveinternet. Сайт позиционирует себя как СМИ и совсем немного уступает по посещаемости Advertology.ru (отношение суточной посещаемости первого по счетчику LI составляет 80% от аналогичного показателя второго) . Бегло пролистав страницы, легко убедиться, что по числу новых материалов Advesti.ru более, чем на порядок уступает Advertology. Может быть, их качество на столько же лучше? Нет. Опрос профессиональной аудитории (рекламистов, маркетологов и исследователей рынка), ежегодно проводимый компанией Online Market Intelligence (OMI), показывает, что в отличие от Advertology, никто из опрошенных не указывает Advesti в качестве известного ему ресурса. Откуда же тогда приходят массовые посетители?
Статистика показывает, что их приводят поисковики. Доля заходов с Яндекса и Google на Advesti.ru составляет 80% всех посетителей сайта. Если посмотреть на просматриваемые страницы, то видно, что точно та же доля приходится на те из них, которые никак не связаны, собственно, со статейной частью. Пользователи изучают цены на рекламу в печатных СМИ, собранные в отдельный раздел, по сути, представляющий собой каталог. Статьи – для общего антуража, но, главным образом, для поисковых роботов. Другими словами, контент для оптимизации, а не наоборот. И причина этого кроется вовсе не в чьей-то злонамеренности, а в самой природе формирования поисковой выдачи. Он противоречит принципам составления журналистского текста..
Главным открытием Google была, как известно, реализация принципа «чем больше ссылок на страницу, тем она популярнее, тем выше она стоит в выдаче». Хороший и правильный принцип, давно используемый в научном мире для ранжирования значимости той или иной публикации в научном же, подчеркнем, журнале. Неудивительно, что его «открыли» создатели Google Сергей Брин и Ларри Пейдж, бывшие в момент открытия аспирантами. И поначалу, пока Сеть была еще не столь обширной, все шло хорошо. Теперь же принцип, принесший им и их последователям удачу, может повернуться другой стороной.
В самом деле, что значит «ссылающаяся страница», в условиях, когда все продается и все покупается, а ссылки – тем более? В приложении к ситуации со СМИ ссылка – это корректная перепечатка. И чем лучше, чем ярче статья, тем больше можно ожидать таких перепечаток. Но такой хоккей поисковикам не нужен – они же стремятся к максимальной объективности. Поэтому роботы квалифицируют появление двух или более одинаковых статей на разных сайтах как недобросовестное копирование и не учитывают такого рода обмены. Наверно, тут есть своя правда – в приложении к огромному числу разного рода корпоративных сайтов, а также ресурсов-агрегаторов, стремящихся «собрать все лучшее» по какой-то теме. Наверно, это правильно. Но электронным СМИ, производящим этот самый контент, упомянутая правда перекрывает кислород, закрывая возможности получения ссылок, наращивания тИЦ и прочих факторов, повышающих их позиции в выдаче. Может ли помочь оптимизация? Это я попытался проверить на себе.
Мой сайт r-trends.ru, на котором вы, уважаемый читатель, собственно, и находитесь, наполняется собственным контентом. Обновляется он достаточно часто – почти ежедневно. Поисковики его видят, но как-то не очень хорошо… Что надо делать? Оптимизировать. И я попробовал. Побывав на нескольких крупных конференциях по этой теме, после чего попытался заказать оптимизацию своего сайта у вполне достойной компании. Но дальше разговоров дело не пошло. В проекте ТЗ оптимизаторы составили обычный для такого рода заказов перечень работ. Улучшение видимости сайта они видят в построении статей таким образом, чтобы число вхождений ключевых слов было «правильным». Другими словами, мне как журналисту надо выбрать нужные ключевые слова и вставить их нужное количество раз в каждый текст, к тому же в «правильных» с точки зрения робота падежах. А иногда и в «неправильных», т.к. это оценивается роботами как «естественный текст» и идет в зачет.
Но позвольте. Во-первых, совершенно не очевидно, что у СМИ должны быть ключевые слова, хотя бы потому, что их может быть слишком много – все же это СМИ, а не интернет-магазин. Во-вторых, работая с текстом, любой журналист старается сделать текст живым, ищет синонимы и т.п. Все это прямо противоречит требованию «числа вхождений», не говоря уж о падежах. Другими словами, чтобы удовлетворить требования поисковиков, надо писать два текста: сначала «как надо», а потом «как надо поисковикам». А по-хорошему, нужен бы еще и третий, переписанный и измененный, для размещения на сторонних ресурсах – для ссылок.
Совершенно понятно, что ни один нормальный журналист ничего этого делать не будет. И тогда что? Тогда либо надо создавать каталог, чтобы «мухи отдельно, котлеты отдельно» с вытекающим падением качества аудитории, либо наращивать «влиятельность», покупая ссылки. Конечно, по ним никто не придет, но их увидит поисковый робот – ведь на сайт «ссылаются».
Неладно что-то в Датском королевстве.
Написано для журнала «Интернет в цифрах»
Тэги:

Кол-во просмотров: 6127



Еще по теме

Пассажирская авиация открывает новые возможности

Пассажирская авиация открывает новые возможности

Как авиаперевозчики адаптируются к новой реальности

Футбол в период эпидемии

Футбол в период эпидемии

Опыт немецкой Бундеслиги покажет, стоит ли играть в футбол перед пустыми трибунами

Лайвстрим продажи: новая надежда

Лайвстрим продажи: новая надежда

Китайский опыт неплохо сработал в период пандемии

Ставка на экзотику

Ставка на экзотику

Как букмекеры находят новые ниши

Маркетинговые исследования: вызовы и возможности - 2015

Маркетинговые исследования: вызовы и возможности - 2015

Четыре фактора, определяющих развитие рынка MR