Распространение медиа
Распространение медиа
Интернет перевернул вопрос распространения с головы на ноги. Издатели, записывающие студии и кинокомпании быстро поняли (часто на очень болезненных примерах – видя, как пиратские версии их продукции убивают их продажи), что Интернет является мощным механизмом распространения, облегчающим публичную циркуляцию медиа. В эру персональных компьютеров каждый мог стать продюсером. В эру Интернета каждый мог стать и издателем. В ранние дни Интернета издатели использовали его исключительно как канал для «широковещания», то есть для обращения «один ко всем». Хотя многие люди могли стать издателями, их методы публикации перестали быть привлекательными для потребителей. Медиаиздатели по-прежнему обращались к потребителям «с трибуны». А потребители в это время при помощи дискуссионных форумов, чатов и конференций уже вели друг с другом настоящие разговоры.
В конце 90-х издатели наконец-то это поняли и стали включаться в разговоры с потребителями. Это движение получило название Web 2.0. Бизнес разработал более утонченный взгляд на Интернет как на двусторонний канал общения «многие со многими», который вдохновлял аудиторию на обратную связь, предложение идей, мнений, знаний, ответов, рейтингование продуктов, написание обзоров и рекомендаций. С этого момента созданные пользователями медиа в блогах, вики и YouTube начали помогать бизнесменам управлять своим присутствием в Интернете и отчасти сняли с них труд по созданию и обновлению контента. Эта тенденция даже проникла в традиционные СМИ – PepsiCo, например, провела конкурс любительского видео для своей телевизионной рекламы, предназначенной для показа во время Супер-боула[12] 2008 года.
Четыре главных достижения интернет-медиа за последнее десятилетие заложили основу возникновения сегодняшнего онлайнового социального графа: сообщества сайтов, агрегирование контента, маркетинг в поисковых машинах и поведенческое таргетирование.
1995: Сообщества сайтов
Важными предшественниками современных вики, блогов и онлайновых социальных сетей были онлайновые сообщества персональных сайтов, таких как GeoCities, Tripod и Angelfire. GeoCities возглавили это движение, предложив легкие в использовании, но мощные средства публикации, которые позволяли новичкам создавать свой собственный сайт. На своем пике GeoCities поддерживали более 3,5 миллиона сайтов, обслуживали более 19 миллионов уникальных посетителей в месяц, что составляло тогда треть от всех пользователей Интернета. В 1998 году это был третий по трафику сайт в мире. В следующем году, прямо перед тем, как лопнул «интернет-пузырь», Yahoo! Inc. купила GeoCities за 3,5 миллиарда долларов.
Несколько лет спустя, увидев, что GeoCities так и не стали прибыльным проектом, Yahoo ввела плату за хостинг. Сейчас видно, что это стало началом конца GeoCities. Люди стали от таких услуг отказываться, тем более что возникли новые сервисы, такие как Google Sites, предложившие еще б?льшую простоту создания и администрирования сайта, использование новейших интернет-технологий и самое главное – бесплатность своих услуг. И все-таки GeoCities оставили после себя важное наследство: во-первых, стало понятно, что каждый человек может создать свой сайт и организовать свое присутствие в Интернете. Во-вторых, бизнес может иметь более специализированные площадки для своей рекламы.
1999: Агрегирование контента
Когда в Интернет хлынул массовый издатель, потребителям информации понадобились средства для того, чтобы управлять получением интересного для них контента: сайтами, и в особенности такими часто обновляемыми источниками, как новости, фотографии, посты в блогах. Для этого был разработан RSS – стандарт форматирования, предназначенный для передачи обновлений веб-контента. RSS-программы агрегируют контент из различных источников Интернета, собирая для подписчика «индивидуальную газету», состоящую из обновлений контента на всех сайтах, на которые он подписался. RSS-программы программируются так, чтобы регулярно проверять наличие обновлений на этих сайтах, чтобы потребителю не приходилось это делать вручную. Свойства RSS-агрегирования сейчас уже стали стандартными для многих браузеров и программ электронной почты. (Кстати, я разрабатывала RSS-модуль для Outlook в 2003 году, работая в Microsoft.) Существуют и RSS-программы, работающие на интернет-серверах, например Bloglines and Google Reader.
Издателям инструменты управления RSS-потоками, такие как FeedBurner (купленный в 2007 году Google), предоставляют возможность автоматического форматирования, анализа трафика и дополнительные рекламные сервисы. Хотя вначале существовали сомнения в том, что в RSS допустима реклама, сейчас более двух третей издателей, пользующихся FeedBurner, включают в свои RSS-потоки рекламу, считая, что это вполне жизнеспособная модель.
2003: Маркетинг в поисковых машинах
Агрегирование может хорошо помочь в потреблении контента, но оно не решает главной проблемы – огромного избытка контента. С этим может справиться только поиск, который делает контент более управляемым за счет генерации его «на лету» – в виде ответов на поисковые запросы, отражающие интересы пользователей.
Это позволяет также и показывать рекламу «на лету». Первая успешная модель поискового маркетинга была продемонстрирована в 1998 году системой Overture (в 2003 году приобретенной Yahoo! Inc.). Она основывалась на идее платы за размещение в результатах поиска, которые показывались в том порядке, который отражал желание рекламодателей пробиться в первые строки. Google применил аналогичную модель в своем платном поисковом продукте AdWords, правда, добавив к ней компонент определения релевантности. Google также выделил специальное место для оплаченных рекламных объявлений на страницах с результатами обычного поиска, основанными только на релевантности. Релевантность, определяемая как процент кликов по каждой ссылке, эффективно перекладывает тяжесть оценки качества поиска на плечи пользователей, которые «голосуют» своими кликами за понравившиеся им ссылки. Качественные результаты поиска завоевали для Google огромную глобальную пользовательскую базу. Высокорелевантные оплаченные рекламные модули приводят к увеличенному количеству переходов на них, превращаясь в растущие продажи рекламодателей. Бесчисленные малые бизнесы обращаются через Интернет к аудиториям на противоположной стороне земного шара. Вокруг маркетинга в поисковых машинах сформировалась ни много ни мало новая отрасль с годовым оборотом, превышающим 20 миллиардов долларов.
А это означает, что он является мощным механизмом таргетирования, способным застать людей ровно в тот момент, когда они готовы что-то приобретать.
2008: Поведенческое таргетирование
Одним из недостатков поиска по ключевым словам, однако, является то, что он не учитывает контекст. Например, поиск Google не принимает во внимание разные типы данных в Интернете: является ли искомое слово чьим-то именем, названием места, песни, одежды или чем-то еще? Хотя фразу для поиска можно и уточнить (написав, например, «Canon 5 мегапикселей цифровая камера», чтобы не получать результаты, касающиеся пушек, канонов и т. п.), во многих случаях это сделать сложно. Особенно сложно иметь дело с омонимами. Например, словосочетание «Paris Hilton» может обозначать как человека, так и гостиницу (более того, несколько гостиниц и нескольких людей). У слов часто бывает много значений, и они могут зависеть от контекста.
Поскольку количество информации, наполняющей Интернет, продолжает расти взрывообразно, различение значений слов и контекстов их употребления будет ключевым фактором в том, чтобы Интернет оставался «судоходным» и релевантным. Поняв это, старые медиаигроки, такие как Thomson Reuters, и молодые стартапы, подобные Metaweb, начали инвестиции в работу по созданию «семантической Паутины». Их усилия направлены на то, чтобы классифицировать интернет-контент так, чтобы он был понятен для компьютеров и чтобы утомительная работа по связыванию однородной информации в Интернете могла быть автоматизирована. Например, представим себе семантическую веб-систему для продажи букинистических книг через Интернет. Когда кто-нибудь попадает на этот сайт впервые, его просят оставить о себе информацию: имя, адрес, электронную почту, номер телефона. Данные, введенные им, попадают в базу Resource Description Framework (RDF, «Структура описания ресурсов») и составляют контекст для будущих его визитов на этот сайт и другие сайты, входящие в семантическую Паутину. Аналогично любые данные, представленные о конкретной книге, такие как название, автор, издатель, ISBN и описание, сохраняются в аналогичной базе RDF. Таким образом постепенно создается универсальная база знаний о разных людях, местах, объектах – на основании их смысла, наличия связей в Интернете и отношения друг к другу.
В дополнение к метаданным о контенте Интернета уникальные характеристики, предпочтения и история поисков, проведенных разными людьми, также образуют важный контекст для каждого поиска. Нынешние поисковые машины в большей или меньшей степени построены на предположении, что все люди одинаковы. То есть если результаты моего поиска релевантны для меня, то они будут релевантны и для вас, будь вы 90-летней бабушкой, 12-летним мальчиком или крестьянином из Найроби.
Поведенческое таргетирование пытается заполнить этот пробел, создавая профиль каждого интернет-пользователя на основании его биографических данных и истории его деятельности в Интернете и затем показывая ему только ту рекламу, которая ему будет заведомо интересна. Рекламные сети и некоторые порталы, такие как AOL и Yahoo, уже почти десятилетие используют поведенческое таргетирование, чтобы показывать пользователям рекламу и контент, основываясь на их прошлой истории – посещенных сайтах, длительности визитов, нажатых баннерах и покупках. DoubleClick (приобретенный Google) был в свое время лидером в разработке таргетирования рекламы при помощи куков. В последнее время такие компании, как Tacoda (купленная AOL), Revenue Science, Front Porch, NebuAd и Phorm, возродили эти методы для использования широкополосными провайдерами, которые имеют доступ к гораздо большему количеству данных о веб-активности, поскольку обрабатывают трафик своих пользователей, направленный ко всем возможным сайтам, в отличие от обработки трафика на стороне сайтов, входящих в небольшой круг. Понятно, что поведенческое таргетирование вызвало к жизни целую волну дискуссий о вопросах сохранения приватности, поскольку в большинстве таких систем пользователи не дают в явном виде разрешения на такой доступ к их данным и даже часто не имеют возможности и отписаться от него и, таким образом, не могут контролировать, какая информация о них собирается и как она используется.
Данный текст является ознакомительным фрагментом.