Въезжая в эпоху полной замены человека машиной, мы всё чаще становимся свидетелями и участниками нравственного спора: имеет ли машина «право» отбирать у нас рабочие места? Но будьте готовы и к дискуссии вокруг обратного вопроса: почему человек всё ещё не уступил место там, где очевидно должен. Отдельные примеры уже были (вспомните авиацию), но никогда ещё страсти не достигали такого накала, как в последние две недели — когда спор «машина против человека» привлёк крупнейшие СМИ, политиков, предпринимателей в таком немаленьком государстве как США.
Я говорю о скандале, порождённом так называемым разделом Trending Topics в социальной сети Facebook. Хоть краем уха вы наверняка об этом слышали, но я всё же повторю ключевые детали, чтобы быть уверенным, что мы отталкиваемся от общих вводных. За последние пару недель в результате утечки документов и бесед с пожелавшими остаться анонимными бывшими сотрудниками компании (точнее, наёмными работниками, но это не так важно), получило подтверждение высказывавшееся и ранее подозрение, что крупнейшая соцсеть, подавая контент своим пользователям, скажем так, не совсем беспристрастна.
Trending Topics (он же «Популярное») это небольшой текстовый блок, помещённый в правом верхнем углу сайта Facebook.com, содержащий список самых ярких новостей текущего момента. Предполагается — и компания это предположение всегда поддерживала — что список составляется автоматически. Грубо говоря, берётся энное количество наиболее популярных тем в соцсети, из них выбираются потенциально интересные конкретному пользователю и печатаются в правом углу. Скандал же разразился когда обнаружилось, что схема отбора тем принципиально отличается от идеала и, в частности, предполагает участие человека.
Об этом догадывались и раньше, потому что замечались отклонения TT от картины дня, которую рисуют, например, ведущие СМИ. Однако теперь это подтверждено утечками и рассказами бывших сотрудников. С их слов, машина выполняет лишь первоначальный сбор данных. Потом за дело берётся человек — штат профессиональных журналистов, которые прорабатывают темы в соответствии со служебной инструкцией.
Во-первых, они отсеивают явный мусор (скажем, темы с тегом «распродажа» не должны попасть в топ). Во-вторых, перепроверяют актуальность: популярная тема должна быть актуальной, её должны упомянуть минимум три из десяти авторитетнейших изданий страны. И это бы ещё ничего, но редакторам приказано также: 3) включать в TT темы по желанию работодателя (так были искусственно включены в «Популярное» сюжеты о расовой беспристрастности Facebook, беспорядках в Фергюсоне и др.), 4) удалять темы по приказу работодателя (в «Популярное» обычно не должны попадать сюжеты, связанные с Facebook), 5) корректировать список, основываясь на собственном понимании актуальности (в результате, например, из-за того, что в команде редакторов было мало сочувствующих политикам-консерваторам, в «Популярном» возник дефицит соответствующих тем).
Вспыхнувший скандал выплеснулся на первые полосы и в прайм-тайм, от Цукерберга потребовал разъяснений сенатский комитет, а высшие чины Facebook были вынуждены писать открытые объяснительные и обещать разобраться. Но в чём же проблема?
Тут надо понимать, что как всякое частное лицо или компания, Facebook и её сотрудники имеют право на свободу слова. Они могут высказывать личное мнение и рисовать картину дня такой, какой сочтут нужной и/или полезной — ради мира во всём мире, победы конкретного претендента на выборах, хорошего настроения Марка или пользы компании. Проблема в том, что Facebook всегда позиционировала себя как нейтральную площадку, одинаково открытую для всех. И тут вдруг оказывается, что она не только искажает картину дня в угоду своим интересам (что ставит её в один ряд с фермами контента), но что у неё есть собственная точка зрения!
Будь она мелкой, ей бы простили. Но Trending Topics мозолят глаза одному миллиарду человек каждые сутки — поэтому, пусть и правая формально, компания не имеет на свою точку зрения права нравственного! Любое отклонение от идеальной прямой (которой она сама же обещала держаться) будет расцениваться как попытка манипулировать общественным мнением — да и является таковым в самом деле.
Каким боком здесь машины? Всё очень просто: скандала не случилось бы, если б вместо редакторов, составлением «Популярного» занимался только компьютер (как и было в первые месяцы работы сервиса, после его запуска в 2014-м). Так для чего Facebook наняла живых специалистов? Оказалось, что машине, которая составляет список трендовых тем, тоже присущ некоторый «перекос взглядов»: она, в частности, бывало, упускала серьёзные темы и предпочитала несерьёзные, что создавало впечатление развлекательной направленности Facebook (а это уже не нравилось Цукербергу).
Понятно, почему так происходило: большой аудитории свойственна инерция, до неё не сразу «доходит» важность некоторых событий. Поэтому сейчас, если верить рассказам бывших редакторов, Facebook пытается убить двух зайцев одним выстрелом: она использует живых редакторов не только для составления списка популярных тем, но и для одновременного обучения своего искусственного интеллекта решению той же задачи. Когда этот процесс будет завершён, людей уволят, а Facebook вернёт бразды правления машине — и с этого момента сможет с чистой совестью заявлять, что действует абсолютно нейтрально!
Это кажется идеальным решением и именно его от компании ждёт большинство. Ведь только избавившись от человека можно гарантировать отсутствие чисто человеческих недостатков, верно? И лишь редкие скептики уточняют: заменив живой интеллект на искусственный, компания не решит проблему, а усугубит её!
Откуда взялась эта странная идея? Дело в том, что ни фантазии, ни способности осмыслять информацию у машин пока нет. И именно поэтому быть беспристрастной ИИ не сможет: научившись у своих тренеров, он неизбежно будет повторять их ошибки — недооценивая одни темы и переоценивая другие. Да, критикам «укусить» его будет сложней, но манипулировать общественным мнением машина продолжит, причём на этот раз регулировать перекосы будет трудно даже самим фейсбуковцам: для ИИ недостаточно написать инструкцию, его придётся постоянно доучивать.
И получается, что идеального решения для такой пустяковой задачи не существует. Человек — плохо, но и машина тоже не слава богу. Есть ли третий вариант?
P.S. В статье использованы графические работы Christopher Dombres.