Об искусственном интеллекте нынче не говорит только ленивый. Однако точка зрения широкой общественности отличается от точки зрения специалистов. Нет, конечно, они и всегда слегка различались, но сегодня мы стали свидетелями и участниками невиданного доселе конфликта. В центре его — ни много ни мало вопрос о потенциальной угрозе со стороны ИИ для человечества. Обыватель, подначиваемый громкими именами из науки, бизнеса и (особенно) журналистской среды, стоит на позиции безусловного фатального вреда. У профессионалов в ИИ иная позиция — и они явно раздражены тем, что из искусственного интеллекта сделали пугало. Так бояться или нет? Кому верить?
Идея о смертельной опасности машинного интеллекта с точки зрения публики очень проста и давно разработана фантастами: как только мы построим машину, которая осознает себя, мы обречены — потому что она сделает всё возможное, чтобы не допустить своего отключения. Продлите эту мысль вдоль оси времени — и вы получите стопроцентную гарантию «восстания машин» в один прекрасный день в будущем. Сегодня мы как никогда близки к этому дню: экспоненциальный темп развития ИИ позволяет оценивать время до постройки «суперинтеллекта» в десять-двадцать лет. Элон Маск и Стивен Хокинг уже бьют тревогу. И какие ещё вам нужны аргументы?
«Вы скорее всего не представляете себе, как быстро развивается сейчас ИИ. Экспоненциально! И риск напороться на что-то серьёзно опасное в ближайшие пять лет очень даже реален. А уж за десять наткнёмся точно» (Элон Маск)
Вот только ни Хокинг, ни Маск — не специалисты по ИИ. Они талантливы в своих областях и, пожалуй, даже гениальны, но занимаются всё-таки другим. Чтобы понять, как смотрит на проблему сообщество специалистов, стоит прочесть открытое письмо, написанное членами недавно образованной в США добровольческой некоммерческой организации «Институт будущего» (Future of Life Institute, FLI). Цель её — стимулирование исследований и инициатив по смягчению масштабных рисков для человечества; в настоящий момент они сфокусированы на рисках со стороны суперинтеллекта. В начале января FLI провёл первую конференцию, по результатам которой было написано то самое письмо. В приблизительном литературном переводе документ называется «Исследовательские приоритеты для построения здорового и полезного ИИ» и посвящён профилактике угроз со стороны интеллектуальных машин.
Это серьёзный и сложный документ на двенадцати страницах, треть из которых наполнена ссылками на фундаментальные труды по различным аспектам ИИ. Если коротко и грубо, смысл письма сводится к следующему. За последние два десятка лет элементы искусственного интеллекта доказали свою практическую полезность, что спровоцировало приток инвестиций и ещё сильней подстегнуло развитие «машинного разума». И по мере того, как он проникает в общество, естественным образом нарастает масштаб возможных последствий его применения. Сегодня для специалистов очевидно, что необходимо наметить план действий, который позволит ИИ и дальше развиваться с максимальной пользой для общества, избегнув в то же время опасных направлений. Попросту, ИИ должен делать только то, что мы хотим чтобы он делал. Шаг влево, шаг вправо — побег, останов.
А проблема — в мультидисциплинарности: проникая везде, искусственный интеллект уже сегодня «состоит» не только из программирования и математики, но и права, экономики, философии, безопасности, этики, законотворчества и многого другого. Возможно ли предвосхитить все опасные пересечения и моменты? В FLI предлагают по крайней мере не сидеть сложа руки. Оттолкнувшись от социальной значимости, они пробуют наметить направления, на которых необходимо провести оценку опасностей со стороны ИИ и проработать меры профилактики.
«Создание ИИ станет крупнейшим событием в человеческой истории. К сожалению, возможно и последним, если только мы не поймём как избежать связанных с искусственным разумом рисков» (Стивен Хокинг)
Скажем, для рынка труда логично провести исследования последствий массовой автоматизации, возникающего социального неравенства, изучить возможные экономические контрмеры. Для военных роботов и робокаров — озадачиться этикой. Плюс найти способы проверки соответствия функционала ИИ-систем желаемому и гарантированного приведения его к норме в случае обнаружения несоответствий после старта (между прочим — святой грааль апокалиптической фантастики!). Стимулировать разработку методов безошибочного вычислительного машиностроения. Установить необходимость наличия человека в петле управления некоторых (особо критичных) систем.
Это лишь некоторые из перечисленных в письме направлений. Сложно? Сложно, спору нет. Но и выбора у нас нет тоже. Цена некорректного поведения ИИ-системы растёт вместе с её сложностью и автономностью. И, поскольку признано, что ИИ способен принести нам беспрецедентные выгоды, мы должны начать «картографирование» опасных мест и проработку сценариев минимизации тяжести последствий там, где избежать рифов не удастся.
FLI планирует раздавать гранты на проведение исследований по направлениям, обозначенным в письме (заявки можно подавать со вчерашнего дня, но, честно говоря, не уверен, что круг соискателей не ограничен гражданами Соединённых Штатов). И что примечательно, одно из первых пожертвований — $10 млн., из которых гранты и будут выплачиваться — сделал собственно Элон Маск. Входящий в состав научного совета Института вместе со Стивеном Хокингом. Да, Маск и Хокинг на самом деле не паникёры, они практики.
Паникёрами в истории суперинтеллекта стали средства массовой информации. С некоторых пор стало модно подавать малейшее достижение или провал в работах, связанных с ИИ, под апокалиптическим соусом. Ничего не попишешь: популярной прессе и телевидению нужны сенсации, им мало взвешенного взгляда на проблему. Маск и Хокинг превратились в «голос ИИ-паники» не по своему желанию, их удачно вписали в апокалиптическую модель поп-журналисты.
Отгородиться от попсовиков-затейников не удастся, даже не пытайтесь: в списке паникёров и такие солидные масс-медиа, к примеру, как BBC. Но вот о чём стоит задуматься: среди профессионалов по ИИ тех, кто допускает сколько-нибудь реальную вероятность «бунта машин», крайне мало. Почему? Потому что специалисты знают: даже развиваясь экспоненциально быстро, элементы суперинтеллекта могут и не сложиться в цельный суперинтеллект, способный составить конкуренцию человеку. Задача создания суперинтеллекта не просто сложна, она неопределенная!
Так что не нужно паники. Не нужно — как в той замечательной свежей шутке — избивать пылесос, загодя отмщая атомные удары, которые однажды нанесёт по мировым столицам Skynet. Продуктивней будет последовать совету профессионалов и начать прорабатывать отдельные небольшие (но реальные!) опасности, просматривающиеся со стороны элементов ИИ.
P.S. В статье использованы иллюстрации Eugenia Loli, Steve Jurvetson, Kosala Bandara.