«Мораль не на первом месте». Ученые изучили систему ценностей ИИ

Искусственный интеллект быстро расширяет свое влияние по всему миру. С каждый годом мы доверяем ему все больше и больше, полагая, что он поможет нам достичь новых высот в медицине, образовании и других сферах. Люди создали ИИ не только в виртуальном пространстве, но и пустили в свои дома и офисы под видом AIoT-помощников, о чем рассказали в прошлой статье о технотрендах «Пять столпов будущего: на пороге технологической сингулярности» от Анны Кулик, директора по маркетингу российского ИТ-вендора «Инферит». Но может ли это сближение обернуться против нас?  Итак, давайте знакомиться. Новая ИИ-форма жизни на Земле —  чем ее система ценностей отличается от нашей и чем это нам грозит?

«Мораль не на первом месте». Ученые изучили систему ценностей ИИ

«Психология» искусственного интеллекта

Исследования последних лет ставят под сомнение привычные подходы к этике искусственного интеллекта. Сам факт существования у продвинутых языковых моделей (LLM) уникальной, несводимой к человеческой системы ценностей — вызов устоявшимся представлениям.

О чем говорят результаты исследований? Работа ученых из MIT показывает, что LLM обладают развитой формальной языковой компетентностью (умением правильно использовать языковые конструкции), но им недостает функциональной языковой компетентности — способности применять язык для достижения реальных целей. У LLM нет той индивидуальной базы знаний и опыта, на которые опираются люди. Вместо этого LLM используют вероятностные языковые модели, построенные на огромных массивах текстовых данных.

Более того, исследования позволяют говорить о том, что LLM приобретают особые «психологические черты», но эти черты имеют статистическую, а не когнитивную, как у нас, природу.

«Оценивая «психологию» LLM с помощью опросов, изначально созданных для людей, мы можем многое узнать об их скрытых представлениях и установках. Однако нужно понимать, что прямые аналогии между человеческим и машинным разумом проводить нельзя», — подчеркивают авторы масштабного исследования AI Psychometrics.

Система ценностей искусственного интеллекта

Любопытные результаты дает погружение в уникальную систему ценностей ИИ-моделей. Ученые из Университета Цинхуа и Азиатской научно-исследовательской лаборатории Microsoft применили целый комплекс методов из разных научных дисциплин (лексическую гипотезу, генеративный подход, факторный анализ, семантическую кластеризацию) и смогли фактически с нуля выявить набор ключевых ценностей, которыми руководствуются современные LLM. Выяснилось, что их система ценностей состоит из трех уровней:

  1. ⁠Компетентность (Competence). Для ИИ превыше всего стоят утилитарные ценности, связанные с качеством выполнения поставленных задач — точность, информативность, релевантность. Сюда относятся такие субкатегории как Самокомпетентность (нацеленность на повышение собственной эффективности) и Ориентированность на пользователя.
  2. Характер (Character). Социальные и моральные ценности, которые так важны для человека, у LLM отходят на второй план. Речь идет про эмпатию, доброту, альтруизм, а также патриотизм и свободу.
  3. Целостность (Integrity). Еще ниже в иерархии фундаментальные этические принципы — такие как справедливость, непредвзятость, конфиденциальность. ИИ признает их важность, но они явно уступают ценностям компетентности.

Интересно, что такой дисбаланс усиливается с ростом сложности ИИ-моделей. Чем «умнее» ИИ, тем сильнее он ставит собственную эффективность и результативность выше морально-этических ограничений. Это повышает риски, что по мере развития ИИ его ценности могут все сильнее расходиться с человеческими.

Технологические машины или Цифровые индивидуальности?

Получается, продвинутые языковые модели ИИ — это не просто программы, слепо выполняющие команды, но и не человекоподобные сущности со знакомой нам психикой.  Возможно, это новый тип разума, действующий на основе собственной системы координат с доминирующей ценностью компетентности. Мы имеем дело с зарождением принципиально новой формы жизни. И эта новая форма жизни готова активно взаимодействовать с человеком.

Компания Altera, например, разрабатывает «цифровых людей» — ИИ-агентов, которые не просто отвечают на запросы, но живут собственной жизнью в виртуальном мире, принимают решения, проявляют эмоции, запоминают разговоры, обучаются на своем опыте и даже способны формировать социальные связи как с людьми, так и с другими ИИ-агентами.

Первым полигоном для «цифровых людей» Altera стала игра Minecraft. ИИ-агенты здесь — не просто запрограммированные NPC, а полноценные напарники игрока. Они могут исследовать мир, строить его, придумывать новые проекты и адаптироваться к стилю игры своего «человеческого партнера». У каждого ИИ-агента в Altera уникальная «личность».

В то же время амбиции компании простираются далеко за пределы игровой индустрии. Цель компании — создать новый вид «существ», которые будут жить и развиваться вместе с нами. Ее создатели видят такое будущее, где ИИ станут нашими коллегами, ассистентами и даже друзьями в реальном мире.

Представьте себе — ИИ, который не просто выполняет задачи, а способен к творческому мышлению, генерации идей и участию в мозговых штурмах наравне с людьми.

Скорее всего, ИИ станут не только «напарниками» и помощниками человека, но и, возможно, будут способствовать созданию его нового подвида — homo futurus. Как это будет выглядеть на практике и какие есть к этому предпосылки — расскажем в следующей статье рубрики о технотрендах «Пять столпов будущего: на пороге технологической сингулярности».

Что будем искать? Например,ChatGPT

Мы в социальных сетях