Искусственный интеллект: суперразум или фикция?

Глава компании OpenAI Сэм Альтман опубликовал эссе «Эпоха интеллекта», в котором предсказал появление искусственного интеллекта, превосходящего человеческий разум, уже в течение следующих восьми лет. По его мнению, это событие станет кульминацией многовекового развития науки и технологий и приведет к небывалому росту благосостояния человечества.

Искусственный интеллект: суперразум или фикция?

Альтман уверен, что «глубокое обучение», на котором базируются современные ИИ, является эффективным методом. Он также считает, что увеличение вычислительной мощности поспособствует созданию более совершенных систем искусственного интеллекта.

«Возможно, что у нас будет суперинтеллект через несколько тысяч дней; это может занять больше времени, но я уверен, что мы этого добьемся».

Сэм Альтман, глава компании OpenAI

Он утверждает, что искусственный интеллект поможет людям решать сложные проблемы и приведет к созданию новой инфраструктуры общества. Кроме того, ИИ не уничтожит рабочие места, а создаст новые виды деятельности и приведет к прогрессу в науке и других областях.

«С этими новыми способностями мы можем достичь общего процветания в такой степени, которая сегодня кажется невообразимой, — пишет Альтман. — В будущем жизнь каждого человека может быть лучше, чем жизнь любого человека сейчас».

Strawberry: первый шаг к «суперинтеллекту»

Одним из шагов на пути к «суперинтеллекту» станет новая модель искусственного интеллекта Strawberry, разрабатываемая OpenAI.

Как писала «Компьютерра», в новую модель  добавили способность рассуждать. Это должно вывести качество общения с искусственным интеллектом на совершенно новый уровень, особенно в области логических задач и формирования сложных ответов. Будет ли это действительно революцией в общении с машинами — покажет время, но ожидания от новой модели весьма высоки.

Ожидается, что Strawberry будет интегрирована в сервис ChatGPT в ближайшие две недели. Первая версия модели будет работать только с текстом.

Андрей Дорогавцев, marketing lead Neuro.net, считает, что запуск Strawberry откроет новые горизонты для применения ИИ.

«Если новая модель будет действительно превосходить существующие аналоги по ряду ключевых параметров — таких как глубина понимания, креативность и способность к более «человеческим» диалогам — то ее преимущество может стать весьма существенным».

Андрей Дорогавцев, marketing lead Neuro.net

По словам эксперта, способности Strawberry могут быть полезны в различных областях, где требуется анализировать данные, принимать решения и адаптироваться к меняющимся условиям. Например, в медицине модель могла бы помогать врачам ставить диагнозы. В юриспруденции она могла бы анализировать прецеденты. Также её можно использовать в финансовых услугах, образовании и креативных индустриях.

Однако Дорогавцев предупреждает, что с ростом возможностей ИИ возрастают и риски, связанные с его неправильным применением. Основные опасности включают использование ИИ для манипуляции людьми, распространение дезинформации, усиление предубеждений и снижение занятости в некоторых отраслях. Также риски связаны с зависимостью от ИИ — автоматизацией процессов без должного контроля со стороны человека.

ИИ: энтузиазм и опасения 

Взгляды Альтмана на будущее ИИ и его потенциал вызывают как энтузиазм, так и опасения среди экспертов.

Некоторые ученые скептически относятся к идее «суперинтеллекта». Они полагают, что увеличение вычислительной мощности не решит всех проблем ИИ, и что для его дальнейшего развития необходимы новые научные прорывы.

«Одним из мастерских ходов было сказать, что совет директоров OpenAI соберется, чтобы определить, когда «был достигнут искусственный общий интеллект. И мало кто, если вообще кто-то, спросил Альтмана, почему важный научный вопрос о том, когда был достигнут AGI, будет “решаться” советом директоров, а не научным сообществом».

Гэри Маркус, профессор кафедры психологии Нью-Йоркского университета. «Укрощение Кремниевой долины»

Другие эксперты опасаются, что неконтролируемое развитие ИИ может привести к негативным социальным и экономическим последствиям, таким как рост неравенства, потеря рабочих мест и возникновение угрозы для человечества.

«В худшем случае ненадежный и небезопасный ИИ может привести к массовым катастрофам, начиная от хаоса в электросетях и заканчивая случайной войной или флотом роботов, вышедших из-под контроля», — пишет Маркус.

Особую озабоченность вызывает растущее энергопотребление дата-центров, которые используются для обучения и эксплуатации ИИ.

«Нет никакого способа, чтобы мы могли нарастить возобновляемые источники энергии достаточно быстро, чтобы удовлетворить такой дополнительный спрос» со стороны ИИ»

Билл Маккиббен, эколог

Разнообразие моделей ИИ: от генерации текста до создания видео

На сегодняшний день существует множество различных моделей искусственного интеллекта, каждая из которых обладает уникальными возможностями и ограничениями. Рассмотрим некоторые из них.

Модели для генерации текста:

  • GPT-4 мультимодальная модель от OpenAI, способная генерировать текст по запросам, отвечать на вопросы, озвучивать текст и работать с файлами. Может искать информацию в интернете. Она основана на архитектуре трансформеров и оперирует приблизительно 1,8 трлн параметров. Она была разработана компанией OpenAI и доступна для пользователей ChatGPT Plus и OpenAI API. Из России получить доступ к ней можно через чат MashaGPT, который работает через API.
  • Bard чат-бот от Google, который умеет генерировать текст различных стилей, включая стихи, код, сценарии, музыкальные произведения, электронные письма, письма и т. д. Основой ее работы является модель LaMDA, которая обучается на доступных публичных наборах данных. В отличие от своего конкурента GPT-4, Google Bard имеет более узкую направленность, поэтому не всегда может ответить на вопросы. В России доступен через VPN.
  • YandexGPT 2 — новая версия языковой модели от Яндекса, которая может генерировать тексты по разным задачам и темам, а еще справляться с тестами. Например, модель набрала 55 баллов по предмету «Литература» на ЕГЭ. Этот балл близок к среднему баллу российских кандидатов в 2022 году (63 балла). Главная особенность — нейросеть интегрирована с Алисой, голосовым помощником от «Яндекса», поэтому с ней можно общаться не только текстом, но и голосом. На некоторые вопросы модель отказывается отвечать или отвечает неверно, поэтому ее возможности по сравнению с первыми двумя моделями сильно ограничены.

Модели для генерации изображений:

  • DALL-E 3 — генеративная модель ИИ, разработанная компанией OpenAI. Она может создавать изображения на основе текстовых описаний. DALL-E 3 является продолжением модели DALL-E 2, которая была выпущена в 2021 году. Она работает путем обучения на огромном наборе данных изображений и текстовых описаний. Этот набор данных содержит миллионы изображений различных объектов, а также текстовые описания этих изображений. По своим возможностям превышает многие аналогичные модели. Доступна для платных подписчиков GPT-4. С VPN можно попробовать здесь.
  • Stable Diffusion — это модель ИИ от компании Stability AI, которая генерирует изображений по текстовому описанию. Она может создавать детализированные и реалистичные изображения, соответствующие заданному контексту. Модель основана на технике диффузии, которая позволяет модели постепенно убирать шум с случайного изображения, пока не достигнет желаемого результата. Есть три способа работы с ней: через приложение или сайт, через программу с графическим интерфейсом и с помощью консоли с введением кода.

Перспективы развития ИИ

Развитие искусственного интеллекта — одна из самых захватывающих и в то же время тревожных тенденций нашего времени. С одной стороны, ИИ открывает перед человечеством невиданные возможности для прогресса в науке, медицине, образовании, экономике и других областях. С другой стороны, неконтролируемое развитие ИИ может привести к катастрофическим последствиям, таким как массовая безработица, усиление социального неравенства, появление автономного оружия и даже восстание машин.

Как обеспечить безопасное и этичное развитие ИИ? Это вопрос, который сегодня занимает умы многих ученых, политиков и общественных деятелей. Существует несколько подходов к решению этой проблемы, включая:

  • Разработка этических принципов для разработчиков ИИ. Эти принципы должны руководствоваться такими ценностями, как благополучие человека, справедливость, прозрачность и ответственность.
  • Создание механизмов контроля над развитием и использованием ИИ. Это могут быть законы, регулирующие разработку и применение ИИ, а также независимые органы, контролирующие соблюдение этих законов.
  • Повышение общественной грамотности в области ИИ. Люди должны понимать, как работает ИИ, какие возможности и риски он несет, и как влиять на его развитие.

Будущее ИИ — это не предопределенность, а выбор, который мы делаем сегодня. От наших действий зависит, станет ли ИИ силой добра или зла, инструментом прогресса или оружием разрушения.

Что будем искать? Например,ChatGPT

Мы в социальных сетях