Действующие и бывшие сотрудники OpenAI и Google DeepMind предупреждают о рисках ИИ

Группа нынешних и бывших сотрудников OpenAI и Google DeepMind выразила серьёзную обеспокоенность рисками, связанными с новыми технологиями ИИ. В своем открытом письме они указали, что финансовые интересы компаний препятствуют эффективному надзору и могут привести к серьёзным последствиям.

ИИ

Группа нынешних и бывших сотрудников компаний, работающих в сфере искусственного интеллекта (ИИ), таких как OpenAI и Google DeepMind, выразила обеспокоенность по поводу рисков, связанных с новыми технологиями.

Об открытом письме

В открытом письме, подписанном 11 нынешними и бывшими сотрудниками OpenAI, а также двумя сотрудниками Google DeepMind (одним нынешним и одним бывшим), говорится, что финансовые интересы компаний, занимающихся ИИ, мешают эффективному надзору.

Они предупреждают о рисках нерегулируемого ИИ, таких как распространение дезинформации, потеря контроля над независимыми системами ИИ и углубление существующего неравенства, что может привести к «вымиранию человечества».

Исследователи обнаружили примеры, когда генераторы изображений от компаний, включая OpenAI и Microsoft, создавали фотографии с дезинформацией, связанной с голосованием, несмотря на политику, запрещающую такой контент.

В письме также отмечается, что компании, занимающиеся ИИ, недостаточно делятся информацией с правительствами о возможностях и ограничениях своих систем.

Группа призывает компании, работающие в сфере ИИ, облегчить процесс выражения озабоченности нынешними и бывшими сотрудниками и не применять соглашения о конфиденциальности, запрещающие критику.

О документе Situational awareness

Кроме того, экс-сотрудник OpenAI из команды Superalignment опубликовал 165-страничный документ о будущем ИИ. Он отмечает, что к 2027 году появление AGI (общего искусственного интеллекта) более чем вероятно. После этого переход к ASI (сверхинтеллекту) через самообучение будет происходить очень быстро, практически мгновенно.

AGI станет самым значимым геополитическим ресурсом и страны будут готовы на многое, чтобы первыми его заполучить. В статье приводятся примеры того, как китайские шпионы следят за ИИ-компаниями в США.

Кроме того, в документе описано, что сегодня крупный дата-центр потребляет единицы или десятки мегаватт, но с развитием ИИ потребность в энергии возрастет минимум в 10,000 раз.  А единый вычислительный кластер, который будет стоить триллионы долларов, будет создан в течение пяти лет.

Сотрудник OpenAI считает, что самыми рациональными инвестициями для государственных акторов и крупных технологических компаний станут вычислительные мощности, атомная энергия и соответствующая инфраструктура. Компании NVIDIA, Microsoft, Amazon и Google уже сейчас планируют капитальные затраты в размере $100 миллиардов в квартал на дата-центры исключительно для ИИ.

Также к 2030 году ежегодные глобальные инвестиции в ИИ достигнут $8 триллионов, включая чипы и компьютеры, а потребление электроэнергии для ИИ превысит текущую генерацию электроэнергии в США. К 2026 году доход одной из крупных технологических компаний от ИИ превысит $100 миллиардов.

Что будем искать? Например,ChatGPT

Мы в социальных сетях