Сооснователь OpenAI Илья Суцкевер запустил стартап по разработке безопасного ИИ

Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI, основал новую компанию Safe Superintelligence Inc. (SSI), ориентированную на создание безопасного суперинтеллекта. В числе соучредителей также Дэниел Гросс и Дэниел Леви.

Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI

Илья Суцкевер, известный как соучредитель и бывший главный научный сотрудник OpenAI, объявил о создании новой компании Safe Superintelligence Inc. (SSI), ориентированной на безопасность в области искусственного интеллекта.

О Safe Superintelligence Inc. (SSI)

SSI, стартап с единственной целью и продуктом, направлен на создание безопасного суперинтеллекта. В официальном объявлении подчеркивается, что компания придерживается подхода, сочетающего безопасность и возможности, что позволяет ей быстро развивать свою систему ИИ, не теряя из виду приоритеты безопасности. Такой подход помогает избежать внешнего давления, с которым часто сталкиваются команды по ИИ в крупных компаниях, таких как OpenAI, Google и Microsoft. Особая направленность SSI позволяет сосредоточиться исключительно на своей миссии без отвлечения на управление или циклы выпуска продукции.

«Наша бизнес-модель означает, что безопасность и прогресс изолированы от краткосрочного коммерческого давления. Таким образом, мы можем спокойно масштабироваться».

Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI

Кроме Суцкевера, среди соучредителей SSI значатся Дэниел Гросс, ранее руководивший отделом искусственного интеллекта в Apple, и Дэниел Леви, бывший технический сотрудник OpenAI. Первым продуктом компании станет безопасный суперинтеллект, который, по словам разработчиков, будет следовать строгим стандартам безопасности и этики.

Уход из OpenAI

В прошлом году Суцкевер возглавлял кампанию по смещению генерального директора OpenAI Сэма Альтмана. В мае он сообщил о своем уходе из стартапа. После этого Суцкевер намекнул на запуск нового проекта, который теперь стал реальностью в виде SSI.

Его уход сопровождался также отставкой других ключевых сотрудников OpenAI, включая исследователя ИИ Яна Лейке и исследователя политики Гретхен Крюгер. Оба отметили, что процессы безопасности в OpenAI начали отступать на второй план перед коммерческими продуктами.

Значение для индустрии ИИ

Создание Safe Superintelligence Inc. Суцкевером и его командой может стать важным поворотным моментом в индустрии ИИ. Фокусировка на безопасности и этике в разработке суперинтеллекта отражает растущие опасения по поводу потенциальных рисков, связанных с быстрым развитием ИИ. В условиях быстрого технологического прогресса и увеличивающихся рисков инициатива Суцкевера служит напоминанием о том, что безопасность и инновации должны идти рука об руку.

Что будем искать? Например,ChatGPT

Мы в социальных сетях