Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI, основал новую компанию Safe Superintelligence Inc. (SSI), ориентированную на создание безопасного суперинтеллекта. В числе соучредителей также Дэниел Гросс и Дэниел Леви.
Илья Суцкевер, известный как соучредитель и бывший главный научный сотрудник OpenAI, объявил о создании новой компании Safe Superintelligence Inc. (SSI), ориентированной на безопасность в области искусственного интеллекта.
О Safe Superintelligence Inc. (SSI)
SSI, стартап с единственной целью и продуктом, направлен на создание безопасного суперинтеллекта. В официальном объявлении подчеркивается, что компания придерживается подхода, сочетающего безопасность и возможности, что позволяет ей быстро развивать свою систему ИИ, не теряя из виду приоритеты безопасности. Такой подход помогает избежать внешнего давления, с которым часто сталкиваются команды по ИИ в крупных компаниях, таких как OpenAI, Google и Microsoft. Особая направленность SSI позволяет сосредоточиться исключительно на своей миссии без отвлечения на управление или циклы выпуска продукции.
«Наша бизнес-модель означает, что безопасность и прогресс изолированы от краткосрочного коммерческого давления. Таким образом, мы можем спокойно масштабироваться».
Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI
Кроме Суцкевера, среди соучредителей SSI значатся Дэниел Гросс, ранее руководивший отделом искусственного интеллекта в Apple, и Дэниел Леви, бывший технический сотрудник OpenAI. Первым продуктом компании станет безопасный суперинтеллект, который, по словам разработчиков, будет следовать строгим стандартам безопасности и этики.
Уход из OpenAI
В прошлом году Суцкевер возглавлял кампанию по смещению генерального директора OpenAI Сэма Альтмана. В мае он сообщил о своем уходе из стартапа. После этого Суцкевер намекнул на запуск нового проекта, который теперь стал реальностью в виде SSI.
Его уход сопровождался также отставкой других ключевых сотрудников OpenAI, включая исследователя ИИ Яна Лейке и исследователя политики Гретхен Крюгер. Оба отметили, что процессы безопасности в OpenAI начали отступать на второй план перед коммерческими продуктами.
Значение для индустрии ИИ
Создание Safe Superintelligence Inc. Суцкевером и его командой может стать важным поворотным моментом в индустрии ИИ. Фокусировка на безопасности и этике в разработке суперинтеллекта отражает растущие опасения по поводу потенциальных рисков, связанных с быстрым развитием ИИ. В условиях быстрого технологического прогресса и увеличивающихся рисков инициатива Суцкевера служит напоминанием о том, что безопасность и инновации должны идти рука об руку.