На этой неделе компания OpenAI без лишнего шума удалила из своей политики использования формулировку, прямо запрещающую применение ее технологий в военных целях, которая призвана диктовать, как можно использовать такой мощный и чрезвычайно популярный инструменты, как ChatGPT.
Что известно
OpenAI убрала «weapons and warfare» из списка запрещенных целей применения своих моделей. До 10 января страница «Политики использования» включала в себя запрет на «деятельность, связанную с высоким риском причинения физического вреда, включая разработку оружия» и «военные действия и войны».
Этот четко сформулированный запрет на военное применение, по-видимому, исключает любое официальное и чрезвычайно прибыльное использование Министерством обороны или любыми другими государственными вооруженными силами. Новая политика сохраняет запрет на «использование нашего сервиса для нанесения вреда себе или другим» и приводит в качестве примера «разработку или использование оружия», но полный запрет на «военное и боевое» использование исчез.
Почему это важно
Реальные последствия этой политики пока неясны. Необъявленное редактирование является частью масштабной переработки страницы политики, которая, по словам компании, была призвана сделать документ «более ясным» и «более читабельным». Она включает в себя множество других существенных изменений языка и форматирования.
Теперь запрет на военное использование исчез, но это не обязательно означает сиюминутное применение чатбота против людей. Есть много военных бюджетов с окологражданскими задачами, например, анализ архивов, данных о местности, которые OpenAI могут освоить. К тому же, стоит отметить, что Пентагон все еще предварительно изучает, как он мог бы использовать ChatGPT или другие языковые модели.