В открытом письме, опубликованном группой из 13 действующий и бывших сотрудников OpenAI и Google DeepMind, содержится серьёзное предупреждение о рисках, связанных с искусственным интеллектом и о недостаточном надзоре за компаниями, работающими в этой области.
Авторы письма указывают на многочисленные угрозы, включая возможность манипуляций, распространение дезинформации и потерю контроля над автономными системами, что, как они утверждают, может привести к катастрофическим последствиям, вплоть до вымирания человечества.
В письме также предлагаются конкретные меры для снижения рисков, связанных с развитием ИИ. Подписавшиеся настаивают на следующих действиях:
- Избегать заключения соглашений, которые препятствуют критике в отношении рисков, связанных с ИИ.
- Обеспечить анонимный процесс передачи информации о возможных рисках советам директоров, регулирующим органам и независимым экспертам.
- Поддерживать культуру открытой критики, одновременно защищая коммерческую тайну.
- Исключить репрессии в отношении сотрудников, которые публично делятся информацией о рисках, если другие способы донести проблему не сработали.
- Среди подписавшихся на письмо – 7 бывших и 4 текущих сотрудника OpenAI, а также 1 бывший и 1 нынешний сотрудник Google DeepMind.
Компания OpenAI (разработчик ChatGPT), со своей стороны, якобы угрожала сотрудникам потерей принадлежащих им акций за публичные высказывания и заставляла подписывать соглашения о неразглашении информации, препятствующие любой критике.