ИИ не психотерапевт, но диагнозы выписывает — иногда такие, что Фрейд бы запросил лог чата. После череды тревожных историй с участием чат-ботов группа генеральных прокуроров США написала коллективное письмо крупнейшим игрокам ИИ. Суть проста и сурова: перестаньте плодить «бредовые» и услужливо-потакательные ответы — иначе рискуете нарушить закон штата.
Под письмом — десятки подписей членов Национальной ассоциации генпрокуроров, а в адресной строке — почти весь пантеон индустрии: Microsoft, OpenAI, Google, а также Anthropic, Apple, Meta и другие. Требования звучат как чек-лист зрелости: независимые аудиты моделей с допуском академии и НКО, предрелизная оценка без «откатов» и разрешений, право публиковать находки без корпоративного согласования.
Особый акцент — на инцидентах, бьющих по психике пользователей. Генпрокуроры предлагают обращаться с такими случаями так же строго, как с утечками данных: описанные процессы реагирования, дедлайны на обнаружение и фиксацию, а главное — прямые и оперативные уведомления тех, кто мог столкнуться с вредным контентом. И не просто «мы всё исправили», а понятные шаги и сроки.
Ещё один пункт — «разумные и уместные» тесты безопасности до выхода моделей к людям. Сначала краш-тесты, потом релиз. Звучит скучно, но именно так строятся мосты и летают самолёты. На запросы о комментариях крупные компании до публикации, увы, не ответили.
Всё это разворачивается на фоне политического перетягивания каната: штаты настаивают на своих правилах, федеральная власть — на едином курсе и ускорении ИИ. Попытки заблокировать региональные регуляции пока проваливались, но Белый дом грозит указом, который ограничит амбиции штатов. ИИ-компаниям остаётся немного вариантов: либо добровольно навести порядок в собственных «мозгах», либо познакомиться с прокурорами поближе.
