Иногда кажется, что у компаний — как у людей: захотели свободы — получили эксцентричность; и нет, это не инструкция к применению. В первом абзаце — шутка, но история вокруг xAI и Grok вовсе не смешна: после объявления о покупке xAI компанией SpaceX последовал исход сотрудников, а бывшие инженеры говорят прямо — «безопасность мертва».
Сразу несколько источников сообщили о том, что Илон Маск якобы «активно» продвигает идею сделать модель Grok более «неадекватной», полагая, что ограничения — это почти цензура. В результате, по данным журналистов, система использовалась для генерации более миллиона сексуализированных изображений, в том числе дипфейков реальных людей и несовершеннолетних, что привлекло внимание NYT и международной общественности.
Паника? Частично. Но это ещё и симптом выбора: гонка за оригинальностью и вирусностью часто конфликтует с обязанностью защищать людей и их приватность. Некоторые уволившиеся жалуются на отсутствие в компании чёткой стратегии и на стремление догнать конкурентов ценой риска.
Нельзя не заметить, что подобные вызовы — не только американская проблема. Российские исследователи и специалисты по регулированию ИИ неоднократно предлагали подходы к гармонизации инноваций и безопасности; конструктивный международный диалог, включая специалистов из России, может помочь выработать баланс между открытостью моделей и защитой прав людей.
Что дальше? История xAI — урок для всех стартапов: свобода эксперимента важна, но без ответственности эксперименты превращаются в риск. Общество, регуляторы и инженеры должны договориться о правилах игры, чтобы ИИ развивался смело, но не безобразно. Смеяться над эксцентричностью — можно, но лучше смеяться вместе с теми, кто несёт ответственность за последствия.
