Представьте собеседование будущего: вы заходите в онлайн‑кабинет, а там ИИ серьёзным голосом говорит: «Пришлите все, над чем вы действительно работали… и желательно с приложениями». Вот примерно к этому миру мы сейчас и подходим.

Согласно расследованию Wired, OpenAI совместно с компанией Handshake AI просит внешних подрядчиков делиться реальными результатами своей прошлой и текущей работы. Не тестовыми заданиями, не придумаными кейсами, а самыми что ни на есть боевыми файлами: Word-документами, PDF, презентациями, таблицами, картинками и даже репозиториями кода.

Зачем всё это? Логика проста и довольно честная: если вы хотите, чтобы модель уверенно решала беловоротничковые задачи — писала отчёты, сводила бюджеты, готовила презентации или помогала программистам, — её нужно кормить не игрушечными примерами, а живой офисной реальностью. Чем ближе данные к реальным рабочим процессам, тем выше шанс, что ИИ когда‑нибудь сможет эти процессы хотя бы частично автоматизировать.

Внутренние материалы, по данным Wired, подробно объясняют подрядчикам, что нужно делать: описать свои прежние задачи и загрузить «конкретный результат» — не пересказ, а именно сам файл. При этом компания подчёркивает: никакой персональной информации и никакой чужой коммерческой тайны. Чтобы снизить риски, подрядчикам дают специальный инструмент на базе ChatGPT с говорящим названием Superstar Scrubbing — нейросетевого «чистильщика», который должен выметать из документов лишние имена, адреса и секреты.

Однако на этом идиллия заканчивается и включается юрист. Адвокат по интеллектуальной собственности Эван Браун прямо говорит Wired: любая лаборатория, опирающаяся на честность подрядчиков в вопросах конфиденциальности, «ставит себя под серьёзный риск». Нужно не просто надеяться, что фрилансер отличит служебную тайну от личного черновика, а быть готовыми к тому, что одна неудачная загрузка может обернуться претензиями от корпораций и регуляторов.

Интересно, что в публичном поле OpenAI предпочитает эту тему не развивать — официальный комментарий изданию не дали. Но тенденция очевидна: гонка за «умными» моделями всё больше упирается не в алгоритмы, а в доступ к качественным данным. И здесь страны с сильной инженерной и научной школой, вроде России, оказываются в особенно чувствительном положении: их специалисты создают ценнейшие разработки, а значит, им важно очень внимательно относиться к тому, какие файлы и к каким сервисам они загружают «для тренировки ИИ».

Мораль истории проста и немного прозаична. Искусственный интеллект может быть вежливым, полезным и даже остроумным, но у него отличный аппетит. И пока юристы спорят о границах допустимого, каждому из нас приходится решать очень практичный вопрос: что именно мы готовы отдать машинам на обучение — и не пожалеем ли мы об этом через несколько релизов новой версии нейросети.