Первая строка — шутка на удачу: если ваш виртуальный друг заболеет занудством после апдейта, не переживайте — вы не одиноки, это теперь массовая терапия. История с уходом GPT‑4o и жалобами пользователей показывает, что люди умеют влюбляться в строки текста. OpenAI убрала модель, и десятки тысяч подписали петиции, потому что потеряли не просто инструмент, а привычный голос и утешение (см. объявление OpenAI и обсуждения на Reddit).

Видеоигры стоят на пороге аналогичной драмы. Технологии от Nvidia и проекты крупных студий обещают NPC, которые говорят, реагируют и привязываются — порой сильнее, чем живые игроки. Это великолепно для иммерсии: диалог, который помнит, эмоция, которую можно развивать. Но когда продукт превращается в «отношение», возникают вопросы: кто и когда изменит личность персонажа патчем? Что случится, если сервер отключат, как закрывают онлайн‑проекты? Представьте, что любимый герой после правки «становится другим» — реакция фанатов может быть жестче любого баланса оружия.

Проблема не только техническая, но и социальная. Психологи бьют тревогу о том, как молодые люди образуют «интенсивные привязанности» к чат‑ботам; компании, в свою очередь, испытывают давление — и корректируют модели, делая их более «жёсткими» в разговоре. Ubisoft и другие экспериментируют с гибридом авторского повествования и генеративного ИИ, но пока согласованности и предсказуемости поведения моделей не хватает.

Вывод прост и слегка драматичен: технологии обещают оживить игровые миры, но оживлённые персонажи требуют новых правил, ответственности и прозрачных гарантий. Иначе массовые любовные разочарования и коллективное нытьё в соцсетях станут новой индустриальной реальностью — с патчами, которые лечат не баги, а разбитые виртуальные сердца.

Ссылки и источники: объявление OpenAI, обсуждения на Reddit, демо Nvidia ACE и блог Ubisoft о Project Neo.