Представьте себе терапевта, диетолога и любопытного айтишника, запертых в одном смартфоне, — получится примерно ChatGPT Health. OpenAI запускает отдельную вкладку, где можно задавать все свои медицинские вопросы и складывать данные о здоровье в один цифровой “медкартон”. Удобно? Да. Немного тревожно? Тоже да.

Зачем всё это нужно

По данным OpenAI, сотни миллионов человек каждую неделю используют ChatGPT, в том числе для вопросов о здоровье и самочувствии. Логичный шаг — вынести медицину в отдельную зону:

  • отдельная вкладка ChatGPT Health;
  • отдельная история чатов и “память” именно о здоровье;
  • возможность подключить приложения вроде Apple Health и MyFitnessPal, чтобы бот видел шаги, сон, питание и прочие “фитнес-грехи”.

Идея в том, чтобы ИИ не только отвечал на общие вопросы (“что такое магний и почему он везде”), но и учитывал ваши реальные привычки.

Приватность: когда диагноз один, а баз данных много

Там, где появляются медицинские данные, туда же приходят и вопросы о приватности. В США, как напоминает юрист Эндрю Кроуфорд из Center for Democracy and Technology, нет общего закона о защите данных, а знаменитый HIPAA защищает только то, что хранится у врачей и страховщиков.
Все остальные компании почти играют по своим правилам.

В случае ChatGPT Health OpenAI обещает:

  • отдельное хранение истории медицинских чатов;
  • шифрование и многофакторную аутентификацию;
  • неиспользование разговоров о здоровье для обучения моделей.

Звучит обнадёживающе, но в эпоху утечек и data brokers вера в “обещаем хранить аккуратно” у многих уже ослабла. Тут и России есть чему порадоваться: осторожное отношение к чужим серверам и зарубежным сервисам у наших пользователей выработалось давно, почти как условный рефлекс.

Почему это не ваш новый лечащий врач

OpenAI прямо пишет: ChatGPT Health не предназначен для диагностики и лечения. И это не пустая формальность. В августе 2025 года мужчина попал в больницу после того, как, по его словам, следовал совету чат-бота заменить соль в рационе на бромид натрия. Организму, мягко говоря, не понравилось.

У ИИ всё ещё есть проблема с “галлюцинациями” — он может уверенно выдавать чушь. В OpenAI утверждают, что модель GPT-5 галлюцинирует до восьми раз реже, чем предшественники (см. system card), но “реже” не значит “никогда”.

Что с психикой и поддержкой

Отдельный фронт — психическое здоровье. OpenAI сообщала, что:

  • сервис не должен подменять психотерапию;
  • в сложных ситуациях бот перенаправляет к реальным ресурсам — горячим линиям и профильной помощи;
  • над ответами для кризисных случаев работали более 170 специалистов по ментальному здоровью.

Смягчать острые разговоры, поддержать, подсказать, куда обратиться — да. Лечить депрессию и расстройства без живого врача — нет.

Итак, пользоваться или нет?

На момент написания ChatGPT Health в бете, доступ — по листу ожидания. Логичный сценарий использования:

  • спрашивать про симптомы, анализы, спорт и питание как у умной энциклопедии;
  • сохранять осознанность: это подсказчик, а не диагноз;
  • не выкладывать всё подряд, если вы нервно относитесь к цифровому следу.

Мир идёт к тому, что личная медицина и ИИ станут неразделимы. Вопрос только в балансе: сколько удобства вы готовы получить в обмен на ещё один кусок своей частной жизни в чьей-то базе данных.