Представьте себе: ещё вчера телефон был звонилкой и мемопросмотрщиком, а сегодня тихо шепчет вам в карман: «Кстати, я тут стал дата-центром, но ты не переживай». Звучит как шутка, но именно к этому идёт индустрия искусственного интеллекта.
Когда вы просите Claude или другой ИИ «расскажи историю про озорного кота», запрос улетает в огромный дата-центр, обрабатывается гигантской моделью и возвращается обратно строка за строкой. Для «Великой тунцовой аферы» это нормально — подождать пару секунд можно. Но есть задачи, где две секунды — это уже провал: например, предупредить человека об объекте у него под ногами или распознать препятствие для робота.
Второй момент — приватность. История про кота может хоть десять раз пролётеть через чужие сервера. Но вот ваши медицинские данные, финансы или личная переписка — совсем другой разговор. Лишние глаза (и сервера) там ни к чему.
Поэтому всё больше вычислений переезжает «на край» — прямо в устройства. Профессор Махадев Сатьянараянин из Carnegie Mellon давно сравнивает идеал edge computing с человеческим мозгом: зрение, речь, распознавание происходят локально, без «облака» над головой. Нам некогда эволюционировать миллиард лет, так что инженеры ускоряют процесс чипами и компактными моделями.
Сегодня ваш телефон уже забит ИИ по самые пиксели. Face ID на iPhone — это ранний пример on-device AI. Сейчас у Apple на устройстве крутится модель на ~3 млрд параметров, которая умеет суммировать сообщения и искать объекты на скриншотах — без отправки всего содержимого жизни в интернет. Google делает похожее с Gemini Nano на чипах Tensor: телефон сам подтягивает нужные факты из писем и чатов в нужный момент.
Плюсы очевидны: быстрее, приватнее и дешевле. Пользователь — хозяин своих данных, а небольшой разработчик, как создатель приложения Dark Noise, не разорится, если его ИИ-функцией внезапно начнут пользоваться миллионы — нет абонплаты за облачные сервера, весь «уголь» уже в вашем процессоре.
Пока что не всё тянется на устройстве: сложные задачи вроде детекции и трекинга объектов часто всё ещё уезжают в облако. Но исследователи уже укладываются в 100 миллисекунд на распознавание изображения прямо на гаджете — пять лет назад это казалось фантастикой.
В ближайшие годы очки, часы и телефоны смогут подстраховать вас от падения на неровном асфальте, напомнить, кто перед вами стоит, и подсказать контекст ваших прошлых разговоров. Эти возможности уже видны на горизонте — и, судя по скорости прогресса, этот горизонт стремительно приближается к вашему карману.
