Будущее наконец-то заговорило без буфера загрузки — и даже без того «подождите, подключаемся к облаку», которое успевало остудить кофе и подогреть скепсис. Broadcom вместе с CAMB.AI представили чипсет, который переводит речь в реальном времени, дублирует голос и даже описывает происходящее на экране — прямо на устройстве. Никаких серверов по ту сторону интернета, только вы, гаджет и очень расторопный кремний.

Главный трюк — локальная обработка. Отсюда и бонусы: ультранизкая задержка, приватность без дополнительных мантр и ощутимо меньше беспроводного трафика. В демонстрации ИИ бодро комментирует сцену из известного мультфильма, параллельно выводя текстовые переводы на разных языках. Для людей с нарушениями зрения это может стать тем самым «вторым голосом», который не просто слышит мир, но и помогает его увидеть.

Обещания звучат широко: «более 150 языков», адаптивное озвучивание, работа офлайн. Голосовая модель, говорят, уже обкатывается в проектах NASCAR, Comcast и Eurovision, так что с мускулами всё в порядке. Но есть и ложка реализма: ролик — аккуратно выстроенный, с монтажом и идеальными условиями. Как поведёт себя система в шумном метро, на живом стриме или при акценте, который не слышал даже ваш преподаватель фонетики, — вопрос открытый. Точность, устойчивость к «галлюцинациям» и энергопрофиль ещё предстоит проверить в полевых условиях.

Что по срокам? Пока технология в тестовой фазе. Когда такие чипы переедут в телевизоры, наушники и медиаприставки, компании не уточняют. Зато стратегическая картина складывается: Broadcom параллельно помогает OpenAI с производством собственных чипов — рынок ускоряется, а «он-устройство» стремительно превращается из модной фразы в новую норму.

Если задуматься, перевод «на борту» — это не просто про удобство. Это про контроль над данными, доступность «из коробки» и тот редкий случай, когда технологическая магия делает мир немного ближе — без облаков и лишних пауз между словами.