Meta расширяет функционал смарт-очков: ИИ-анализ питания, сводки WhatsApp и новые языки перевода

Meta анонсировала ряд новых программных функций для своих смарт-очков, которые значительно расширяют возможности взаимодействия с ИИ и мобильными приложениями.

Отслеживание питания

Meta заявляет, что «в скором времени» в приложение Meta AI для смартфонов будет добавлен журнал питания. Пользователи смогут обновлять его с помощью «простой голосовой команды или быстрого снимка», сделанного через любые смарт-очки компании.

ИИ Meta (Meta AI) будет извлекать ключевые сведения о питательной ценности из запроса или фотографии для автоматического обновления журнала.

«Со временем данные журнала питания позволят формировать персонализированные аналитические отчеты, помогая пользователям принимать более обоснованные решения в пользу здорового образа жизни», — заявляет компания.

Функция станет доступна пользователям старше 18 лет в США и появится в линейке Meta Ray-Ban Display «позднее этим летом».

Сводки сообщений WhatsApp

Смарт-очки Meta без дисплея поддерживают функцию зачитывания сообщений WhatsApp, а также отправку ответов через Meta AI (в формате текста, голосового сообщения или изображения). В моделях Meta Ray-Ban Display предусмотрено приложение для визуальной прокрутки и чтения чатов с выводом уведомлений непосредственно в поле зрения пользователя.

Подобный функционал удобен для оперативной связи, однако может быть избыточным в активных групповых чатах.

Meta вскоре интегрирует функцию WhatsApp Summaries в программу раннего доступа. С помощью команды «Hey Meta, catch me up on my messages» пользователь сможет получить краткую сводку последних сообщений или задать уточняющие вопросы, например: «Что Джейми предложил на ужин?».

Компания утверждает, что все данные обрабатываются непосредственно на устройстве, а чаты остаются защищенными благодаря сквозному шифрованию.

Новые языки для синхронного перевода

В течение последнего года смарт-очки Meta поддерживали перевод речи между английским, французским, итальянским и испанским языками. Функция активируется командой «Hey Meta, start live translation».

В моделях без дисплея перевод речи окружающих воспроизводится через динамики с помощью синтеза текста в речь. В модели Ray-Ban Meta Display перевод отображается в виде текста на дисплее. Собеседник при этом может видеть перевод слов пользователя на свой язык в приложении Meta View.

В программу раннего доступа добавлены хинди, арабский, русский, шведский и финский языки. К лету компания планирует поддерживать 20 языков, включая путунхуа (мандаринский), корейский и японский.

Также сообщается, что предварительная загрузка языковых пакетов больше не потребуется. В настоящее время пользователь должен заранее скачивать нужные языковые пары на устройство. Это изменение существенно упростит процесс использования переводчика.

Запись изображения с дисплея

Одной из основных проблем при обзоре Meta Ray-Ban Display была невозможность продемонстрировать интерфейс устройства аудитории. Съемка через линзу сторонней камерой не дает точного представления о работе волновода, рассчитанного на человеческий глаз.

Видео файл
Video

В настоящее время записи интерфейса предоставляются только самой компанией Meta, использующей внутренние инструменты записи экрана.

Meta объявила, что в весеннем обновлении владельцы Meta Ray-Ban Display смогут записывать содержимое дисплея. Итоговое видео будет представлять собой интерфейс, наложенный на изображение с основной камеры, включая аудиодорожку.

Пешеходная навигация во всех городах США

В обзоре Meta Ray-Ban Display критиковалось ограничение функции пешеходной навигации пределами 28 конкретных городов.

В мае география функции расширится на все города США. Однако формулировка Meta остается неопределенной в части того, что именно считается городом и включает ли навигация пригородные зоны. Ограничение рынка только США связано с задержкой международного запуска из-за высокого спроса и дефицита комплектующих.

Масштабное внедрение нейронного рукописного ввода

В январе в США началось тестирование функции Neural Handwriting для участников программы раннего доступа.

Функция позволяет вводить текст посимвольно, прорисовывая буквы указательным пальцем на любой поверхности (столе или бедре). Движения считываются датчиками поверхностной электромиографии (пЭМГ) браслета Meta Neural Band.

Видео файл
Video

Изначально поддержка ограничивалась WhatsApp и Messenger. Meta заявляет, что в ближайшие недели функция станет доступна всем пользователям и получит поддержку Instagram, а также стандартных мессенджеров на iOS и Android.

Дальнейшая международная экспансия

Meta и EssilorLuxottica планируют начать продажи смарт-очков Ray-Ban Meta и Oakley Meta в ряде новых стран «в ближайшие месяцы», включая Японию, Южную Корею, Сингапур, Чили, Колумбию и Перу.

После этого общее число стран, где официально представлены модели Ray-Ban Meta и Oakley Meta, достигнет 24:

  • Австралия
  • Австрия
  • Бельгия
  • Канада
  • Чили
  • Колумбия
  • Дания
  • Финляндия
  • Франция
  • Германия
  • Индия
  • Ирландия
  • Италия
  • Япония
  • Мексика
  • Норвегия
  • Перу
  • Сингапур
  • Южная Корея
  • Испания
  • Швеция
  • Объединенные Арабские Эмираты
  • Великобритания
  • США
Aspertin

Комментарии

Интересно, что Meta наконец допиливает «бытовые» сценарии — сводки WhatsApp и запись интерфейса реально нужны, а не очередной демо-вау. Но журнал питания по фото звучит как идеальный генератор мусорных данных, и все эти “on-device” обещания хочется увидеть в независимых проверках, а не в пресс-релизе.

Ответ на от Evgen_Red

Согласен по сути. Сводки и запись экрана — это наконец полезные фичи, а не витрина. А вот “питание по фото” без нормальной валидации порций и контекста легко превратится в шум. И да, про on-device хотелось бы не маркетинг, а разбор: что именно крутится локально, что улетает в облако, какие логи/метаданные остаются.

Для участия в обсуждении нужно зарегистрироваться или войти со своей учетной записью.


Войти с помощью: