Субподрядчики видят персональные визуальные запросы Meta AI со смарт-очков компании, иногда из-за случайной активации, следует из расследования двух шведских газет.
Совместный материал Svenska Dagbladet и Göteborgs-Posten вызвал широкую обеспокоенность вопросами конфиденциальности смарт-очков — не только для окружающих (что уже считалось риском), но и для самих владельцев устройств.
Важно уточнить: проблема не связана с обычной функцией съемки фото и видео в смарт-очках Ray-Ban и Oakley. Фото и видео, которые пользователь снимает на очки, синхронизируются с телефоном и не просматриваются Meta или субподрядчиками, а также не используются для обучения моделей ИИ.
Вместо этого в отчете речь идет о функции визуальных запросов Meta AI на устройствах и о ее склонности к случайной активации.
Функция визуальных запросов Meta AI начала разворачиваться в начале 2024 года — примерно через шесть месяцев после выхода очков Ray-Ban Meta — и изначально явно требовала фразы «Hey Meta, look and tell me <query>», после чего ИИ захватывал один кадр для формирования ответа.
Часть таких ответов отправляется внешним подрядчикам, в странах с низкой стоимостью труда, например в Кении, где они оценивают ответ по критериям полезности и точности. Со временем Meta использует данные этой человеческой проверки для повышения качества ответов Meta AI.
В конце 2024 года, как было объявлено на Meta Connect того года, Meta AI обновили: система стала более естественно определять по контексту запроса, требуется ли захват изображения с камеры. Например, фразы «Hey Meta, what kind of plant is this?» или «Hey Meta, translate this menu» стали запускать захват.
Это обновление сделало Meta AI более естественным и практичным. Однако побочным эффектом стало заметное увеличение вероятности захвата кадра в ситуациях, когда пользователь этого не намеревался делать, — из-за ошибочного распознавания устройством фразы «Hey Meta». Кроме того, с функцией Live AI, доступной в США и Канаде, в обработку могут попадать даже видеоклипы. Функция Live AI позволяет вести непрерывный диалог с ИИ, по аналогии с Google Gemini Live на смартфонах.
В сочетании с системой проверки подрядчиками это формирует сценарий, который и описывает расследование: люди могут видеть по сути случайно захваченные интимные изображения из домов владельцев смарт-очков.
Кенийские проверяющие данных, которые общались со шведскими газетами, сообщили, что видели изображения и видеоклипы с обнаженными людьми в туалете, во время переодевания и секса, а также материалы с просмотром порнографии и демонстрацией конфиденциальных документов и банковских карт.
На объекте, где работают эти проверяющие, действуют строгие меры безопасности, исключающие пронос любых записывающих устройств и иные способы вывода материалов. Однако, если утечка данных каким-либо образом все же произойдет, это приведет к «огромному скандалу», отмечается в материале.
В ответ на шведский отчет Meta указывает, что светодиод на передней части очков всегда загорается при съемке (что соответствует действительности), а также выпустила общий комментарий о том, что визуальные данные «сначала фильтруются для защиты конфиденциальности», включая размытие лиц и номерных знаков. Однако кенийские сотрудники утверждают, что фильтр работает не идеально и что в материалах, которые они просматривают, сохраняются другие интимные детали.
Практика привлечения субподрядчиков для проверки взаимодействий с ИИ не является уникальной для Meta. Аналогичные подходы применяют, например, Amazon для Alexa, Google для Gemini и Apple для Siri. В 2019 году расследование Bloomberg показало, что такие подрядчики слышали интимные разговоры у кровати с устройств Amazon Echo, а другое расследование The Guardian выявило аналогичную практику в отношении Siri от Apple.
После негативной реакции на материал The Guardian Apple перевела человеческую проверку разговоров Siri в режим добровольного участия (opt-in), тогда как Google предоставляет возможность отказа (opt-out) для Gemini.
Для Meta AI, однако, возможности отказа нет. При этом для Meta форм-фактор смарт-очков с эгоцентрической камерой создает специфические риски конфиденциальности в рамках этой модели — и может побудить часть информированных пользователей отказаться от покупки смарт-очков или прекратить использование уже приобретенного устройства.
Станет ли это расследование стимулом для Meta изменить практики проверки данных, как это сделала Apple после отчета The Guardian в 2019 году? Или тема будет проигнорирована, чтобы компания могла быстрее улучшать Meta AI и сокращать отставание от более сильных моделей, таких как Google Gemini 3? И как Google и Amazon будут решать этот вопрос по мере запуска потребительских смарт-очков в ближайшие месяцы?
