Представьте:
вы лежите под одеялом.
Свет выключен.
Камеры нет.
Но Wi-Fi знает, что вы перевернулись.
И нет — это не сценарий Black Mirror.
Это реальное направление исследований, начавшееся в 2022 году в Carnegie Mellon University: Dense Human Pose Estimation from Wi-Fi.
🧠 Как это работает
Wi-Fi — это радиоволна. Она "ходит" по комнате и отражается от всего: стен, мебели, людей.
Когда человек двигается, меняются отражения сигнала.
Система не "видит" вас как камера. Она видит, что сигнал изменился определенным образом — и по этим изменениям пытается понять, что именно вы делали: сидели, вставали, наклонялись, поднимали руку.
Wi-Fi здесь работает как датчик движения — он пытается различать типы движений и поз.
🎓 Как этому научили
На этапе обучения делали так:
человек двигается → камера фиксирует реальную позу → параллельно пишется Wi-Fi-сигнал.
Модель учится связывать "вот такой рисунок сигнала" с "вот такая поза".
После обучения камера больше не нужна — в работе остается только Wi-Fi.
📊 Что по результатам
В лаборатории получалось довольно уверенно определять где человек и что он примерно делает, но это все еще ранняя стадия:
- — помещения простые
- — людей немного
- — помех почти нет
Корпус/общая поза — лучше. Руки/ноги и сложные движения — хуже.
То есть это пока не замена камеры, а технология, которая может стать альтернативой в сценариях, где камера нежелательна.
💡 Почему важен open-source
После статьи появились open-source реализации, например ruvnet/wifi-densepose.
Это пакет кода и инструкций, который можно потрогать руками (вот еще, кстати).
То есть разработчик может:
- - собрать/подключить железо, которое снимает такие Wi-Fi-измерения,
- - прогнать обработку данных,
- - посмотреть, что получается,
- - и начать делать свои прототипы.
Open-source здесь как мост от научной работы до возможности попробовать в реальном сценарии.
🚀 Где это может быть полезно
- — детекция падений: не "в комнате было движение", а "человек резко упал и дальше неподвижен" (важно для ухода за пожилыми)
- — gesture-интерфейсы: помахал рукой / показал жест → система поняла команду (без камер, например в офисных/промышленных зонах)
- — умный дом, но без датчиков: свет включается не потому что что-то шевельнулось, а потому что "человек сел на диван / встал и пошел / лег спать"
⚖️ Где тут риск и почему об этом вообще говорят
Проблема не в том, что за вами уже следят.
Проблема в другом: такое "слежение" легко сделать незаметным для пользователя.
С камерой все очевидно: она стоит, ее видно, ее можно закрыть.
С Wi-Fi-сенсингом так не будет: это может выглядеть как "просто роутер/коробочка".
Поэтому вопросы вполне практичные:
- - кто включил эту функцию и где это отражено?
- - есть ли согласие пользователя?
- - где хранятся данные и что именно хранится?
- - можно ли отключить/проверить?
Вообще, мне здесь нравится вот что.
1. Новый компромисс между удобством и приватностью.
Камера дает максимум данных, но вызывает максимум сопротивления.
Wi-Fi-сенсинг может дать достаточно для сценария без видео.
2. Во многих сценариях важен не человек, а событие
Системе не обязательно знать, кто именно в комнате.
Ей важно понять, что произошло: человек упал/ долго не двигается / в помещении кто-то есть / человек лег спать
3. Open-source меняет масштаб
Пока это исследование — оно живет в лаборатории.
Когда появляется открытый код, его начинают использовать в самых разных контекстах — не только там, где это изначально планировалось.
И это означает вот что: технология может быстро оказаться в продакшене, то есть в продуктах, устройствах и сервисах.
Поэтому смотреть нужно не только на "работает / не работает",
а на то, где она реально окажется через несколько итераций внедрения.
Короче.
Это не история про слежку, а история про новые инструменты.
И как всегда, инструмент сам по себе нейтрален — все решает дизайн его применения.
#yalav #лаврикпропродукт


Дискуссия