Цифровая телекинез.
Несколько мыслей: (1) Как бы вы это реализовали? Это легко, если устройства предварительно настроены для общения друг с другом, как в случае с несколькими мониторами. Тогда это просто распознавание жестов с помощью камер, поверх копирования/вставки и Airdrop. (2) Более того, устройства должны быть предварительно настроены для общения друг с другом в *некотором* смысле, так как если они оба не вошли в одну и ту же учетную запись, вы могли бы копировать/вставлять случайные вещи на чужой компьютер, просто указывая на экран. (3) Пока оба устройства вошли в одну и ту же онлайн-учетную запись, все устройства, подключенные к этой учетной записи, просто должны опрашивать свое окружение с помощью камеры, пока не зафиксируют жест копирования, а затем жест вставки. Вам придется поработать над крайним случаем, если три или более вошедших в систему устройства с камерами указывают на пользователя, так как жест вставки (или копирования) может быть зафиксирован на более чем одном устройстве. (4) Итак: взаимодействие на основе жестов для компьютеров действительно круто, но у людей возникает "рука гориллы" при этом, поэтому это было относительно нишевым, полезным в видеоиграх и VR. (5) Однако с ростом физического ИИ мне кажется, что вы должны иметь возможность не только говорить со своими роботами-компаньонами, но и указывать им жестами, и они будут что-то делать. Например: укажите, и ваша робот-собака принесет палку.
82,71K