Digitale telekinese.
Een paar gedachten: (1) Hoe zou je dit implementeren? Het is eenvoudig als de apparaten vooraf zijn geconfigureerd om met elkaar te communiceren, zoals bij een opstelling met meerdere monitoren. Dan is het gewoon een gebarenherkenning via camera's, bovenop een kopiëren/plakken en een Airdrop. (2) Bovendien zouden de apparaten vooraf geconfigureerd moeten zijn om op *een* manier met elkaar te communiceren, want tenzij ze beide zijn ingelogd op hetzelfde account, zou je willekeurige dingen in de computer van iemand anders kunnen kopiëren/plakken door gewoon naar het scherm te wijzen. (3) Zolang beide apparaten zijn ingelogd op hetzelfde online account, hoeven alle apparaten die aan dat account zijn verbonden alleen maar hun omgeving via de camera te scannen, totdat ze het kopieer- en vervolgens het plakgebaar vastleggen. Je zou moeten werken aan de randgevallen als drie of meer ingelogde apparaten met camera's naar de gebruiker wijzen, omdat het plak- (of kopieer) gebaar op meer dan één apparaat gedetecteerd kan worden. (4) Dan: Gebaren-gebaseerde interactie voor computers is echt cool, maar mensen krijgen een gorilla-arm als ze het doen, dus het is slechts een relatief niche ding, nuttig in videogames en VR. (5) Echter, met de opkomst van fysieke AI, lijkt het me dat je niet alleen met je robotgenoten zou moeten kunnen praten, maar ook naar hen zou moeten kunnen wijzen, en zij zullen dingen doen. Bijvoorbeeld: wijs en je robot hond haalt een stok.
82,71K