Digital telekinese.
Noen tanker: (1) Hvordan vil du gjennomføre dette? Det er enkelt hvis enhetene er forhåndskonfigurert til å snakke med hverandre, som et oppsett med flere skjermer. Da er det bare en bevegelsesgjenkjenning via kameraer, på toppen av en kopier/lim inn og en Airdrop. (2) Derfor, enhetene måtte være forhåndskonfigurert til å snakke med hverandre på *en eller annen måte, som med mindre de begge var logget på samme konto, kunne du kopiere/lime inn tilfeldige ting på andres datamaskin bare ved å peke på skjermen. (3) Så lenge begge enhetene er logget på samme nettkonto, trenger alle enheter som er koblet til den kontoen bare å avstemme omgivelsene via kamera, til de fanger kopien og deretter limbevegelsen. Du må jobbe med kantdekselet hvis tre eller flere påloggede enheter med kameraer peker mot brukeren ettersom innlimingsbevegelsen (eller kopieringsbevegelsen) kan oppdages på mer enn én enhet. (4) Så: Gestbasert interaksjon for datamaskiner er veldig kult, men folk får gorillaarm ved å gjøre det, så det har bare vært en relativt nisjegreie, nyttig i videospill og VR. (5) Men med fremveksten av fysisk AI, slår det meg at du ikke bare bør kunne snakke med robotkameratene dine, men gestikulere til dem, og de vil gjøre ting. For eksempel: pek og robothunden din henter en pinne.
82,7K