Aggiornamento del 27 febbraio 2019
Un recente brevetto depositato da Cupertino rivela che Apple è interessata al lancio di un paio di occhiali a realtà aumentata che potrebbero essere lanciati già entro il 2020 o al massimo il 2021. Nel documento intitolato “metodo per rappresentare i punti di interesse in una rappresentazione dell’ambiente reale su dispositivo mobile” non viene menzionato in modo esplicito iGlasses, ma in compenso si parla di “display montati sulla testa.”
Questa soluzione consentirà di sovrapporre al flusso visivo punti d’interesse e oggetti virtuali che seguiranno la vista, come se facessero parte del mondo reale.
[img src=”https://media.melablog.it/8/839/iglasses-realta-virtuale-apple-brevetto-apple.jpg” alt=”” align=”center” size=”large” id=”218605″]
Le immagini mostrano un vecchio iPhone col pulsante Home e dei visori che sembrano occhiali da sci, ma si tratta solo di schizzi per fissare il concetto; il prodotto finale, ammesso che sia mai lanciato, non avrà sicuramente questa forma. Allo stato attuale, in effetti, non sappiamo neppure se Apple sia interessata a aggeggi leggeri in stile Google Glasses oppure a qualcosa di più robusto tipo HoloLens.
Di certo, l’interesse c’è ed è concreto, ed ecco perché non si arrestano le assunzioni degli specialisti (leggi sotto); tutto procede speditamente, in altre parole, e la Realtà Aumentata Apple potrebbe arrivare già entro un paio d’anni con il nuovo sistema operativo rOS. Voi siete pronti?
iGlasses: continuano le assunzioni per la Realtà Virtuale di Apple
[img src=”https://media.melablog.it/1/1e0/apple-iglasses.jpg” alt=”” align=”center” size=”large” id=”208770″]
Non solo ingegneri ed esperti delle più esotiche branche dell’informatica; al Campus di Cupertino molto presto ci sarà pure un neuroscienziato con una formazione specifica in percezione sensoriale, il che implica che sarà probabilmente assegnato al progetto degli occhiali Apple a Realtà Aumentata. Lo abbiamo scoperto grazie ad un annuncio di lavoro pubblicato nei giorni scorsi, rivolto a professionisti con “almeno 5 o 10 anni di esperimenti di design per investigare le correlazioni neurali della percezione, dell’azione e della cognizione.”
Il candidato ideale possiede una profonda conoscenza dei meccanismi della percezione sensoriale (vista, udito ma anche propriocezione, e così via) e ha condotto ampie ricerche su tutti o almeno uno dei seguenti campi: integrazione multisensoriale e sensomotoria, percezione profonda, processo decisionale, codifica e decodifica neurale.
Ovviamente, non conosciamo nel dettaglio quali progetti specifici verranno affidati alla persona scelta; “Si richiede la disponibilità a investigare su diversi campi, il che implica versatilità su un gran numero di compiti in un ambiente altamente collaborativo. Il lavoro richiede di lavorare gomito a gomito con scienziati e ingegneri per progettare rapidamente esperimenti che consentano di scoprire intuizioni che portino allo sviluppo tecnologico.”
È evidente che qui si richieda un approccio interdisciplinare, e forse neppure Tim Cook in persona conosce fino in fondo le implicazioni di questa spinta. Ma una cosa appare chiara: nell’equazione c’entrano qualcosa Siri e le reti neurali, gli occhiali a Realtà Aumentata a cui Apple lavora da anni, la recente acquisizione di Akonia e l’evoluzione di ARKit 2.0 in iOS 12. In fondo, gli utenti non interagiscono con iPhone e iPad coi sensi, ma principalmente con la percezione dei sensi nel loro cervello: è lì che avviene tutta la magia, ed è lì che passa il futuro dell’informatica.