A livello globale almeno 2,2 miliardi di persone hanno problemi alla vista o cecità, secondo un rapporto dell’Organizzazione Mondiale della Sanità dello scorso anno. Entro il 2050, il numero potrebbe salire a causa del diabete e altre malattie croniche e del rapido invecchiamento della popolazione. Per chi non ci vede bene, o non ci vede affatto, sapere dove sono le altre persone e a che distanza si trovano è fondamentale per potersi muovere in autonomia ma anche, in tempi di pandemia, per  tenere un distanziamento corretto e ridurre la possibilità di essere contagiati.

Un aiuto arriva da Apple, che ha dotato iPhone 12 Pro e 12 Pro Max di questa funzione. Si chiama People Detection ed è disponibile anche su iPad Pro 2020, con iOS 14.2. People Detection può rilevare la distanza di chiunque entri nel raggio dell’obiettivo grandangolare dell’iPhone , fino a 5 metri; se ci sono più persone indicherà la distanza da quella più vicina. La funzione utilizza l’ARKit di Apple, e in particolare  la “people occlusion”, che rileva le forme delle persone e lascia passare oggetti virtuali davanti e dietro di loro. Tutto grazie al sensore di profondità LiDAR, utilizzato ad esempio in app di  realtà aumentata o nelle auto a guida autonoma.

Ma facciamo alcuni esempi: una persona non vedente o ipovedente che fa la spesa potrà attivare People Detection per sapere quando deve spostarsi in coda alla cassa. Oppure camminando su un marciapiede riceverà un avviso su quanto sono vicine le altre persone al loro passaggio. Si può usare questa funzione per capire se un posto a sedere è libero a un tavolo o sui mezzi pubblici, e mantenere la giusta distanza sociale passando attraverso i controlli sanitari o gli screening di sicurezza in aeroporto.

Sempre su iPhone, molto utile potrebbe essere anche Magnifier, la Lente d’Ingrandimento, che  può aiutare a vedere meglio ciò che si ha davanti. Basta abilitare VoiceOver.  La funzione è attiva in modo dinamico e le descrizioni cambiano man mano che immagini o elementi diversi si muovono nel campo visivo e vengono riconosciuti. Vengono descritti persone, oggetti e altri elementi dell’ambiente esterno così come appaiono nel mirino della Lente d’ingrandimento.

Ecco anche un altro progetto che mira ad aiutare l’autonomia delle persone ipovedenti o non vedenti che amano correre all’aperto. Il programma di ricerca, ancora in fase iniziale, lo sta testando Google grazie all’intelligenza artificiale. A guidare l’utente sarà l’app Project Guideline. Il runner deve collegare un telefono Android a delle cuffie e ad una cintura che gira intorno alla vita progettata da Google stesso. L’app poi utilizza la fotocamera del telefono per tenere traccia del percorso ed invia segnali audio alle cuffie a conduzione ossea (vibrano in una parte vicino all’orecchio) così che, quando un corridore si allontana dal percorso stabilito, il suono diventerà più forte. L’app non necessita di una connessione Internet e può tenere conto di una serie di condizioni meteorologiche e di illuminazione.

Google ha sviluppato il sistema con l’aiuto di Thomas Panek, presidente e Ceo di Guiding Eyes for the Blind e appassionato runner. Siamo felici che il colosso tecnologico sviluppi dei sistemi che vanno in aiuto ad alcune disabilità.

Fonte: www.lastampa.it
www.lastampa.it – Bruno Ruffilli

Pin It on Pinterest