8 maggio 2021
Aggiornato 14:30
attraverso la fotocamera dello smartphone

Cos'è Google Lens, il robot che ci dirà cosa stiamo guardando

Google Lens è un algoritmo che potenzierà le fotocamere degli smartphone in modo tale da far “capire” al sensore cosa stiamo vedendo e agire di conseguenza per darci una mano a prendere una decisione

ROMA - Il futuro di Google è segnato e non solo quello di Google: l’evoluzione dei dispositivi e dei prodotti va sempre più verso l’intelligenza artificiale. Dopo aver superato i 2 miliardi di dispositivi Android mensili attivi, ora la sfida è il passaggio dal mobile all’intelligenza artificiale. Una sfida importante che sta coinvolgendo tutti i colossi tecnologici di mezzo mondo. L’obiettivo è reinventare i prodotti, adattandoli a un mondo che consente di interagire con la tecnologia in maniera più naturale e continuativa. Per questo è anche stato creato Google Lens, insieme allo sviluppo di molti altri progetti e prodotti.

Lens, informazioni dalla fotocamera
«Se usiamo il motore di ricerca, ad esempio, funziona diversamente grazie all'auto-apprendimento della macchina. Oppure, prendete Google Map, Street View riconosce automaticamente le insegne dei ristoranti o i cartelli stradali grazie allo stesso processo di auto-apprendimento», ha detto il CEO di Google Sundar Pichai. Tra i nuovi prodotti pensati per sfruttare al massimo il machine learning c’è sicuramente Google Lens. E’ la nuova app di ricerca per immagini che verrà integrata in Assistant e Google Foto. Grazie alla combinazione tra l'esperienza di Realtà Aumentata e la potenza offerta dallo sviluppo delle AI, Google Lens permetterà di sfruttare la fotocamera dello smartphone per scoprire maggiori dettagli sul mondo che ci circonda, effettuare ricerche e svolgere azioni smart. «Non parlo giapponese - ha spiegato Scott Huffman, vice-president del dipartimento ingegneria di Google - non potevo leggere il cartello all'ingresso del ristorante. Ma Google Translate conosce oltre un centinaio di lingue e il mio assistente può aiutarmi con una traduzione visiva. Basta cliccare sull'icona Google Lens, puntare la fotocamera verso il cartello e il mio assistente tradurrà tutto».

User Experience facilitata
Nello specifico si tratta di un algoritmo che potenzierà le fotocamere degli smartphone in modo tale da far «capire» al sensore cosa stiamo vedendo e agire di conseguenza per darci una mano a prendere una decisione. In questo modo la fotocamera non sarà usata semplicemente per scattare fotografie da postare sui social, ma sarà in grado di darci più informazioni sull’oggetto su cui abbiamo puntato la lente. Ad esempio, se fotografiamo un fiore, Lens sarà in grado di riconoscere che è un fiore e a che specie appartiene, senza che dobbiamo muovere un dito. «E per utilizzare queste nuove funzionalità, non c’è bisogno di imparare nulla di nuovo. L’interfaccia e l’esperienza utente possono essere molto più intuitive rispetto, ad esempio, al copiare e incollare da un’app all’altra dello smartphone. La prima cosa che faremo sarà introdurre le funzionalità di Google Lens all’interno dell’Assistente e di Google Foto, per poi estenderlo anche agli altri prodotti», afferma Pichai.