Zach Lieberman a avut o idee foarte faină și a reușit să se folosească de AR pentru a crea o aplicație de iPhone care să îl ajute să ”vadă” sunetele plutind în aer. Toate sunetele care sunt înregistrate de microfonul telefonului său par să călătorească prin spațiu, desfășurându-se în fața ochilor noștri.
Cu ajutorul ARKit de la Apple și OpenFrameworks, Lieberman ce conduce și School For Poetic Computation a făcut o aplicație care pe baza SLAM—simultaneous localization and mapping— preia informații de pe senzorii iPhone-ului și creează o hartă a mediului înconjurător.
Ce a ieșit este o aplicație ce prezintă în mod exact locul în care apar sunetele și cum călătoresc ele prin aer. Și mai fain este că mutând telefonul pe locul în care au apărut sunetele, ele pot să fie redată în timp real, normal sau în mod invers.
În mod cert nu e cea mai bună reprezentare a ceea ce se poate face, dar e un experiment plăcut prin care putem vedea altfel mediul înconjurător.
E o modalitate faină să ne mai destindem, nu credeți?