Și asta ar putea fi un mare impuls dat știrilor false de pe internet: cu o coloană sonoră ”construită” corespunzător (e relativ simplu să se colecteze un număr mare de înregistrări audio, din care apoi să fie extrase elemente și puse într-un context cu totul diferit), algoritmul despre care vorbim e capabil să genereze mișcarea buzelor în concordanță cu vorbele din materialul audio. Isprava, dacă putem să îi spunem așa, aparține unui grup de cercetători de la University of Washington și este chiar foarte real.
Uitați mai jos un material în care figura fostului președinte al SUA, Barack Obama, e folosită pentru demonstrație:
E interesant pentru că la o privire neatentă poți fi foarte ușor indus în eroare de acest clip. Privit mai în detaliu se poate vedea că mișcarea capului și a buzelor nu e completă.
Doar că vorbim de un demo al unui proiect incipient. El este dezvoltat ca să permită adăugarea de fețe în acele situații când chiar e nevoie – să zicem niște apeluri în conferință în care unul (sau mai mulți participanți) nu poate ajunge în fața unui webcam, fiind conectat doar prin telefon.
Sau poate să fie punctul de pornire al unui proiect mai amplu în care diverse figuri istorice să fie animate și să ne vorbească despre diferite evenimente importante.
Aș adăuga aici și o opțiune mult mai apropiată de o utilitate imediată: posibilitatea mai simplă de animare a personajelor din jocurile video, filme sau emisiuni TV. Doar că de aici la crearea de știri false și posibilitatea de dezinformare masivă e doar un mic pas.
Totuși, ca să se poată ajunge la rezultatul prezentat mai sus a fost nevoie de antrenarea algoritmului cu imagini reale în care președintele vorbea. Și abia apoi a fost posibilă crearea unui model virtual în care mișcările buzelor, a capului, ochii plus diversele stadii intermediare ale vorbirii să fie reflectate cât mai fidel.
O explicație mai detaliată aveți mai jos:
Nu este însă primul proiect de acest gen, startul fiind dat de Face2Face.
De ce e important să vorbim despre așa ceva? Pentru că este un avans tehnologic major și ca orice avans în tehnologie, poate să fie folosit și în scopuri bune și în cele rele.
Pentru că vedem cât de simplu este să se creeze un material video fals, care apoi dat pe canalele social media către o audiență mai puțin antrenată să detecteze elementele false, poate avea un efect devastator în zona politică și economică.
Dacă vreți mai multe detalii despre proiect, le puteți consulta în acest PDF.
Oricum, dați mai departe și arătați-le și altora ce se poate face acum, cu tehnologia actuală. În contextul politic românesc informația asta ar putea fi extrem de importantă.