HomeCloud & MobilityUn mic ghid de detectare a deepfake-urilor

Un mic ghid de detectare a deepfake-urilor

Alături de inițiativa Coalition for Content Provenance and Authenticity (C2PA), am văzut un mic ghid pentru detectarea conținutului deepfake.
Alături de inițiativa Coalition for Content Provenance and Authenticity (C2PA), am văzut un mic ghid pentru detectarea conținutului deepfake.

Pentru că acum (la ei!) totul e centrat pe AI, Microsoft vrea să ne arate că are grijă de oameni în general (că știm că pe angajați vrea să îi înlocuiască cu AI-ul cât mai repede) și a făcut o organizație denumită Coalition for Content Provenance and Authenticity (C2PA) al cărui scop este să pună bazele unor standarde prin care sursa materialelor audio/video/poze ce circulă pe internet să poată fi verificată, iar odată cu asta ne dă și un mic ghid de detectare a deepfake-urilor.

Nu cred că mai e cazul să spun ce e un deepfake: o poză (material video) manipulată cu AI în așa fel încât să dea impresia că este ceva legitim. Dacă până acum imaginile similare generate în Photoshop nu erau așa de periculoase pentru că era destul de greu de făcut la perfecție, odată cu proliferarea instrumentelor AI situația a scăpat de sub control și în contextul în care unii cred orice prostie citită pe Internet, treaba devine periculoasă.

Revenind la ideea inițială: în foarte scurt timp o să fim bombardați de conținut deepfake, fie că e imagine/sunet/poză sau text și va fi din ce în ce mai greu să ne dăm seama dacă e adevărat sau nu. De asta începe să avanseze ideea unor standarde care să certifice că anumite poze/filme au fost capturate cu anumite aparate, ceea ce ar face sura de încredere și imaginile/filmele reale. Să zicem ceva similar cu certificatele digitale asociate site-urilor sau driver-elor din Windows, băgate în conținut sub forma unor informații meta. Pentru asta Microsoft oferă Content Integrity Check și o extensie de browser cu care materialele să fie verificate și pentru început direcția principală este protejarea proceselor democratice (în special alegerile) de manipulare prin deepfake.

Sună bine ceea ce vrea să facă Microsoft, doar că atâta vreme cât există specialiști în orice și băieți precum Elon Musk care și-au luat platforme prin care să răspândească mizerii fake sub pretextul jurnalismului modern, dictat de populație și de bravii cetățeni, treaba asta e departe de a putea fi reparată.

Unele deepfake-uri sunt ușor de identificat, altele mai greu, depinde de experiența și cunoștințele fiecăruia dintre noi. De asta Microsoft ne dă și câteva sfaturi cu care să încercăm măcar să filtrăm informațiile în ideea că am putea detecta conținutul deepfake.

  1. Ar fi bine să vedem de unde provine imaginea/filmul/înregistrarea audio/textul
    E primul pas: să zicem că ar fi bine să punem la îndoială orice vine de la diverși oameni/site-uri, demascați ca fiind sursă de fake-uri. Folosiți opțiunile de căutare din Visual Search ca să aveți o idee despre origine. Fără o sursă clară, fiți siguri că e vorba de un deepfake.
  2. Analizați intenția respectivului material: e informativ sau e instrument de convingere?
    În cel de-al doilea caz, ridicați-vă semne de întrebare și reveniți la pasul 1.
  3. Căutați neconcordanțe în conținut.
    De cele mai multe ori conținutul AI (video/poze) are (încă) probleme în reprezentare. Vorbim despre texte scrise greșit, fețe neclare, detalii lipsă, zone în care obiectele se întretaie, haine care nu se asortează, poziții nefirești, lumina pică aiurea, texturi dubioase pe fundal etc. Dacă imaginile sunt neclare, atunci șansele să fie fake cresc, pentru că maschează elemente din cele enumerate anterior.
  4. Și antrenați-vă să detectați elementele de la pasul 3.
    Există site-uri precum Real or Not unde puteți face exerciții de detecție a imaginilor fake. Cu cât vă antrenați mai mult, cu atâta cresc șansele să nu fiți înșelați – în același timp antrenați și AI-ul să optimizeze crearea de imagini AI care să fie … fix deepfake.

Odată cu proliferarea instrumentelor AI care vin să ne propună să ne transformăm, contribuim și noi direct la fenomenul deepfake. Pentru că Samsung, Google, Microsoft și mai nou Apple ne pun pe telefoane instrumente AI cu care să părem mai deștepți (corector, reformulare de texte, extragere de rezumat) sau mai frumoși (editare/generare de poze cu AI) și ni le vând ca revoluționare.

Urmarea este că ne ‘ajută’ să ne obișnuim cu conținutul fake, chestie ce odată acceptată va fi greu de combătut – după cum zicea cineva: nu mă interesează neapărat dacă ce zice ChatGPT e într-adevăr adevărat sau fals, atâta vreme cât toți cei din jurul meu cred același lucru, informația devine normală.

Gândiți-vă la asta!

via Microsoft

Ionuţ Bălan
Ionuţ Bălanhttps://www.mobzine.ro
Gadget enthusiast. Ruby Developer. Security addict. IT industry analyst. Reviewer & speaker.

LASA UN COMENTARIU

Scrie comantariul
Introdu numele

*

MobileDirect.ro

Comentarii recente

Recomandare

Bigstep