Cred că merită să auziți ce are de spus Mark Russinovich, Chief Technology Officer and Technical Fellow for Microsoft Azure, despre securitatea modelelor AI. E o prezentare pe care a avut-o zilele trecute la conferința BUILD 2024 și se adresează unei audiențe largi și nu trebuie să fiți neapărat maestru în domeniu ca să înțelegeți despre ce e vorba.
Prezentarea este de 45 de minute și aduce în prim plan un overview al pericolelor ce sunt asociate în acest moment cu crearea și folosirea modelelor AI, precum și câteva dintre instrumentele pe care Microsoft le introduce pentru a le proteja.
E interesant să vedeți și cum se pot ˝sparge˝ anumite soluții AI, dar mai ales ce se poate face pentru a preveni asta. Dacă la nivel declarativ lucrurile par că stau bine, mi se pare că zona unde sunt cele mai mari pericole – adică în momentul construirii modelului, nu are o soluție clară de protecție.
Citisem mai de mult despre atacul crescendo în mai multe soluții AI, acum am avut ocazia să îl văd și în acțiune. Dar cel mai mult mi-a plăcut ideea de ˝cheie universală˝ care putea să desfacă mai toate limitările, că acum se pare că sunt introduse mecanisme de protecție. Și mai sunt și alte lucruri interesante pe care vă las să le descoperiți.
Prezentarea lui Mark e online (cel puțin acum, când scriu acest articol) pe site-ul build.microsoft.com. O puteți urmări aici.