Facebook te va pune să îți faci un video selfie dacă va considera contul tău suspect

În primele trei trimestre ale anului, Facebook a dat jos 5,4 miliarde de conturi false cele mai multe dintre ele, imediat sau la puțin timp după ce au fost create. Un cont fals poate fi folosit pentru a trimite mesaje nedorite utilizatorilor sau pentru a comite fraude. „Înainte, una din 100 de încercări de a crea un cont fals era reușită. Acum, după ce ne-am crescut eficiența, este una din 1.000. Ideea este să facem atât de greu să creezi conturi false încât să devină nerentabil”, spune Bochra Gharbaoui, Data Science Manager la Facebook. Un IP de pe care a fost încercată crearea de conturi false ridică automat semne de întrebare, la fel și o platformă de mail cu reputație proastă.

Însă Facebook a găsit acum un nou instrument pentru a verifica autenticitatea unui cont suspect: introducerea unei verificări video prin care deținătorul să demonstreze că este o persoană reală, și nu un robot. În timpul acesteia, utilizatorului i se cere să se înregistreze îndeplinind anumite cerințe, precum să miște capul de la stânga la dreapta. Pentru a nu se folosi de un video predefinit, mișcările trebuie făcute conform instrucțiunilor.

Reprezentanții Facebook au organizat, la sediul din Londra, o întâlnire cu jurnaliști din Europa, în care au vorbit despre felul în care abordează probleme precum bullying-ul, hărțuirea sau propaganda teroristă. Printre teme – standardele comunității, postările eliminate de pe rețeaua de socializare, dar și modalitatea prin care o persoană căreia i-a fost înlăturată postarea poate face apel și poate cere Facebook revenirea asupra deciziei. În ultimul trimestru din 2019, de exemplu, Facebook a eliminat 7 milioane de postări pentru hate speech. În 1,4 milioane de situații, decizia a fost contestată. În final, 169.000 de contestații au fost acceptate, iar 172.000 de postări au fost repuse pe rețeaua de socializare.

Diferența dintre 169.000 și 172.000 vine din faptul că, atunci când un conținut este repus în drepturi, el este repus peste tot, chiar dacă unele dintre persoanele care l-au distribuit nu au făcut contestație la Facebook. În cazul postărilor raportate, reprezentanții Facebook susțin că au o procedură de eliminare a reclamațiilor dublate și, indiferent dacă este raportat o dată sau de 100 de ori, conținutul este analizat o singură dată.

Tot în al treilea trimestru din 2019, Facebook a înlăturat 30,3 milioane de postări care prezentau nuditate adultă și conținut sexual, 25,2 milioane de postări cu conținut violent, 11,6 milioane de postări referitoare care intrau în categoria nuditate infantilă – exploatarea sexuală a copiilor, 5,2 milioane de postări cu propagandă teroristă, 4,4 milioane de postări despre consumul de droguri și 3,2 milioane de postări care se încadrau în categoria bullying și hărțuire.

15.000 de revizori gestionează situația postărilor raportate și a celor eliminate

La nivel global, Facebook are 15.000 de revizori, specializați pe diferite limbi și culturi, care analizează atât postările raportate, cât și contestațiile făcute de utilizatori în urma eliminării unui anumit tip de conținut de pe rețeaua de socializare. Aceștia au de gestionat situațiile problematice dintr-o rețea de nu mai puțin de 2,4 miliarde de conturi active. Așa că, atunci când vine vorba despre respectarea standardelor comunității, primul gardian al rețelei de socializare este inteligența artificială, pe care Facebook spune că o antrenează continuu pentru a depista situațiile ilegale sau abuzive și pentru a le elimina de pe rețeaua de socializare.

Gigantul tehnologic își definește atitudinea drept „proactivă”, iar multe dintre postările cu conținut ofensator sau ilegal sunt depistate înainte de a fi raportate de utilizatori. 93,8% dintre postările care violează politica privind armele de foc, 98,5% dintre postările care fac propagandă teroristă și 99,8% dintre cazurile de spam sunt identificate și date jos înainte de a fi raportate de cineva, spune directorul de produs Simon Cross. Iar rata de detectare „proactivă” a crescut în timp.

De le cuvinte-cheie la recunoașterea de contexte

Simon Cross a vorbit despre evoluția procesului de învățare automată a mașinilor folosite de Facebook pentru a tria conținutul: în urmă cu 5 ani, roboții folosiți pentru a identifica postările referitoare la traficul de droguri căutau o serie de cuvinte-cheie, precum marijuana sau iarbă. Ulterior, au devebit capabili să facă diferența, în milisecunde, între o fotografie cu marijuana și una cu broccoli. Mai nou, pot înțelege contexte și extrage sens dintr-o alăturare de imagini care nu au, în aparență, legătură între ele. „Iar acest trend nu încetinește. Noi și alte companii investim în cercetare fundamentală în domeniul inteligenței artificiale. Avem o echipă în interiorul Facebook și luăm aceste progrese și le folosim în cadrul echipei noastre de integritate”, susține Cross.

„Pe măsură ce noi ne perfecționăm, și teroriștii își perfecționează metodele”

Nicola Bortignon, Engineering Manager în echipa de integritate, afirmă că sistemele Facebook de astăzi pot identifica în mod corect imagini, chiar dacă ele au fost decupate, întoarse sau reîncadrate și că rețeaua de socializare folosește această tehnologie pentru a elimina postările care fac propaganda teroristă. Imaginile sunt comparate, în fracțiuni de secundă, cu cele din băncile Facebook.

Mai mult decât atât, sistemele folosite pot să detecteze mișcarea, pe baza informațiilor despre schimbarea posturii corpului. „Pe măsură ce noi ne perfecționăm, și teroriștii își perfecționează metodele. Scopul nostru declarat este să avem zero propagandă teroristă pe platformă. Machine learning (n.r. învățarea automată) este despre multă matematică și multe reglaje fine”, spune Bortignon.

În luna martie a acestui an, unul dintre atacatorii teroriști din Christchurch a transmis live pe Facebook ororile. Avertizați de poliția din Noua Zeelenadă, cei de la Facebook au dat jos filmul, însă acesta a continuat ulterior să se răspândească pe rețeaua de socializare. „Ce a fost dificil a fost că oamenii au filmat televizoarele pe care rula filmul, peste care se auzea vocea crainicului și era greu ca sistemul să își dea seama că sunt aceleași imagini. Au făcut-o cu bune intenții, pentru a avertiza, dar consecința a fost că au perpetuat mesajul”, spune acesta.

Una dintre provocările pe care le are de abordat echipa care se ocupă integritate este lipsa unui număr suficient de mare de imagini pentru a antrena inteligența artificială să identifice și să dea jos filmările live ale atacurilor teroriste. În luna noiembrie, Facebook a făcut un parteneriat cu poliția britanică, dar și cu autoritățile americane pentru a folosi imagini de la antrenamentele trupelor antitero.

Există situații în care inteligența artificială nu este atât de eficientă în a detecta situațiile care violează standardele comunității facebook. În cazurile de hate speech, procentul este de 80%, iar în situațiile de bullying și hărțuire de 16%. „Hate speech-ul este dependent de context, de cultură și de regiune și asta face problema mult, mult mai complexă”, afirmă Cross. Pentru gestionarea bullying-ului și a situațiilor de hărțuire, Facebook se bazează într-o măsură mai mare pe raportare și pe instrumente care să facă victima mai puțin vulnerabilă. Pe Instagram, de pildă, utilizatorii au posibilitatea de a restricționa o anumită persoană – adică de a filtra comentariile venite de la aceasta, fără a o elimina din listă. Totodată, inteligența artificială poate detecta un comentariu abuziv în momentul în care acesta este scris și îi poate transmite autorului său un mesaj în timp real: „Ești sigur că dorești să postezi acest comentariu?”, spun reprezentanții Facebook.

Când arta devine nuditate nepermisă

O altă problemă este legată de felul în care sistemele de clasificare ale Facebook încadrează de multe ori opere de artă postate pe rețeaua de socializare în categoria nuditate nepermisă. În urmă cu un an, imaginea unei statuete preistorice vechi de 30.000 de ani, Venus din Willendorf, era considerată pornografică și ștearsă de pe Facebook. După protestelor utilizatorilor, fotografia a fost repostată pe rețeaua de socializare. „Nu ne dorim să eliminăm operele de artă de pe Facebook. Tocmai de aceea oamenii au posibilitatea să facă apel și să ne sesizeze astfel de situații”, spun reprezentanții Facebook. În 2016, un caz care a făcut înconjurul lumii a fost eliminarea de către Facebook a unei fotografii iconice din războiul din Vietnam: fetița care fugea dezbrăcată după un atac cu napalm. După ce opinia publică s-a scandalizat, Facebook a repus fotografia pe rețeaua de socializare, recunoscându-i valoarea istorică.

Cercetarea în domeniul inteligenței artificiale avansează pe zi ce trece. Capacitățile se detecție cresc, în timp ce bazele de imagini și de date devin din ce în ce mai cuprinzătoare. Însă astfel de situații ne amintesc ca memoria colectivă a umanității își are începutul și sfârșitul dincolo de un spațiu de stocare. – Sursa: Republica

Distribuie acest articol! Îți mulțumim!

loading...

Lasa un comentariu