FACEBOOK. Mark Zuckerberg, CEO-ul Meta (fostul Facebook), a recunoscut la podcastul găzduit de Joe Rogan – The Experience că algoritmul rețelei sociale a făcut greșeli iar rolul Facebook în moderarea conținutului a fost ”o problemă controversată”.
În timpul conversației, au discutat o serie de subiecte, inclusiv rețelele sociale, rolul tehnologiei în societate și opiniile lui Zuckerberg despre confidențialitate, libertatea de exprimare și viitorul realității virtuale.
În timpul interviului său cu Joe Rogan, Mark Zuckerberg a recunoscut că amploarea platformei prezintă provocări semnificative atunci când vine vorba de asigurarea atât a siguranței, cât și a libertății de exprimare.
Zuckerberg a explicat că Facebook adoptă o abordare proactivă a moderării conținutului, având ca scop prevenirea conținutului dăunător, cum ar fi discursul instigator la ură, dezinformarea și incitarea la violență. Totuși, el a subliniat că platforma trebuie să echilibreze acest lucru și cu nevoia de exprimare liberă, care este esențială pentru misiunea sa.
Unul dintre punctele cheie pe care le-a spus Zuckerberg a fost că Facebook folosește o combinație de sisteme automate și moderatori umani pentru a identifica și elimina conținutul care încalcă politicile sale.
El a recunoscut că abordarea algoritmică nu este perfectă și că există încă greșeli, dar scopul este de a face din platformă un spațiu în care oamenii pot avea conversații semnificative, minimizând în același timp răul.
În plus, Zuckerberg a răspuns criticilor legate de gestionarea de către Facebook a conținutului controversat și a cenzurii, argumentând că deciziile sunt adesea dificile și implică compromisuri complexe, mai exact de provocările de ”a trasa granița dintre afirmațiile false dăunătoare și conținutul care este pur și simplu controversat sau inexact, dar nu rău intenționat”.
El a subliniat că politicile Facebook sunt transparente și că compania lucrează pentru a-și îmbunătăți procesele de moderare, în special în lumina imensei baze globale de utilizatori a platformei.
