Apakah Anda pernah mengalami postingan dihapus Facebook karena dianggap melanggar standar komunitas? Anda lantas merasa jengkel karena postingan Anda sebenarnya tidak bermasalah. Lalu bagaimana Facebook bekerja memfilter setiap post penggunanya?
Pada 2018, Facebook menerbitkan aturan dan pedoman rahasianya untuk memutuskan apa yang dapat diposting oleh 2,2 miliar penggunanya di jejaring sosial, termasuk ujaran kebencian, pornografi, bahkan kanibalisme. Ini juga memperkenalkan proses banding bagi pengguna Facebook yang merasa yakin postingan mereka tidak bermasalah.
Eksekutif Facebook mengatakan bahwa mereka ingin pengguna memahami bagaimana kebijakan perusahaan diterapkan pada postingan Facebook mereka. Perusahaan juga mencari umpan balik dari pengguna Facebook tentang kebijakan tersebut.
Bagaimana itu bekerja?
Jika foto, video, atau kiriman Anda dihapus karena melanggar aturan Facebook, Anda akan diberi opsi untuk “Minta Peninjauan”. Pengajuan banding akan dilakukan oleh tim “operasi komunitas” dalam waktu 24 jam. Jika Facebook menentukan telah melakukan kesalahan menghapus konten, itu akan dipulihkan.
Facebook telah lama mendapat kritik hingga kecaman karena platformnya menjadi sarana terbesar penyebaran hoax, kebencian, propaganda, dan hal lainnya yang dianggap melanggar standar komunitas. Untuk itulah pihak perusahaan bekerja keras meminimalisir setiap pelanggaran.
Namun hingga saat ini, Facebook belum secara terbuka mengungkapkan secara spesifik kepada penggunanya apa saja konten yang dianggap melanggar. Meningkatnya rasa frustrasi karena kebijakan – yang disebut standar komunitas – tidak jelas dan tidak konsisten penerapannya memaksa Facebook untuk terbuka tentang bagaimana keputusan ini dibuat.
Facebook menentukan pelanggaran berdasarkan algoritma mesin, bukan manusia. Artinya, kesalahan mendeteksi tidak mungkin bisa dihindari. Perusahaan berdalih bahwa tim kebijakan konten global di Facebook bekerja untuk melindungi pengguna dari bahaya, entah jenis bahayanya tidak dijelaskan secara rinci.
Berikut penjelasan Facebook tentang penegakan standar komunitas:
Tim kami secara rutin meminta masukan dari para pakar dan organisasi di luar Facebook sehingga kami dapat memahami perspektif yang berbeda dengan lebih baik serta dampak standar kami pada berbagai komunitas secara global.
Dalam perkembangan standar Facebook, mereka menerapkan algoritma pelanggaran berdasarkan norma sosial dan bahasa. Seperti yang sudah dijelaskan di atas, algoritma mesin menggunakan sistem metrik yang belum sempurna.

Perubahan terhadap standar, proses, dan metodologi dapat menyebabkan perhitungan metrik dan hasil metrik dalam pelaporan Facebook juga berubah. Perusahaan menggunakan kombinasi teknologi, tinjauan oleh tim, dan laporan dari komunitas untuk mengidentifikasi konten yang mungkin melanggar standar Facebook.
Kami menggunakan kombinasi teknologi, tinjauan oleh tim kami, dan laporan dari komunitas kami untuk mengidentifikasi konten yang mungkin melanggar standar kami. Meskipun tidak selalu sempurna, kombinasi ini membantu kami menemukan dan menandai potensi konten yang melanggar berbagai skala sebelum banyak orang melihat atau melaporkannya. Ini juga membantu kami menampilkan konten yang lebih membutuhkan konteks dan konteks manusia sehingga kami dapat meninjaunya secara akurat dan dengan sensitivitas.
Ketika konten dianggap melanggar dan pengguna melakukan banding, kasus dialihkan kepada tim Operasi Komunitas (manusia), bukan lagi mesin.
Tim Operasi Komunitas termasuk peninjau konten yang meninjau konten dalam lebih dari 50 bahasa, melayani komunitas global kami dengan berbagai situs di seluruh dunia. Kami mengembangkan tim yang berfokus pada keselamatan, keamanan, dan tinjauan konten menjadi 30.000 orang.
Singkatnya, Facebook mengandalkan kecerdasan buatan (AI) untuk menentukan setiap pelanggaran komunitas. Artinya, setiap pelanggaran ditentukan oleh mesin algoritma berdasarkan metrik – yang belum sempurna. Ketika pelanggar melakukan banding, kasus diambil alih oleh manusia (tim Operasi Komunitas).
Sekoci Hoaxes. Filter Ekosistem Informasi!
0 Comments