Mengapa Postingan Dihapus Facebook, Padahal Tidak Melanggar?


Facebook

Apakah Anda pernah mengalami postingan dihapus Facebook karena dianggap melanggar standar komunitas? Anda lantas merasa jengkel karena postingan Anda sebenarnya tidak bermasalah. Lalu bagaimana Facebook bekerja memfilter setiap post penggunanya?

Pada 2018, Facebook menerbitkan aturan dan pedoman rahasianya untuk memutuskan apa yang dapat diposting oleh 2,2 miliar penggunanya di jejaring sosial, termasuk ujaran kebencian, pornografi, bahkan kanibalisme. Ini juga memperkenalkan proses banding bagi pengguna Facebook yang merasa yakin postingan mereka tidak bermasalah.

Eksekutif Facebook mengatakan bahwa mereka ingin pengguna memahami bagaimana kebijakan perusahaan diterapkan pada postingan Facebook mereka. Perusahaan juga mencari umpan balik dari pengguna Facebook tentang kebijakan tersebut.

Bagaimana itu bekerja?

Jika foto, video, atau kiriman Anda dihapus karena melanggar aturan Facebook, Anda akan diberi opsi untuk “Minta Peninjauan”. Pengajuan banding akan dilakukan oleh tim “operasi komunitas” dalam waktu 24 jam. Jika Facebook menentukan telah melakukan kesalahan menghapus konten, itu akan dipulihkan.

Facebook telah lama mendapat kritik hingga kecaman karena platformnya menjadi sarana terbesar penyebaran hoax, kebencian, propaganda, dan hal lainnya yang dianggap melanggar standar komunitas. Untuk itulah pihak perusahaan bekerja keras meminimalisir setiap pelanggaran.

Namun hingga saat ini, Facebook belum secara terbuka mengungkapkan secara spesifik kepada penggunanya apa saja konten yang dianggap melanggar. Meningkatnya rasa frustrasi karena kebijakan – yang disebut standar komunitas – tidak jelas dan tidak konsisten penerapannya memaksa Facebook untuk terbuka tentang bagaimana keputusan ini dibuat.

Facebook menentukan pelanggaran berdasarkan algoritma mesin, bukan manusia. Artinya, kesalahan mendeteksi tidak mungkin bisa dihindari. Perusahaan berdalih bahwa tim kebijakan konten global di Facebook bekerja untuk melindungi pengguna dari bahaya, entah jenis bahayanya tidak dijelaskan secara rinci.

Berikut penjelasan Facebook tentang penegakan standar komunitas:

Tim kebijakan konten global di Facebook bertanggung jawab untuk mengembangkan Standar Komunitas kami. Tim ini merekrut orang-orang di wilayah di seluruh dunia, termasuk pakar masalah tentang masalah seperti ujaran kebencian, keamanan anak, dan terorisme.

Tim kami secara rutin meminta masukan dari para pakar dan organisasi di luar Facebook sehingga kami dapat memahami perspektif yang berbeda dengan lebih baik serta dampak standar kami pada berbagai komunitas secara global.

Dalam perkembangan standar Facebook, mereka menerapkan algoritma pelanggaran berdasarkan norma sosial dan bahasa. Seperti yang sudah dijelaskan di atas, algoritma mesin menggunakan sistem metrik yang belum sempurna.

Kesalahan menafsirkan bahasa oleh algoritma Facebook hingga dianggap pelanggaran komunitas. Sumber: Facebook

Metrik kami mungkin tidak sempurna, dan kami masih memiliki banyak pekerjaan yang harus dilakukan untuk meningkatkannya (yang akan kami jelaskan dalam panduan ini), namun kami yakin bahwa metrik tersebut adalah hal terbaik yang kami lakukan. Kami berkomitmen untuk membagikan data ini secara publik setidaknya dua kali dengan benar sehingga orang-orang dapat melihat kinerja kami dalam menegakkan Standar Komunitas kami. Kami ingin membantu komunitas kami memahami keputusan dan tindakan kami serta mendapatkan masukan tentang kinerja kami.

Perubahan terhadap standar, proses, dan metodologi dapat menyebabkan perhitungan metrik dan hasil metrik dalam pelaporan Facebook juga berubah. Perusahaan menggunakan kombinasi teknologi, tinjauan oleh tim, dan laporan dari komunitas untuk mengidentifikasi konten yang mungkin melanggar standar Facebook.

Perubahan terhadap standar, proses, dan metodologi kami dapat menyebabkan perhitungan metrik dan hasil metrik dalam pelaporan Kami juga berubah.

Kami menggunakan kombinasi teknologi, tinjauan oleh tim kami, dan laporan dari komunitas kami untuk mengidentifikasi konten yang mungkin melanggar standar kami. Meskipun tidak selalu sempurna, kombinasi ini membantu kami menemukan dan menandai potensi konten yang melanggar berbagai skala sebelum banyak orang melihat atau melaporkannya. Ini juga membantu kami menampilkan konten yang lebih membutuhkan konteks dan konteks manusia sehingga kami dapat meninjaunya secara akurat dan dengan sensitivitas.

Ketika konten dianggap melanggar dan pengguna melakukan banding, kasus dialihkan kepada tim Operasi Komunitas (manusia), bukan lagi mesin.

Setelah konten yang melanggar dilaporkan, dialihkan ke tim Operasi Komunitas kami, mereka meninjau dan memberikan konteks tambahan untuk menentukan apakah konten melanggar Standar Komunitas kami. Bagian ini menjelaskan cara kami melakukannya dengan lebih rinci.

Tim Operasi Komunitas termasuk peninjau konten yang meninjau konten dalam lebih dari 50 bahasa, melayani komunitas global kami dengan berbagai situs di seluruh dunia. Kami mengembangkan tim yang berfokus pada keselamatan, keamanan, dan tinjauan konten menjadi 30.000 orang.

Singkatnya, Facebook mengandalkan kecerdasan buatan (AI) untuk menentukan setiap pelanggaran komunitas. Artinya, setiap pelanggaran ditentukan oleh mesin algoritma berdasarkan metrik – yang belum sempurna. Ketika pelanggar melakukan banding, kasus diambil alih oleh manusia (tim Operasi Komunitas).

Sekoci Hoaxes. Filter Ekosistem Informasi!


Like it? Share with your friends!

0

What's Your Reaction?

hate hate
0
hate
Angry Angry
0
Angry
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win

0 Comments

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

ARTIKEL MENARIK LAINNYA

Kategori: Facebook

ARTIKEL TERBARU

Mengapa Postingan Dihapus Facebook, Padahal Tidak Melanggar?