Perselisihan Facebook melaporkan bahwa AI-nya tidak dapat mendeteksi ujaran kebencian atau kekerasan secara konsisten

Perselisihan Facebook melaporkan bahwa AI-nya tidak dapat mendeteksi ujaran kebencian atau kekerasan secara konsisten

Wakil presiden integritas Facebook Guy Rosen menulis dalam posting blog hari Minggu bahwa prevalensi ujaran kebencian di platform telah turun 50 persen selama tiga tahun terakhir, dan bahwa “narasi bahwa teknologi  https://www.tipsmonika.net yang kami gunakan untuk memerangi ujaran kebencian tidak memadai dan bahwa kami sengaja salah menggambarkan kemajuan kami” adalah salah.

“Kami tidak ingin melihat kebencian di platform kami, begitu juga pengguna atau pengiklan kami, dan kami transparan tentang pekerjaan kami untuk menghapusnya,” tulis Rosen. “Apa yang ditunjukkan oleh dokumen-dokumen ini adalah bahwa pekerjaan integritas kami adalah perjalanan multi-tahun. Meskipun kami tidak akan pernah sempurna, tim kami terus bekerja untuk mengembangkan sistem kami, mengidentifikasi masalah, dan membangun solusi.”

Posting itu tampaknya sebagai tanggapan atas artikel hari Minggu di Wall Street Journal , yang mengatakan bahwa karyawan Facebook yang ditugaskan untuk menjaga konten ofensif dari platform tidak percaya perusahaan dapat menyaringnya dengan andal.

Laporan WSJ menyatakan bahwa dokumen internal menunjukkan bahwa dua tahun lalu, Facebook mengurangi waktu peninjau manusia berfokus pada keluhan ujaran kebencian, dan membuat penyesuaian lain yang mengurangi jumlah keluhan. Itu pada gilirannya membantu menciptakan kesan bahwa kecerdasan buatan Facebook lebih berhasil dalam menegakkan aturan perusahaan daripada yang sebenarnya, menurut WSJ.

Sebuah tim karyawan Facebook menemukan pada bulan Maret bahwa sistem otomatis perusahaan menghapus posting yang menghasilkan antara 3 dan 5 persen dari pandangan ujaran kebencian di platform sosial, dan kurang dari 1 persen dari semua konten yang melanggar aturannya. kekerasan dan hasutan, WSJ melaporkan.

Namun Rosen berpendapat bahwa berfokus pada penghapusan konten saja adalah “cara yang salah untuk melihat bagaimana kita melawan ujaran kebencian.” Dia mengatakan teknologi untuk menghapus ujaran kebencian hanyalah salah satu metode yang digunakan Facebook untuk melawannya. “Kami harus yakin bahwa ada sesuatu yang merupakan ujaran kebencian sebelum kami menghapusnya,” kata Rosen.

Sebaliknya, katanya, perusahaan percaya bahwa fokus pada prevalensi ujaran kebencian yang benar-benar dilihat orang di platform dan bagaimana menguranginya menggunakan berbagai alat adalah ukuran yang lebih penting. Dia mengklaim bahwa untuk setiap 10.000 tampilan konten di Facebook, ada lima tampilan ujaran kebencian. “Prevalensi memberi tahu kami konten yang melanggar apa yang dilihat orang karena kami melewatkannya,” tulis Rosen. “Begitulah cara kami mengevaluasi kemajuan kami secara objektif, karena memberikan gambaran yang paling lengkap.”

Tetapi dokumen internal yang diperoleh WSJ menunjukkan beberapa konten signifikan yang dapat menghindari deteksi Facebook, termasuk video tabrakan mobil yang menunjukkan orang-orang dengan cedera parah, dan ancaman kekerasan terhadap anak-anak trans.

The WSJ telah menghasilkan serangkaian laporan tentang Facebook berdasarkan dokumen internal yang disediakan oleh whistleblower Frances Haugen. Dia bersaksi di depan Kongres bahwa perusahaan menyadari dampak negatif platform Instagram-nya terhadap remaja. Facebook telah membantah pelaporan berdasarkan dokumen internal.

Leave a Reply