Berita

Meta Diduga Beri Toleransi 16 Pelanggaran untuk Akun Berbahaya Sebelum Diblokir, Mantan Petinggi Beberkan Fakta Mengejutkan

Dexop.com – Meta, perusahaan induk Facebook, Instagram, dan Threads, kembali menjadi sorotan global setelah muncul klaim bahwa platform tersebut memberikan toleransi hingga 16 kali pelanggaran kepada akun berbahaya seperti akun yang terlibat prostitusi hingga ajakan seksual sebelum akhirnya ditangguhkan.

Iya, enam belas, bukan satu atau dua. Kalau ini permainan sepak bola, sudah dapat kartu merah sejak pelanggaran kedua—tapi Meta tampaknya memilih permainan “sampai peluit rusak dulu baru dikeluarkan”.

Pengungkapan mengejutkan ini berasal dari Vaishnavi Jayakumar, mantan Head of Safety & Well-Being Meta, dalam dokumen pengadilan terkait gugatan keamanan anak di platform media sosial.

Toleransi Pelanggaran ala Meta: 16 Kali Baru Kena Suspend

Dalam kesaksiannya, Jayakumar menggambarkan sebuah kebijakan internal yang membuat banyak pihak mengernyitkan dahi.

“Anda bisa melakukan 16 pelanggaran prostitusi dan ajakan seksual, dan setelah yang ke-17 baru akun Anda ditangguhkan,” ungkap Jayakumar dalam dokumen yang dikutip The Verge, Rabu (25/11/2025).

Kebijakan ambang batas pelanggaran ini disebut sebagai yang paling longgar di antara platform media sosial besar lainnya.

Gugatan yang diajukan distrik sekolah, jaksa agung negara bagian, dan sejumlah orang tua menilai kebijakan tersebut “mustahil bisa diterima”, terutama karena jenis pelanggaran yang diberi kelonggaran termasuk aktivitas berbahaya yang membahayakan anak di bawah umur.

Masalah Serius pada Sistem Pelaporan Konten Eksploitasi Anak

Tak berhenti sampai di situ. Dokumen pengadilan yang tidak disunting juga mengungkap persoalan yang lebih serius: Instagram disebut tidak memiliki mekanisme khusus untuk melaporkan konten CSAM (Child Sexual Abuse Material).

Dengan kata lain, pengguna tidak benar-benar dibekali alat efektif untuk melaporkan materi pelecehan seksual anak—padahal ini termasuk jenis konten yang paling harus dicegah.

Yang lebih mengkhawatirkan lagi, Jayakumar menjelaskan bahwa Meta beberapa kali mengabaikan laporan-laporan terkait CSAM termasuk laporan dari tim internal, dengan alasan volume pekerjaan yang terlalu besar.

Jika benar, ini berarti salah satu platform media sosial terbesar dunia mungkin tidak menjalankan sistem pelaporan eksploitasi anak sebagaimana mestinya.

Dalam konteks global yang semakin peduli pada keamanan digital, hal ini jelas menjadi alarm keras.

Meta Membantah Keras Semua Tuduhan

Dihadapkan pada tuduhan seberat itu, Meta tidak tinggal diam.
Juru Bicara Meta, Andy Stone, menyampaikan bantahan tegas terhadap seluruh poin yang ada dalam dokumen pengadilan.

Stone menyebut dokumen tersebut hanya berisi:

“Kutipan yang dipilih secara cermat dan opini salah informasi yang sengaja menggambarkan situasi secara menyesatkan.”

Meta menegaskan mereka telah melakukan upaya besar selama lebih dari satu dekade untuk melindungi remaja di platform mereka.

Beberapa langkah yang diklaim Meta sudah dilakukan:

  • Pengenalan Akun Remaja dengan perlindungan khusus

  • Penguatan kontrol orang tua

  • Pembatasan fitur tertentu untuk pengguna di bawah umur

  • Perubahan desain algoritme untuk mencegah paparan konten berbahaya

Meski begitu, kritikus menilai bahwa pengungkapan dalam dokumen pengadilan ini justru menunjukkan bahwa sistem internal Meta mungkin tidak sekuat yang mereka klaim.

Tekanan Regulasi Global Terhadap Perusahaan Teknologi Makin Kencang

Kasus ini muncul saat gelombang regulasi global terhadap perusahaan teknologi sedang mencapai puncaknya.

Sebelumnya, Meta, Apple, dan Google telah menjadi sasaran penyelidikan Uni Eropa atas dugaan pelanggaran Digital Markets Act (DMA)—aturan yang dirancang untuk membatasi dominasi Big Tech.

Tekanan lain datang dari:

  • Pemerintah AS yang semakin agresif mengawasi algoritme media sosial

  • Inggris dengan Online Safety Act

  • Australia yang mendorong transparansi algoritme

  • Negara-negara Asia, termasuk Indonesia, yang memperketat regulasi konten berbahaya

Dengan kata lain, Meta sedang disorot dari segala arah. Tambahan tuduhan internal soal kebijakan keamanan longgar tentu membuat situasi semakin panas.

Dampak Luas bagi Industri Media Sosial

Kasus ini dapat menjadi preseden penting bagi dunia media sosial. Jika pengadilan memutuskan bahwa Meta memang memiliki ambang batas 16 pelanggaran sebelum menindak akun berbahaya, standar industri kemungkinan akan berubah drastis.

Beberapa dampak yang mungkin terjadi:

  1. Pengetatan kebijakan pelanggaran oleh semua platform besar

  2. Transparansi lebih tinggi mengenai cara platform mendeteksi dan menindak akun berbahaya

  3. Tekanan lebih besar pada perusahaan untuk menyediakan alat pelaporan yang mudah dan efektif

  4. Kemungkinan tuntutan hukum lanjutan dari orang tua, lembaga pendidikan, atau organisasi pengawas

  5. Perubahan regulasi di berbagai negara, termasuk kewajiban audit independen

Kasus ini juga menimbulkan kembali diskusi penting:
Apakah media sosial benar-benar aman untuk anak dan remaja?

Perkembangan Selanjutnya Akan Menguji Meta

Gugatan ini masih berjalan, dan berbagai pihak menunggu sidang lanjutan untuk melihat apakah kesaksian Jayakumar akan diakui sebagai bukti kuat.

Apapun hasil akhirnya, satu hal jelas: keamanan digital dan perlindungan anak di media sosial tidak lagi bisa dianggap sebagai isu sampingan.

Dalam dunia digital yang makin rumit—dan makin cepat—kebijakan platform sebesar Meta akan menentukan keamanan ratusan juta pengguna global.

Dan jika benar ambang pelanggaran baru ditegakkan setelah 17 kali pelanggaran, mungkin dunia butuh standar baru yang jauh lebih ketat.

Artikel Terkait

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button