Pemerintah India secara resmi telah meminta platform media sosial X (sebelumnya Twitter) untuk segera mengambil tindakan perbaikan menyeluruh terhadap fitur kecerdasan buatan “Grok” yang diintegrasikan ke dalam platform tersebut.
Permintaan ini disampaikan menyusul munculnya sejumlah laporan dan keluhan dari pengguna terkait konten berbahaya dan tidak senonoh yang dihasilkan atau dipromosikan oleh asisten AI Grok.
Konten-konten ini dinilai melanggar pedoman komunitas dan berpotensi membahayakan pengguna, terutama anak-anak dan remaja.
Insiden ini menyoroti tantangan kompleks dalam moderasi konten yang dihasilkan oleh AI generatif. Grok, yang dirancang untuk menjadi asisten yang lebih “blak-blakan” dan memiliki selera humor, diduga telah menghasilkan atau merekomendasikan konten yang mengandung ujaran kebencian, misinformasi, atau materi seksual eksplisit.
Pemerintah India menekankan bahwa platform teknologi, terlepas dari kecanggihan AI-nya, tetap memikul tanggung jawab penuh atas segala konten yang beredar di ekosistem mereka, termasuk yang dihasilkan oleh sistem otomatis.
Tindakan India ini mencerminkan tren global yang semakin kuat untuk menuntut akuntabilitas lebih besar dari perusahaan teknologi atas produk AI mereka. Regulator mulai bergerak dari sekadar meminta transparansi algoritme menuju penegakan hukum jika sistem AI dinilai menimbulkan risiko sosial.
Bagi Platform X, ini adalah ujian besar atas komitmen mereka terhadap keamanan pengguna. Mereka harus tidak hanya memperbaiki Grok dengan penyaringan (Filtering) dan pelatihan (Training) yang lebih ketat, tetapi juga membuka mekanisme pelaporan dan peninjauan konten AI yang jelas.
Hasil dari tekanan ini akan menjadi preseden penting untuk menentukan seberapa jauh negara dapat campur tangan dalam mengatur AI generatif yang dioperasikan oleh perusahaan swasta global.
Di Indonesia sendiri kasusnya mungkin berbeda, banyak warganet yang mengkritik Grok karena memberikan informasi yang salah, sering kali informasinya melesat dan malah cenderung hoaks.
