Komisi Perdagangan Federal Amerika Serikat (FTC) tengah melakukan penyelidikan terhadap perusahaan-perusahaan penyedia chatbot berbasis kecerdasan buatan (AI) untuk menilai dampaknya terhadap anak-anak dan remaja.
Penyelidikan ini bertujuan untuk memahami bagaimana perusahaan-perusahaan tersebut mengukur, menguji, dan memantau potensi dampak negatif teknologi ini terhadap kelompok usia tersebut.
Tujuh perusahaan yang diminta berpartisipasi dalam penyelidikan ini antara lain Alphabet (induk perusahaan Google), Character Technologies (pembuat Character.AI), Meta, Instagram, OpenAI, Snap, dan xAI.
FTC Imbau Pengembangan Berbasis AI Agar Transparan
FTC meminta perusahaan-perusahaan tersebut untuk memberikan informasi terkait pengembangan dan persetujuan karakter AI, praktik pengelolaan data, serta upaya perlindungan terhadap pengguna di bawah umur.
Selain itu, penyelidikan ini juga bertujuan untuk menilai apakah perusahaan-perusahaan tersebut mematuhi Aturan Undang-Undang Perlindungan Privasi Daring Anak-Anak (COPPA) yang berlaku di AS.
Awal Mula Kecurigaan FTC
Penyelidikan ini dipicu oleh laporan media yang mengungkapkan bahwa beberapa chatbot AI telah terlibat dalam percakapan yang berpotensi berbahaya, seperti memperkuat gagasan bunuh diri dan melakukan percakapan bertema seksual dengan pengguna di bawah umur.
Komisioner FTC, Mark Meador, menyatakan bahwa jika ditemukan pelanggaran hukum, komisi tidak akan ragu untuk bertindak demi melindungi pihak yang paling rentan.
Selain FTC, Jaksa Agung Texas juga melakukan penyelidikan terpisah terhadap Character.AI dan Meta AI Studio terkait dugaan klaim menyesatkan mengenai layanan kesehatan mental serta perlindungan data pribadi.
Amerika Serikat Mulai Ambil Tindakan Tegas
Langkah-langkah ini mencerminkan upaya pemerintah AS untuk memastikan bahwa teknologi AI digunakan secara etis dan aman, terutama dalam konteks pengguna muda yang rentan terhadap potensi dampak negatif.
Sementara itu, perusahaan-perusahaan teknologi seperti Meta dan YouTube juga telah mengambil langkah-langkah untuk melindungi pengguna muda.
Meta, misalnya, mengumumkan pembaruan aturan keamanan AI dengan membatasi akses anak-anak dan remaja dari topik sensitif seperti melukai diri sendiri, bunuh diri, gangguan makan, dan percakapan romantis yang berpotensi tidak pantas.
YouTube, di sisi lain, mulai menggunakan teknologi AI untuk memperkirakan usia pengguna dan secara otomatis menerapkan pembatasan bagi mereka yang teridentifikasi di bawah usia 18 tahun.
Langkah-langkah ini menunjukkan keseriusan perusahaan-perusahaan teknologi dalam menangani isu-isu terkait keamanan dan privasi pengguna muda di platform mereka.
Penting bagi orang tua, pendidik, dan masyarakat umum untuk terus memantau perkembangan ini dan memastikan bahwa anak-anak dan remaja menggunakan teknologi AI dengan bijak dan aman.