Startup AI, Anthropic, mengubah kebijakannya untuk mengizinkan anak-anak menggunakan sistem AI-nya — setidaknya terkadang.
Diumumkan dalam sebuah posting di situs resmi perusahaan pada hari Jumat, Anthropic akan mulai mengizinkan kaum muda dan generasi muda untuk menggunakan program lain (tetapi bukan programnya sendiri, khususnya) dengan bantuan model AI-nya selama pengembangnya dari program ini menerapkan langkah-langkah keamanan dan mengungkapkan kepada pengguna teknologi Anthropic yang mereka gunakan.
Dalam artikel pendukungnya, Anthropic mencantumkan beberapa langkah keselamatan yang harus disertakan oleh pengembang aplikasi bertenaga AI untuk anak-anak, seperti sistem verifikasi usia, penyortiran dan pemfilteran konten, serta pelatihan tentang cara menggunakan AI dengan “aman dan andal” untuk anak-anak. Perusahaan juga mengatakan bahwa mereka dapat memberikan “solusi teknologi” yang dirancang untuk mengadaptasi produk AI untuk anak-anak, seperti “langkah-langkah keselamatan anak” yang harus diikuti oleh produsen yang menargetkan anak-anak.
Pengembang yang menggunakan model AI Anthropic juga harus mematuhi undang-undang perlindungan anak yang “legal” seperti Undang-Undang Perlindungan Privasi Online Anak-anak (COPPA), undang-undang federal AS yang melindungi privasi anak-anak di bawah usia 13 tahun. Anthropic mengatakan pihaknya berencana untuk “secara berkala ” memeriksa kepatuhan aplikasi, menangguhkan atau menghentikan akun pelanggar berulang, dan mengamanatkan agar pengembang aplikasi “menjelaskan” di halaman publik atau dalam bentuk tertulis bahwa mereka mematuhinya.
“Ada beberapa situasi di mana alat AI dapat memberikan manfaat signifikan bagi pengguna muda, seperti persiapan ujian atau membantu pengajaran,” tulis Anthropic dalam sebuah postingan. “Dengan mengingat hal ini, kebijakan terbaru kami memungkinkan organisasi untuk mengintegrasikan API kami ke dalam produk turunannya.”
Perubahan dalam kebijakan Antropis terjadi ketika anak-anak dan remaja beralih ke alat AI untuk membantu tidak hanya di sekolah tetapi juga dalam urusan pribadi, tetapi juga ketika vendor AI komersial – termasuk Google dan OpenAI – menyelidiki lebih banyak kasus eksploitasi anak. Tahun ini, OpenAI membentuk grup baru untuk mempelajari keselamatan anak dan mengumumkan kemitraan dengan Common Sense Media untuk mengembangkan pedoman AI yang ramah anak. Dan Google menjadikan chatbotnya Bard, sejak diubah menjadi Gemini, tersedia bagi kaum muda dalam bahasa Inggris di wilayah tertentu.
Menurut penelitian dari Pusat Demokrasi dan Teknologi, 29% anak-anak mengatakan bahwa mereka telah menggunakan AI buatan seperti ChatGPT OpenAI untuk mengatasi kecemasan atau penyakit mental, 22% untuk percakapan dengan teman, dan 16% untuk konflik keluarga.
Musim panas lalu, sekolah dan perguruan tinggi segera melarang aplikasi bertenaga AI – terutama ChatGPT – karena takut akan plagiarisme dan plagiarisme. Sejak itu, beberapa orang telah mengubah batasannya. Namun tidak semua orang percaya bahwa AI bisa menjadi hal yang baik, merujuk pada penelitian seperti yang dilakukan oleh UK Safer Internet Centre, yang menemukan bahwa lebih dari separuh anak-anak (53%) mengatakan bahwa mereka melihat orang-orang seusia mereka menggunakan AI dengan cara yang buruk – misalnya untuk membuat. informasi atau gambar palsu yang digunakan untuk menyinggung seseorang (termasuk pornografi mendalam).
Tuntutan akan pedoman penggunaan AI generatif oleh anak-anak semakin meningkat.
Organisasi Pendidikan, Ilmu Pengetahuan dan Kebudayaan PBB (UNESCO) akhir tahun lalu mendesak pemerintah untuk mengatur penggunaan AI dalam pendidikan, termasuk menetapkan batasan usia bagi pengguna dan perlindungan data dan privasi pengguna. “AI generatif bisa menjadi peluang besar bagi pembangunan manusia, namun juga bisa menimbulkan kerugian dan diskriminasi,” kata Audrey Azoulay, direktur jenderal UNESCO, dalam siaran persnya. “Hal ini tidak dapat diintegrasikan ke dalam pendidikan tanpa interaksi sosial dan perlindungan serta peraturan yang diperlukan dari pemerintah.”