Meta juga mendominasi rencana pelatihan AI menggunakan postingan Facebook dan Instagram

Meta telah mengonfirmasi bahwa mereka juga memulai upaya untuk melatih sistem AI-nya menggunakan postingan publik Facebook dan Instagram dari basis pengguna Inggris.

Perusahaan tersebut mengatakan bahwa mereka telah “mengintegrasikan solusi kontrol” ke dalam sistem “keluar” yang didesain ulang untuk memastikannya “terlihat lebih baik”, seperti yang disebutkan dalam blognya. Mereka juga ingin menangkap tren untuk membantu model AI-nya “mencerminkan budaya, sejarah, dan idiom Inggris.” Namun tidak jelas apa yang berbeda dari penangkapan terakhirnya.

Mulai minggu depan, Meta mengatakan pengguna di Inggris akan mulai melihat notifikasi dalam aplikasi yang menjelaskan apa yang dilakukannya. Perusahaan kemudian berencana untuk mulai menggunakan data publik untuk melatih AI-nya dalam beberapa bulan mendatang – atau untuk melakukan pelatihan pada data di mana pengguna tidak langsung keberatan dengan metode yang disediakan Meta.

Pengumuman ini muncul tiga bulan setelah perusahaan induk Facebook menunda rencananya karena tekanan di Inggris, ketika Kantor Komisaris Informasi (ICO) menyampaikan kekhawatiran tentang bagaimana Meta dapat menggunakan data pengguna Inggris untuk melatih algoritma AI-nya – dan cara kerjanya. . tentang mendapatkan persetujuan orang. Komisi Perlindungan Data Irlandia, pengawas privasi Meta di Uni Eropa (UE), juga mengkritik rencana Meta setelah menerima komentar dari beberapa otoritas perlindungan data di seluruh blok tersebut – tidak ada kabar kapan Meta akan dimulai kembali. Pendidikan AI di UE.

Meta telah mengembangkan AI untuk konten buatan pengguna di pasar seperti AS selama beberapa waktu, namun undang-undang privasi Eropa telah menyulitkan mereka – dan perusahaan teknologi lainnya – yang ingin memperluas data pelatihan mereka dengan cara ini.

Terlepas dari undang-undang privasi UE, pada bulan Mei Meta mulai memberi tahu pengguna di wilayah tersebut tentang perubahan privasi yang akan datang, dengan mengatakan bahwa mereka akan mulai menggunakan konten komentar, interaksi dengan perusahaan, perubahan perilaku, serta gambar dan kata-kata yang terkait dengan AI. pendidikan. Dikatakan bahwa alasan dilakukannya hal tersebut adalah karena perlunya menunjukkan “bahasa, tempat dan budaya yang berbeda dari masyarakat Eropa.”

Baca juga:  Lihat: NASA membutuhkan bantuan Anda untuk membawa batu kembali dari Mars

Perubahan ini mulai berlaku pada tanggal 26 Juni namun pengumuman Meta mendorong organisasi nirlaba hak privasi noyb (alias “bukan urusan Anda”) untuk mengajukan selusin keluhan ke negara-negara UE, dengan alasan bahwa Meta melanggar berbagai aspek Data Umum blok tersebut. Peraturan Perlindungan Data (GDPR) – kerangka hukum yang mendukung undang-undang privasi Negara Anggota UE (dan, tentu saja, Undang-Undang Perlindungan Data Inggris).

Keluhan tersebut berfokus pada penggunaan proses opt-in oleh Meta untuk menyetujui pemrosesan dan pengungkapan – terdakwa harus dimintai persetujuannya terlebih dahulu, daripada mengambil langkah untuk menolak penggunaan informasi baru mereka. Meta mengatakan bahwa mereka mengandalkan aturan yang ditetapkan dalam GDPR yang disebut “kepentingan yang sah” (LI). Oleh karena itu, mereka berpendapat bahwa tindakannya mematuhi hukum meskipun para ahli privasi meragukan LI adalah dasar yang valid untuk menggunakan data publik.

Meta mencoba mengandalkan dasar hukum ini sebelum mencoba membenarkan data pengguna Eropa untuk iklan yang lambat. Namun, tahun lalu Pengadilan Uni Eropa memutuskan bahwa hal tersebut tidak dapat digunakan dalam kasus-kasus ini, sehingga menimbulkan keraguan tentang keinginan Meta untuk mendorong kursus AI melalui lubang kunci LI juga.

Bahwa Meta telah memilih untuk meluncurkan rencananya di Inggris, bukan di UE, hal ini menunjukkan bahwa Inggris tidak lagi menjadi bagian dari Uni Eropa. Meskipun undang-undang perlindungan data Inggris tetap didasarkan pada GDPR, ICO sendiri tidak lagi menjadi bagian dari kelompok penegakan hukum dan sering kali mengambil tindakan dalam penegakan hukum. Anggota parlemen Inggris juga baru-baru ini mencoba mencabut undang-undang privasi domestik.

Keberatan keluar

Salah satu dari banyak pertentangan terhadap strategi Meta pertama kali adalah cara Meta menawarkan pengguna Facebook dan Instagram untuk “memilih keluar” dari konten yang mereka gunakan untuk melatih AI-nya.

Alih-alih memberikan kotak “masuk/keluar” secara langsung, perusahaan membuat pengguna melompati celah untuk menemukan fitur tidak pantas yang tersembunyi di balik beberapa klik atau ketukan, di mana mereka dipaksa untuk mengatakan sesuatu. Karena mereka tidak ingin datanya diproses. Mereka juga diberitahu bahwa terserah pada Meta apakah permintaan ini akan dipenuhi. Meskipun perusahaan telah secara terbuka menyatakan bahwa mereka akan memenuhi permintaan apa pun.

Baca juga:  Ursa Major mendapatkan $12,5 juta dari Angkatan Laut AS, Departemen Pertahanan untuk motor roket cetak 3D
Facebook
Fitur “oposisi” Facebook.
Kredit gambar: Meta / Tangkapan Layar

Kali ini, Meta mengikuti pendekatan opt-out, artinya pengguna masih perlu mendaftar ke Meta untuk memberi tahu bahwa mereka tidak ingin data mereka digunakan untuk meningkatkan sistem AI-nya. Mereka yang sudah menolak tidak perlu mengajukan kembali keberatannya, menurut Meta. Namun perusahaan mengatakan bahwa mereka telah menyederhanakan proses keberatan kali ini, termasuk tanggapan dari ICO. Meski tidak menjelaskan betapa mudahnya. Nah untuk saat ini yang kita punya, menurut Meta, prosesnya mudah.

Stephen Almond, direktur teknologi dan inovasi ICO, mengatakan dia akan “memantau situasi” seiring Meta bergerak maju dengan rencananya menggunakan data Inggris untuk pelatihan model AI.

“Meta harus memastikan dan menunjukkan kepatuhan terhadap undang-undang perlindungan data,” kata Almond dalam sebuah pernyataan. “Kami telah memperjelas bahwa organisasi mana pun yang menggunakan data pengguna untuk melatih AI buatan (harus) memahami dengan jelas bagaimana data manusia digunakan. Organisasi harus mengikuti pedoman kami dan menerapkan perlindungan sebelum menggunakan data mereka untuk melatih model manusia, termasuk memberikan pedoman yang jelas dan cukup sederhana bagi pengguna agar tidak diproses.”

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *