OpenAI telah membentuk komite baru untuk mengawasi keputusan keselamatan dan keamanan “penting” terkait operasi dan layanan perusahaan. Namun, dalam sebuah tindakan yang pasti akan membuat marah para pembuat kebijakan, OpenAI telah ditunjuk menjadi sebuah komite oleh orang dalam industri – termasuk Sam Altman, CEO OpenAI – dan bukan oleh pengamat dari luar.
Altman dan anggota Komite Keselamatan dan Keamanan lainnya – anggota dewan OpenAI Bret Taylor, Adam D’Angelo dan Nicole Seligman serta kepala ilmuwan Jakub Pachocki, Aleksander Madry (yang memimpin kelompok “perencanaan” OpenAI), Lilian Weng (direktur keamanan ). sistem), Matt Knight (direktur keamanan) dan John Schulman (direktur “ilmu gabungan”) – akan bertanggung jawab untuk mengevaluasi langkah-langkah keselamatan dan keamanan OpenAI dalam 90 hari ke depan, menurut apa yang dia tulis di blog perusahaan. Komite tersebut akan membagikan temuan dan rekomendasinya kepada seluruh dewan direksi OpenAI untuk ditinjau, kata OpenAI, dan pada saat itu komite akan mempublikasikan pembaruan mengenai setiap rekomendasi yang diambil “dengan cara yang konsisten dengan keselamatan dan keamanan.”
“OpenAI baru-baru ini mulai melatih model frontier berikutnya dan kami berharap sistem ini akan membawa kita ke tingkat inovasi berikutnya dalam jalur menuju (kecerdasan buatan),” tulis OpenAI. “Meskipun kami bangga membangun dan merilis model yang berkinerja baik dalam hal keselamatan dan keamanan, kami menyambut argumen kuat pada saat yang penting ini.”
OpenAI dalam beberapa bulan terakhir telah melihat sejumlah langkah besar dari sisi keamanan tim teknisnya — dan beberapa karyawan tersebut telah menyuarakan keprihatinan tentang apa yang mereka lihat sebagai penutupan keamanan AI yang disengaja.
Daniel Kokotajlo, yang bekerja di tim manajemen OpenAI, mengundurkan diri pada bulan April setelah kehilangan keyakinan bahwa OpenAI akan “berhasil” dalam merilis lebih banyak AI, seperti yang ia tulis dalam postingan di blognya. Dan Ilya Sutskever, salah satu pendiri OpenAI dan mantan kepala ilmuwan perusahaan, keluar pada bulan Mei setelah pertarungan panjang dengan Altman dan sekutu Altman – diduga karena ketergesaan Altman untuk memperkenalkan produk berbasis AI dengan cara yang tidak aman.
Baru-baru ini, Jan Leike, mantan peneliti DeepMind di OpenAI yang mengerjakan pembuatan ChatGPT dan pendahulu ChatGPT, InstructGPT, meninggalkan pekerjaannya di penelitian keamanan, mengatakan dalam beberapa artikel di X bahwa dia yakin OpenAI “tidak berada di jalur yang tepat” untuk menemukan masalah terkait keselamatan dan keamanan “akurasi” AI. Peneliti kebijakan AI Gretchen Krueger, yang meninggalkan OpenAI minggu lalu, menggemakan komentar Leike, menyerukan perusahaan untuk memastikan akuntabilitas dan transparansi dan “kehati-hatian dalam (menggunakan) teknologinya.”
Quartz melaporkan bahwa, selain Sutskever, Kokotajlo, Leike dan Krueger, setidaknya lima karyawan OpenAI yang sadar akan keamanan telah berhenti atau dipecat sejak akhir tahun lalu, termasuk mantan anggota dewan OpenAI Helen Toner dan Tasha McCauley. Dalam sebuah opini untuk The Economist yang diterbitkan pada hari Minggu, Toner dan McCauley menulis bahwa – dengan Altman sebagai pemimpinnya – mereka tidak percaya bahwa OpenAI dapat dipercaya untuk memberatkan dirinya sendiri.
“Tetapi berdasarkan pengalaman kami, kami percaya bahwa pengaturan mandiri tidak mampu mengatasi tantangan dalam meningkatkan keuntungan,” kata Toner dan McCauley.
Sesuai dengan pendapat Toner dan McCauley, TechCrunch melaporkan awal bulan ini bahwa grup Superalignment OpenAI, yang mengawasi kontrol dan pengelolaan sistem AI “sangat cerdas”, dijanjikan 20% dari sumber daya komputasi perusahaan – tetapi hanya menerima sedikit. Tim Superalignment telah dibubarkan, dan sebagian besar pekerjaannya telah dimasukkan ke dalam Schulman dan kelompok penasihat keamanan OpenAI yang dibentuk pada bulan Desember.
OpenAI menginspirasi pengembangan AI. Pada saat yang sama, mereka berupaya memperbaiki undang-undang tersebut, dengan mempekerjakan pelobi dan pelobi untuk firma hukum yang sedang berkembang, dan menghabiskan ribuan dolar untuk melobi Amerika Serikat pada kuartal keempat tahun 2023 saja. Baru-baru ini, Departemen Keamanan Dalam Negeri AS mengumumkan bahwa Altman akan menjadi salah satu anggota Dewan Keselamatan dan Keamanan Kecerdasan Buatan yang baru dibentuk, yang akan memberikan rekomendasi untuk “pengembangan dan penerapan AI yang aman dan terjamin” di semua bidang penting di dunia. KITA.
Untuk menghindari paparan terhadap komite pengawasan keselamatan dan keamanan, OpenAI telah berjanji untuk mempertahankan pakar “keamanan, keselamatan, dan teknologi” pihak ketiga untuk mendukung pekerjaan komite, termasuk mantan pakar keamanan siber Rob Joyce dan mantan direktur Departemen Kehakiman AS John Carlin. Namun, selain Joyce dan Carlin, perusahaan tidak merinci ukuran atau komposisi tim ahli eksternal – juga tidak mengungkapkan batas kekuatan dan pengaruh tim di dewan.
Dalam sebuah postingan di X, reporter Bloomberg Parmy Olson mengatakan bahwa badan pengatur seperti Komite Keselamatan dan Keamanan, serupa dengan dewan pengawas AI Google seperti Dewan Penasihat Eksternal Teknologi Lanjutan, “(jangan) melakukan apa pun dengan cara pengawasan.” .” Faktanya, OpenAI mengatakan mereka ingin mengatasi “keberatan yang sah” terhadap pekerjaannya melalui sebuah komite – “keberatan yang masuk akal” yang tergantung pada pihak yang melihatnya.
Altman pernah berjanji bahwa pihak luar akan memainkan peran penting dalam pengembangan OpenAI. Dalam kolomnya di New Yorker pada tahun 2016, dia mengatakan bahwa OpenAI “(akan mengembangkan) sebuah cara yang memungkinkan seluruh dunia memilih perwakilan… Hal ini belum terjadi – dan tampaknya tidak mungkin terjadi pada saat ini.”