CEO OpenAI Sam Altman mengatakan OpenAI bekerja sama dengan US AI Safety Institute, sebuah lembaga pemerintah federal yang bertujuan untuk menilai dan mengatasi risiko pada platform AI, dalam perjanjian untuk menyediakan akses ke model pengujian keamanan AI utama berikutnya.
Pengumuman tersebut, yang diposting Altman pada Kamis malam X, tidak terlalu detail. Namun – seiring dengan perjanjian yang sama dengan badan keamanan AI Inggris yang diadakan pada bulan Juni – tampaknya mereka ingin mengatasi masalah dimana OpenAI telah menyerah pada keamanan AI untuk mencari teknologi AI yang lebih kuat dan kuat.
Pada bulan Mei, OpenAI berhasil menyelesaikan fase yang mengatasi masalah pembuatan kontrol untuk mencegah sistem AI “cerdas” menjadi bermasalah. Laporan – termasuk laporan kami – mendorong OpenAI untuk meninggalkan penelitian keamanan grupnya untuk mengembangkan produk baru, yang menyebabkan dua direktur tim, Jan Leike (yang sekarang memimpin penelitian keamanan di startup AI Anthropic) mengundurkan diri. -pendiri Ilya Sutskever (yang mendirikan perusahaan AI yang berfokus pada keamanan, Safe Superintelligence Inc.).
Menanggapi meningkatnya jumlah kritik, OpenAI mengatakan akan mengakhiri tindakan kerasnya terhadap pelaporan pelanggaran dan membentuk badan keamanan, serta menyumbangkan 20% pendapatannya untuk penelitian keamanan. (Tim keamanan yang dipecat dijanjikan 20% komputer OpenAI untuk pekerjaannya, namun pada akhirnya tidak menerimanya.) Altman juga berkomitmen terhadap janji 20% tersebut dan mengonfirmasi bahwa OpenAI menghapus komentar yang meremehkan karyawan baru dan lama. di bulan Mei.
Namun langkah ini tidak mengecewakan bagi sebagian orang — terutama setelah OpenAI mengambil alih peran keamanan semua orang di dalam perusahaan termasuk Altman dan baru-baru ini, menugaskan kembali kepala keamanan AI ke lembaga lain.
Lima senator, termasuk Brian Schatz, Partai Demokrat Hawaii, mengajukan pertanyaan tentang kebijakan OpenAI dalam suratnya baru-baru ini kepada Altman. Chief Strategy Officer OpenAI Jason Kwon menanggapi surat tersebut hari ini, menulis bahwa OpenAI “berkomitmen untuk menerapkan kebijakan keamanan di setiap tingkat operasi kami.”
Waktu kemitraan OpenAI dengan Institut Keamanan AI AS tampaknya sedikit diragukan mengingat perusahaan tersebut menyetujui Undang-Undang Inovasi Masa Depan pada awal pekan ini, sebuah rancangan undang-undang Senat yang akan mengakui lembaga keselamatan sebagai organisasi utama yang menetapkan standar dan pedoman. untuk model AI. Langkah ini dapat dilihat sebagai upaya untuk mengambil alih regulasi – atau mengambil alih kekuasaan OpenAI dalam pembuatan kebijakan AI di tingkat federal.
Bukan tanpa alasan bahwa Altman adalah anggota Dewan Keselamatan dan Keamanan Kecerdasan Buatan Departemen Keamanan Dalam Negeri AS, yang memberi nasihat tentang “pengembangan dan penerapan AI yang aman” di bidang-bidang utama AS. Dan OpenAI telah meningkatkan pengeluarannya untuk melobi pemerintah tahun ini, menghabiskan $800.000 dalam enam bulan pertama tahun 2024 dibandingkan $260.000 di seluruh tahun 2023.
Institut Keamanan AI AS, yang merupakan bagian dari Institut Standar dan Teknologi Nasional Departemen Perdagangan, berkonsultasi dengan sekelompok perusahaan yang mencakup Anthropic serta perusahaan teknologi besar seperti Google, Microsoft, Meta, Apple, Amazon, dan Nvidia. Kelompok perusahaan tersebut ditugaskan untuk melaksanakan tugas-tugas yang digariskan dalam perintah eksekutif AI Presiden Joe Biden pada bulan Oktober, termasuk membuat pedoman tim merah AI, analisis teknis, manajemen risiko, keselamatan dan keamanan, serta produk watermarking.