Di luar film fiksi ilmiah, tidak ada contoh sistem AI yang membunuh orang atau digunakan dalam permainan komputer. Namun, beberapa anggota parlemen ingin menerapkan perlindungan untuk mencegah penjahat menciptakan masa depan distopia. RUU California, yang dikenal sebagai SB 1047, berupaya menghentikan bencana global yang disebabkan oleh sistem AI sebelum terjadi, dan akan dilakukan pemungutan suara akhir di senat negara bagian pada bulan Agustus nanti.
Meskipun hal ini tampaknya merupakan tujuan yang dapat disepakati bersama, SB 1047 telah membuat marah para pemain di Silicon Valley, baik besar maupun kecil, termasuk pemodal ventura, kelompok bisnis teknologi besar, peneliti, dan pendiri startup. Banyak rancangan undang-undang tentang AI yang beredar di seluruh negeri, namun Undang-undang Inovasi Aman dan Aman untuk Model Kecerdasan Buatan Frontier California telah menjadi salah satu yang paling kontroversial. Itulah sebabnya.
Apa yang dilakukan SB 1047?
SB 1047 berupaya mencegah bentuk-bentuk utama AI digunakan untuk menyebabkan “kerusakan serius” terhadap manusia.
RUU tersebut memberikan contoh “kejahatan besar-besaran” seperti aktor jahat yang menggunakan model AI untuk membuat senjata yang membunuh banyak orang, atau menginstruksikan seseorang untuk merencanakan serangan siber yang menelan biaya lebih dari $500 juta (sebagai perbandingan, pemadaman CrowdStrike diperkirakan mencapai $500 juta). telah menelan biaya lebih dari $ 5 miliar). RUU tersebut membuat para pembangun – yaitu perusahaan yang membuat model – bertanggung jawab untuk menerapkan prosedur keselamatan yang memadai untuk mencegah konsekuensi tersebut.
Merek dan perusahaan apa yang mengikuti aturan ini?
Aturan SB 1047 akan berlaku untuk model AI terbesar di dunia: model yang menelan biaya setidaknya $100 juta dan menggunakan 10^26 FLOPS selama pelatihan – komputasi yang sangat besar, namun CEO OpenAI Sam Altman mengatakan bahwa GPT-4 lebih mahal untuk mengajar mereka. . Ruang-ruang ini dapat ditingkatkan sesuai kebutuhan.
Sangat sedikit perusahaan saat ini yang telah mengembangkan produk AI dalam jumlah besar untuk memenuhi persyaratan ini, namun raksasa teknologi seperti OpenAI, Google, dan Microsoft diperkirakan akan segera mengembangkannya. Model AI – khususnya mesin komputasi besar yang mengidentifikasi dan memprediksi model – secara umum menjadi lebih akurat seiring dengan perkembangannya, dan hal ini diperkirakan akan terus berlanjut oleh banyak orang. Mark Zuckerberg baru-baru ini mengatakan bahwa Llama Meta generasi berikutnya akan membutuhkan daya komputasi 10x, yang akan menempatkannya di bawah kendali SB 1047.
Terkait merek open source dan turunannya, RUU tersebut menetapkan bahwa setelah $25 juta dibelanjakan untuk pembuatan atau peningkatan oleh pihak ketiga, mereka bertanggung jawab atas turunannya, bukan pengembang aslinya.
RUU ini juga memerlukan perlindungan terhadap penyalahgunaan fitur-fitur AI yang tercakup, termasuk tombol “berhenti darurat” yang mematikan seluruh model AI. Pengembang juga harus mengembangkan prosedur pengujian yang menangani potensi risiko model AI, dan harus mempekerjakan peneliti pihak ketiga setiap tahun untuk menilai kinerja keamanan AI mereka.
Hasilnya harus berupa “jaminan yang masuk akal” bahwa mengikuti prosedur akan mencegah risiko – TIDAK kepastian mutlak, yang tidak mungkin diberikan.
Siapa yang akan mendirikannya, dan bagaimana caranya?
Badan baru California, Frontier Model Division (FMD), mengawasi peraturan tersebut. Setiap jenis AI baru yang memenuhi SB 1047 harus diverifikasi secara individual dengan salinan keamanannya secara tertulis.
FMD diawasi oleh dewan beranggotakan lima orang, termasuk perwakilan dari industri AI, komunitas open source, dan akademisi, yang ditunjuk oleh gubernur dan legislatif California. Badan tersebut akan memberi nasihat kepada jaksa agung California mengenai pelanggaran SB 1047, dan memberikan panduan kepada pengembang keamanan AI.
Chief technology officer harus menyerahkan laporan tahunan kepada FMD dan menilai risiko merek AI, kinerja keamanannya, dan menjelaskan kemajuan perusahaan dengan SB 1047. Mirip dengan pemberitahuan pelanggaran, jika terjadi “insiden keamanan AI”, maka produsen harus melapor ke FMD dalam waktu 72 jam setelah mengetahui kejadian tersebut.
Jika produsen gagal mematuhi salah satu persyaratan ini, SB 1047 mengizinkan jaksa agung California untuk mengajukan tuntutan hukum terhadap produsen tersebut. Dalam contoh yang biaya pelatihannya $100 juta, dendanya bisa mencapai $10 juta untuk pelanggaran pertama dan $30 juta untuk pelanggaran berikutnya. Hukumannya berlaku jika model AI mahal.
Terakhir, RUU tersebut juga mencakup perlindungan penggugat bagi karyawan jika mereka mencoba mengungkapkan model AI yang tidak dilindungi kepada jaksa agung California.
Apa kata para kritikus?
Senator Negara Bagian California Scott Wiener, yang menulis RUU tersebut dan mewakili San Francisco, mengatakan kepada TechCrunch bahwa SB 1047 adalah upaya untuk belajar dari kegagalan masa lalu sehubungan dengan jaminan sosial dan privasi data, serta melindungi warga negara sebelum terlambat.
“Kami memiliki sejarah memiliki keahlian untuk menunggu kerusakan terjadi, lalu berbuat curang,” kata Wiener. “Jangan menunggu hal buruk terjadi. Mari kita bergerak maju saja.”
Bahkan jika sebuah perusahaan melatih model senilai $100 juta di Texas, atau dalam hal ini Prancis, perusahaan tersebut akan dilindungi oleh SB 1047 selama perusahaan tersebut menjalankan bisnis di California. Wiener mengatakan Kongres “sangat sedikit melakukan legislasi terkait teknologi dalam satu abad terakhir,” jadi menurutnya Californialah yang harus memberi contoh dalam hal ini.
Ditanya apakah dia bertemu dengan OpenAI dan Meta di SB 1047, Wiener mengatakan “kami bertemu dengan semua lab besar.”
Dua peneliti AI yang terkadang disebut sebagai “bapak baptis AI”, Geoffrey Hinton dan Yoshua Bengio, berada di balik rancangan undang-undang tersebut. Keduanya merupakan bagian dari tim AI yang peduli terhadap bahaya kiamat yang dapat ditimbulkan oleh teknologi AI. “Azab AI” ini telah ada selama beberapa waktu di dunia penelitian, dan SB 1047 mungkin akan memasukkan sebagian pertahanannya ke dalam undang-undang. Kelompok lain yang mendukung SB 1047, Center for AI Safety, menulis surat terbuka pada Mei 2023 yang meminta dunia untuk memprioritaskan “pengurangan risiko runtuhnya AI” yang sama seriusnya dengan pandemi atau perang nuklir.
“Ini adalah kebutuhan jangka panjang bagi perusahaan-perusahaan California dan AS pada khususnya karena masalah keamanan yang serius dapat menjadi hambatan besar bagi kemajuan,” kata direktur Pusat Keamanan AI, Dan Hendrycks, melalui email kepada. Hasil TechCrunch.
Baru-baru ini, motivasi Hendryck dipertanyakan. Pada bulan Juli, ia secara terbuka meluncurkan startupnya, Gray Swan, yang menciptakan “alat untuk membantu perusahaan menilai risiko sistem AI mereka,” menurut siaran pers. Mengikuti kritik yang diprakarsai Hendrycks mungkin mendapat manfaat jika RUU itu disahkan, mungkin karena salah satu pembaca SB 1047 ingin para pengembang menulis, dia kehilangan bagiannya di Gray Swan.
“Saya melarikan diri untuk mengirimkan sinyal yang jelas,” kata Hendrycks melalui email ke TechCrunch. “Jika miliarder VC menantang keamanan AI yang masuk akal dan ingin menunjukkan niat mereka yang berkulit putih, biarkan mereka mengikuti.”
Apa kata para kritikus?
Semakin banyak pemain di Silicon Valley yang menentang SB 1047.
“Penentang miliarder VC” Hendrycks mungkin mengacu pada a16z, sebuah perusahaan yang didirikan oleh Marc Andreessen dan Ben Horowitz, yang sangat menentang SB 1047. Pada awal Agustus, direktur hukum perusahaan, Jaikumar Ramaswamy, mengajukan surat kepada Senator Wiener. , mengatakan bahwa RUU tersebut akan “membebani startup karena fleksibilitas dan portabilitasnya,” membuat ekosistem AI menjadi berantakan. Seiring kemajuan teknologi AI, biayanya akan menjadi lebih mahal, artinya banyak startup yang akan melebihi $100 juta dan akan ditanggung oleh SB 1047; a16z mengatakan bahwa beberapa pendirinya telah menerima banyak pelatihan.
Fei-Fei Li, yang sering disebut sebagai dewi AI, memecah keheningannya pada SB 1047 pada awal Agustus, menulis di kolom Fortune bahwa RUU tersebut akan “menghancurkan ekosistem AI kita”. Meskipun Li adalah pionir terkenal dalam penelitian AI dari Stanford, dia juga mengatakan bahwa dia mendirikan AI bernama World Labs pada bulan April, yang bernilai satu miliar dolar dan didukung oleh a16z.
Dia bergabung dengan pakar AI terkemuka seperti rekan peneliti Stanford Andrew Ng, yang menyebut RUU tersebut sebagai “serangan terbuka” dalam pidatonya di acara Y Combinator pada bulan Juli. Lingkungan sumber terbuka dapat meningkatkan risiko bagi pembuatnya, karena seperti perangkat lunak sumber terbuka lainnya, lingkungan tersebut mudah dimodifikasi dan digunakan untuk tujuan jahat dan berbahaya.
Kepala ilmuwan Meta AI, Yann LeCun, mengatakan SB 1047 akan merugikan upaya penelitian, dan didasarkan pada “kekeliruan ‘ancaman eksistensial’ yang didorong oleh beberapa orang yang salah arah,” dalam sebuah postingan di X. Llama LLM dari Meta adalah salah satunya. salah satu contoh utama LLM open source.
Para pendiri juga tidak senang dengan RUU tersebut. Jeremy Nixon, CEO startup AI Omniscience dan pendiri AGI House SF, pusat startup AI di San Francisco, khawatir SB 1047 akan merusak ekosistemnya. Ia berargumen bahwa pelaku kejahatan harus dihukum karena menyebabkan masalah serius, bukan laboratorium AI yang secara terbuka menciptakan dan mendistribusikan teknologi tersebut.
“Ada banyak kebingungan di tengah rancangan undang-undang tersebut, bahwa LLM dapat bervariasi dalam profil risikonya,” kata Nixon. “Bisa saja, menurut saya, semua jenis memiliki bahaya yang sama seperti yang dijelaskan dalam RUU tersebut.”
Namun Big Tech, yang menjadi sasaran langsung RUU tersebut, juga takut terhadap SB 1047. Chamber of Progress – sebuah kelompok perdagangan yang mewakili Google, Apple, Amazon, dan raksasa Teknologi Besar lainnya – mengeluarkan surat terbuka yang menentang RUU tersebut dan mengatakan SB 1047 membatasi kebebasan berpendapat. . Tahun lalu, CEO Google Sundar Pichai dan eksekutif teknologi lainnya mendukung gagasan regulasi AI federal.
Anggota Kongres AS Ro Khanna, yang mewakili Silicon Valley, merilis pernyataan menentang SB 1047 pada hari Selasa. Dia menyatakan keprihatinannya bahwa undang-undang tersebut “akan menjadi kontraproduktif, menghukum usaha kecil dan usaha kecil, dan merugikan semangat kreatif California.”
Silicon Valley biasanya tidak suka jika California memberlakukan undang-undang teknologi yang luas seperti ini. Pada tahun 2019, Big Tech mengeluarkan kebijakan serupa ketika undang-undang privasi federal lainnya, Undang-Undang Privasi Konsumen California, mengancam akan mengubah wajah teknologi. Silicon Valley menentang RUU tersebut, dan beberapa bulan sebelum diberlakukan, pendiri Amazon Jeff Bezos dan 50 eksekutif lainnya menulis surat terbuka yang menyerukan RUU swasta sebagai gantinya.
Apa yang telah terjadi?
Pada tanggal 15 Agustus, SB 1047 akan dikirim ke Senat California dengan segala amandemen disetujui. Di situlah RUU “hidup atau mati” di Senat California, menurut Wiener. Perjanjian ini diperkirakan akan berakhir berkat dukungan anggota parlemen sejauh ini.
Anthropic mengusulkan beberapa amandemen terhadap SB 1047 pada akhir Juli, yang menurut Wiener sedang dipertimbangkan secara aktif oleh dia dan komite legislatif Senat California. Anthropic adalah pengembang kecerdasan buatan pertama yang secara terbuka menunjukkan bahwa mereka ingin bekerja sama dengan Wiener pada SB 1047, meskipun mereka tidak mendukung RUU tersebut saat ini. Hal ini dipandang sebagai kemenangan RUU tersebut.
Perubahan yang diusulkan Anthropic termasuk mencabut FMD, membatasi kewenangan Jaksa Agung untuk mengadili pengembang AI sebelum ancaman terjadi, dan menghapus perlindungan pelapor di SB 1047. Wiener mengatakan dia optimis dengan perubahan ini, tetapi perubahan tersebut perlu disetujui oleh beberapa pihak. Sebelum komite legislatif Senat menambahkannya ke dalam RUU tersebut.
Jika SB 1047 disahkan Senat, RUU tersebut akan dikirim ke Gubernur California Gavin Newsom dan dia akan memutuskan untuk menandatangani RUU tersebut menjadi undang-undang pada akhir Agustus. Wiener mengatakan dia belum berbicara dengan Newsom tentang RUU tersebut, dan tidak mengetahui statusnya.
RUU tersebut tidak langsung berlaku karena PMK harus dilaksanakan pada tahun 2026. Selain itu, jika RUU tersebut disahkan, ada kemungkinan akan menghadapi tantangan hukum sebelum hal tersebut terjadi, mungkin dari kelompok yang sama yang sedang membicarakannya sekarang.