Minggu ini di AI: OpenAI beralih dari keamanan

Memiliki bisnis yang bergerak cepat seperti AI adalah hal yang sulit. Jadi, hingga AI dapat melakukannya untuk Anda, inilah berita terbaru dari seluruh dunia tentang pembelajaran mesin, serta penelitian dan eksperimen penting yang belum kami liput sendiri.

Omong-omong, TechCrunch berencana segera meluncurkan buletin AI. Dengarkan dirimu sendiri. Sementara itu, kami meningkatkan konten AI kami, yang sebelumnya bersifat dua bulanan (atau lebih), menjadi mingguan – jadi pantau terus pembaruan lainnya.

Minggu ini di AI, OpenAI sekali lagi mendominasi saluran berita (terlepas dari upaya Google) dan juga meluncurkan iklan untuk kepentingan istana. Perusahaan tersebut meluncurkan GPT-4o, model produksinya yang paling mumpuni, dan beberapa hari kemudian perusahaan tersebut membubarkan tim yang mengerjakan kontrol desain yang rumit untuk mencegah sistem AI “cerdas” menjadi rusak.

Pembubaran tim tentu saja menjadi berita utama. Laporan – termasuk laporan kami – menunjukkan bahwa OpenAI telah meninggalkan penelitian keamanan grup tersebut dan memilih fitur-fitur baru seperti GPT-4o yang disebutkan di atas, yang menyebabkan pengunduran diri pendahulu grup tersebut, Jan Leike dan salah satu pendiri OpenAI Ilya Sutskever.

Pada saat ini, AI super cerdas lebih merupakan teori daripada kenyataan; tidak jelas kapan – atau apakah – perusahaan teknologi akan mencapai terobosan yang diperlukan untuk menciptakan AI yang mampu melakukan tugas apa pun yang dapat dilakukan manusia. Namun rilis minggu ini tampaknya mengkonfirmasi satu hal: bahwa kepemimpinan OpenAI – terutama CEO Sam Altman – telah memutuskan untuk memprioritaskan produktivitas daripada keamanan.

Altman mengatakan dia “mengganggu” Sutskever dengan terburu-buru meluncurkan produk bertenaga AI pada konferensi OpenAI pertama November lalu. Dan dia dikatakan telah menantang Helen Toner, direktur Pusat Keamanan dan Teknologi Berkembang Georgetown dan mantan anggota dewan OpenAI, dalam sebuah makalah yang dia tulis bersama yang menyajikan pendekatan OpenAI terhadap keamanan di lingkungan yang kompleks — sampai pada titik tertentu. mencoba mengeluarkannya dari papan.

Selama setahun terakhir, OpenAI telah membiarkan chatbots dibanjiri spam dan (diduga) menghapus konten dari YouTube terhadap pengguna platform tersebut sambil menyatakan keinginannya agar AI-nya menghasilkan gambar-gambar pornografi dan berdarah. Memang benar bahwa keamanan tampaknya berada di belakang perusahaan – dan semakin banyak peneliti keamanan OpenAI yang sampai pada kesimpulan bahwa pekerjaan mereka akan lebih didukung di tempat lain.

Berikut beberapa cerita AI dari beberapa hari terakhir:

  • OpenAI + Reddit: Dalam berita OpenAI lainnya, perusahaan telah bermitra dengan Reddit untuk menggunakan data yang ditemukan di situs pemodelan AI. Wall Street menyambut baik kesepakatan tersebut dengan tangan terbuka – tetapi pengguna Reddit tidak senang.
  • AI Google: Google mengadakan konferensi I/O tahunannya minggu ini, tempat peluncurannya berjemur produk AI. Kami memiliki semuanya di sini, mulai dari hasil produksi video Veo hingga hasil koreksi AI di Google Penelusuran hingga kemajuan perangkat lunak chatbot Gemini Google.
  • Antropik mempekerjakan Krieger: Mike Krieger, salah satu pendiri Instagram dan, baru-baru ini, salah satu pendiri aplikasi berita populer Artifact (yang baru-baru ini diakuisisi oleh perusahaan induk TechCrunch, Yahoo), akan bergabung dengan Anthropic sebagai chief product officer perusahaan. Dia akan mengawasi upaya konsumen dan bisnis.
  • AI untuk anak-anak: Anthropic mengumumkan minggu lalu bahwa mereka akan mulai mengizinkan pengembang untuk membuat aplikasi dan alat yang berfokus pada anak-anak yang dibangun berdasarkan model AI-nya – selama mereka mengikuti aturan tertentu. Secara khusus, pesaing seperti Google menolak AI mereka dibangun ke dalam perangkat lunak yang terlalu muda.
  • Di festival film: Para pendiri AI Runway mengadakan festival film AI kedua mereka awal bulan ini. Kontainer? Beberapa momen paling kuat dalam pertunjukan ini bukan berasal dari AI, melainkan dari faktor manusia.
Baca juga:  LinkedIn akan mengurangi iklan bertarget di UE setelah adanya keluhan tentang penggunaan data

Informasi lebih lanjut tentang mesin

Keamanan AI jelas menjadi fokus minggu ini dengan keluarnya OpenAI, namun Google Deepmind terus maju dengan “Frontier Safety Framework” yang baru. Pada dasarnya ini adalah cara organisasi untuk mendeteksi dan melindungi segala kemungkinan – tidak harus AGI, bisa saja merupakan penghasil kejahatan gila atau semacamnya.

Kredit gambar: Google Pikiran Dalam

Proses ini memiliki tiga langkah: 1. Identifikasi potensi kerugian dalam model dengan membandingkan metode pengembangan. 2. Periksa sampel secara teratur untuk melihat apakah sampel telah mencapai “tingkat kritis” yang diketahui. 3. Gunakan rencana mitigasi untuk menghindari pelepasan (oleh orang lain atau secara pribadi) atau menimbulkan masalah. Ada lebih banyak lagi di sini. Ini mungkin terdengar seperti daftar hal-hal yang jelas, tetapi penting untuk melakukannya secara berurutan atau semua orang akan bertindak seolah-olah mereka baru saja melakukannya. Begitulah cara Anda mendapatkan AI yang buruk.

Ancaman berbeda telah diidentifikasi oleh para peneliti Cambridge, yang prihatin dengan semakin banyaknya chatbot yang dilatih pada data orang mati untuk memberikan gambaran tentang orang tersebut. Anda mungkin (seperti saya) menganggap keseluruhan gagasan ini agak tidak menyenangkan, tetapi gagasan ini dapat digunakan dalam manajemen kesedihan dan situasi lain jika kita berhati-hati. Masalahnya adalah kita tidak peduli.

Kredit gambar: Universitas Cambridge / T. Hollanek

“Area AI ini adalah ladang ranjau,” kata ketua peneliti Katarzyna Nowaczyk-Basińska. “Kita perlu mulai berpikir sekarang tentang bagaimana mengurangi risiko kehidupan digital dan psikologis, karena teknologi telah hadir.” Tim mengidentifikasi banyak penipuan, baik dampak negatif maupun positif, dan mendiskusikan konsep tersebut beberapa kali (termasuk pekerjaan palsu) dalam makalah yang diterbitkan di Philosophy & Technology. Cermin hitam memprediksi masa depan lagi!

Dalam penerapan AI yang paling sulit, para ilmuwan di MIT sedang mencari alat yang berguna (bagi mereka) untuk memprediksi suatu bagian atau bagian tubuh, biasanya tugas komputasi yang dapat menjadi semakin sulit dengan sistem yang sangat kompleks. Namun latih mesin pembelajaran dengan data yang benar dan lapisi dengan beberapa alat pembelajaran mesin populer dan Anda memiliki cara hebat untuk melakukannya. Contoh lain tentang bagaimana ML menemukan ceruk pasar bahkan dalam sains tingkat lanjut.

Baca juga:  Looking Glass memperkenalkan tampilan 3D baru

Di CU Boulder, dia berbicara tentang bagaimana AI dapat digunakan dalam manajemen bencana. Teknologi dapat berguna untuk memprediksi dengan cepat di mana hal-hal akan dibutuhkan, menghancurkan peta, dan bahkan membantu melatih petugas tanggap darurat, namun (dapat dimengerti) orang-orang ragu untuk menggunakannya dalam situasi hidup dan mati.

Peserta pertemuan.
Kredit gambar: INI Batu Besar

Profesor Amir Behzadan mencoba untuk mengambil langkah maju, dengan mengatakan bahwa “AI yang berpusat pada manusia akan menghasilkan respons bencana dan proses pemulihan yang lebih baik dengan mendorong kerja sama, pemahaman, dan inklusi di antara anggota, penyintas, dan korban.” Ini masih dalam tahap perakitan, namun penting untuk memikirkan hal-hal ini sebelum mencoba, misalnya, mendistribusikan bantuan setelah badai.

Terakhir, sebuah proyek menarik dari Disney Research, yang membahas cara memodifikasi keluaran model serupa, yang dapat menghasilkan hasil serupa berulang kali pada data lain. Jawaban mereka? “Metode pengambilan sampel kami meningkatkan deteksi dengan menambahkan noise standar, yang mengurangi noise Gaussian ke sistem pemrosesan selama inferensi dan korelasi.” Saya sendiri tidak bisa mengatakannya dengan lebih baik.

Kredit gambar: Penelitian Disney

Hasilnya adalah variasi yang lebih besar dalam sudut, pengaturan, dan tampilan umum pada gambar keluaran. Terkadang Anda menginginkannya, terkadang tidak, tetapi beruntunglah adalah hal yang baik.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *