Hai teman-teman, selamat datang di buletin AI TechCrunch. Jika Anda ingin ini masuk ke kotak masuk Anda setiap hari Rabu, daftar di sini.
Sudah beberapa hari sejak OpenAI meluncurkan versi terbarunya, o1, kepada dunia. Dipasarkan sebagai model “berpikir”, o1 menghabiskan banyak waktu “berpikir” sebelum menjawab pertanyaan, memecahkan masalah, dan mencari jawaban.
Ada banyak hal yang o1 tidak dapat lakukan dengan baik – dan OpenAI mengakui hal itu. Namun untuk beberapa tugas, seperti fisika dan matematika, o1 unggul meskipun parameternya lebih sedikit dibandingkan versi performa terbaik OpenAI sebelumnya, GPT-4o. (Dalam AI dan pembelajaran mesin, “bagian”, sering kali miliaran, sesuai dengan kemampuan model untuk memecahkan masalah.)
Dan ini juga mempengaruhi pengendalian AI.
misalnya, undang-undang SB 1047 California, memberlakukan persyaratan keamanan pada model AI yang membutuhkan biaya pengembangan lebih dari $100 juta atau dilatih untuk menggunakan daya komputasi melampaui batas tertentu. Namun merek seperti o1 menunjukkan bahwa meningkatkan pendidikan bukanlah satu-satunya cara untuk meningkatkan kinerja merek.
Dalam sebuah postingan di X, manajer riset Nvidia, Jim Fan mengatakan bahwa mesin AI di masa depan mungkin mengandalkan “pikiran” yang lebih kecil dan lebih mudah dilatih daripada arsitektur fisik (misalnya, Meta’s Llama 405B) yang mendominasinya. tren dalam waktu dekat. Penelitian terbaru, katanya, menunjukkan bahwa merek kecil seperti o1 dapat mengungguli merek besar jika diberi lebih banyak waktu untuk mengikuti kuis.
Jadi, apakah tidak ada salahnya bagi pembuat kebijakan untuk membangun sistem AI agar dapat memperhitungkan permasalahan tersebut? Ya, kata Sara Hooker, kepala penelitian AI di startup Cohere, dalam sebuah wawancara dengan TechCrunch:
(o1) jenis indikator yang diwakili oleh hipotesis, menggunakan ukuran sampel sebagai proksi risiko. Itu tidak memperhitungkan semua hal yang dapat Anda lakukan dengan mendefinisikan atau menjalankan model. Bagi saya, ini adalah kombinasi ilmu pengetahuan yang buruk dan fakta yang menekankan tidak hanya bahaya yang kita lihat di dunia ini, namun juga bahaya di masa depan.
Sekarang, apakah ini berarti bahwa pembuat kebijakan harus mencabut pinjaman AI dari yayasan mereka dan memulai kembali? TIDAK. Kebanyakan dari mereka ditulis agar mudah diubah, dengan asumsi bahwa AI akan lebih banyak berubah daripada implementasinya. Misalnya, RUU Kalifornia akan memberikan kekuasaan kepada Pemerintah Negara Bagian untuk mendefinisikan kembali apa yang dimaksud dengan pembelaan konstitusi.
Bagian yang memvalidasi harus mengetahui metriknya bisa jadi proksi risiko yang lebih baik daripada perhitungan akademis. Seperti banyak bidang undang-undang AI lainnya, undang-undang ini perlu dipertimbangkan seiring dengan disahkannya undang-undang di seluruh Amerika Serikat – dan di seluruh dunia.
Cerita
Apa yang terjadi pertama kali di o1: Max melihat kesan pertama dari peneliti AI, pendiri startup, dan VC di o1 — dan menguji sendiri model tersebut.
Altman meninggalkan komite keamanan: CEO OpenAI, Sam Altman, mengundurkan diri dari komite pendiri yang juga mengawasi perlindungan merek seperti o1, mungkin sebagai tanggapan atas fakta bahwa mereka tidak akan melakukan diskriminasi.
Slack berubah menjadi pusat dukungan: Pada konferensi Dreamforce tahunan perusahaan induk Salesforce, Slack mengumumkan fitur-fitur baru, termasuk ringkasan pertemuan yang didukung AI dan integrasi dengan alat untuk pembuatan gambar dan pencarian yang didukung AI.
Google akan mulai mengumumkan gambar AI: Google mengatakan pihaknya berencana merilis pembaruan pada Google Penelusuran untuk memperjelas gambar mana yang dihasilkan AI atau dimodifikasi oleh alat AI.
Mistral memperkenalkan fitur gratis: Startup AI Perancis, Mistral, telah meluncurkan platform gratis baru yang memungkinkan pengembang mengontrol dan mengembangkan program pengujian dan model AI dasar dengan lebih baik.
Snap meluncurkan generator video: Pada konferensi Snap Partner tahunan pada hari Selasa, Snapchat mengumumkan bahwa mereka menghadirkan alat pengeditan video baru yang didukung AI kepada para pembuat konten. Alat ini akan memungkinkan pengguna terpilih untuk membuat video AI dari audio dan, segera, dari video.
Intel menandatangani kesepakatan chip yang besar: Intel mengatakan akan membangun kemitraan chip AI dengan AWS menggunakan proses pembuatan chip 18A Intel. Perusahaan-perusahaan tersebut menggambarkan kesepakatan itu sebagai “proyek multi-tahun bernilai miliaran dolar” yang akan mencakup desain chip tambahan.
AI unik Oprah: Oprah Winfrey menyajikan acara spesial tentang AI dengan tamu seperti Sam Altman dari OpenAI, Bill Gates dari Microsoft, influencer teknologi Marques Brownlee, dan direktur FBI saat ini Christopher Wray.
Makalah penelitian mingguan
Kita tahu AI bisa persuasif, tapi bisakah AI membuat seseorang terperosok ke dalam lubang kelinci? Ya, bukan itu saja. Namun model baru dari Costello dkk. di MIT dan Cornell mampu menghilangkan prasangka keyakinan negatif palsu yang bertahan selama berbulan-bulan.
Dalam percobaan ini, mereka meminta orang-orang yang percaya teori konspirasi (misalnya, “9/11 adalah pekerjaan orang dalam”) berbicara dalam obrolan yang dengan tenang, sabar, dan terus-menerus memberikan bukti yang menentang klaim mereka. Percakapan ini mengakibatkan para peserta melaporkan penurunan keyakinan terkait sebesar 20% dua bulan kemudian, setidaknya sejauh faktor-faktor ini dapat diukur. Berikut adalah contoh salah satu percakapan yang terjadi:
Kecil kemungkinan mereka yang terlalu mendalami reptil dan konspirasi pemerintah akan mempertanyakan atau memercayai AI seperti ini, namun teknik ini akan sangat berguna jika digunakan pada saat kritis seperti saat seseorang pertama kali terjun ke dalam pola pikir ini. Misalnya, jika seorang remaja menelusuri “Dapatkah bahan bakar jet melelehkan logam?” mereka mungkin mengalami masa pembelajaran, bukan masa yang menyedihkan.
Contoh minggu ini
Bukan model, tapi tentang model: Para peneliti di Microsoft minggu ini menerbitkan token AI yang disebut Eureka yang bertujuan (dalam kata-kata mereka) “untuk meningkatkan analisis (model) … secara bebas dan transparan.”
Tolok ukur AI sangat sedikit. Jadi apa yang membuat Eureka berbeda? Para peneliti mengatakan bahwa, untuk Eureka – yang sebenarnya merupakan daftar simbol yang ada – mereka memilih tugas yang sulit “bahkan untuk contoh terbaik sekalipun.” Secara khusus, Eureka menguji kemampuan yang sering diabaikan dalam tolok ukur AI, seperti kemampuan manajemen berbasis lokasi.
Untuk menunjukkan betapa tangguhnya Eureka pada model, para peneliti menguji sistem, termasuk Claude dari Anthropic, GPT-4o dari OpenAI, dan Llama dari Meta, dengan menggunakan benchmark. Tidak ada satu model pun yang berkinerja baik dalam seluruh pengujian Eureka, yang menurut para peneliti menekankan pentingnya “melanjutkan inovasi” dan “perbaikan yang dilakukan” pada model tersebut.
Ambil tas
Sebagai kemenangan bagi aktor profesional, California mengesahkan dua undang-undang, AB 2602 dan AB 1836, yang melarang penggunaan animasi digital AI.
Undang-undang tersebut, yang disponsori oleh SAG-AFTRA, serikat aktor, mengharuskan perusahaan yang mengandalkan format digital (misalnya, suara atau gambar yang dihasilkan) memberikan penjelasan “spesifik” mengenai penggunaan format tersebut dan bernegosiasi dengan aktor. penasihat hukum atau serikat pekerja. Hal ini juga mengharuskan pengusaha hiburan untuk mendapatkan izin dari harta milik orang yang meninggal sebelum menggunakan gambar orang tersebut.
Seperti yang ditunjukkan oleh The Hollywood Reporter dalam artikelnya, uang tersebut mencakup ide-ide yang diperjuangkan SAG-AFTRA dalam pertarungan 118 hari tahun lalu dengan studio dan platform streaming besar. California adalah negara bagian kedua setelah Tennessee yang memberlakukan pembatasan penggunaan pencitraan digital; SAG-AFTRA juga mendukung upaya Tennessee.