Minggu ini AI: AI tidak akan mengakhiri dunia – namun sangat berbahaya

Hai teman-teman, selamat datang di buletin AI reguler TechCrunch.

Minggu ini di bidang AI, penelitian baru menunjukkan bahwa AI buatan tidak berbahaya – setidaknya tidak secara apokaliptik.

Dalam makalah yang dipresentasikan pada pertemuan tahunan Asosiasi Linguistik Komputasi, para peneliti dari Universitas Bath dan Universitas Darmstadt berpendapat bahwa model seperti keluarga Meta Llama tidak dapat belajar sendiri atau memperoleh keterampilan baru tanpa instruksi yang jelas.

Para peneliti melakukan ribuan tes untuk menguji kemampuan beberapa sampel dalam menyelesaikan tugas yang belum pernah mereka temui sebelumnya, seperti menjawab pertanyaan tentang topik yang berada di luar bidang studinya. Mereka menemukan bahwa meskipun para model dapat mengikuti instruksi secara dangkal, mereka tidak dapat mempelajari keterampilan baru dengan sendirinya.

“Penelitian kami menunjukkan bahwa ketakutan bahwa model tersebut akan meledak dan melakukan hal-hal yang tidak terduga, baru, dan berbahaya tidaklah benar,” kata Harish Tayyar Madabushi, ilmuwan komputer di Universitas Bath dan salah satu penulis studi tersebut. kata-kata. “Narasi yang ada bahwa AI jenis ini merupakan ancaman bagi umat manusia menghambat penyebaran teknologi ini, dan mengalihkan perhatian kita dari hal-hal nyata yang perlu kita pikirkan.”

Ada batasan pada kursus ini. Para peneliti tidak menguji model yang lebih baru dan lebih andal dari vendor seperti OpenAI dan Anthropic, dan model pengujian tersebut merupakan ilmu yang tidak dapat dijelaskan. Namun penelitian ini bukanlah penelitian pertama yang menemukan bahwa teknologi AI modern tidak menimbulkan ancaman bagi umat manusia – dan berpikir sebaliknya berisiko membuat kesimpulan yang mengecewakan.

Dalam sebuah opini di Scientific American tahun lalu, ahli etika AI Alex Hanna dan profesor linguistik Emily Bender berpendapat bahwa laboratorium industri AI salah mengira pengamatan peristiwa global hipotetis sebagai cara untuk mengendalikan manusia. Dia mengutip penampilan CEO OpenAI Sam Altman pada konferensi Mei 2023, di mana dia menyatakan – tanpa bukti – bahwa alat kecerdasan buatan dapat “membuat kesalahan.”

“Banyak lembaga pemerintah dan regulator seharusnya tidak melakukan hal ini,” tulis Hanna dan Bender. “Sebaliknya, kita perlu mencari para ahli dan aktivis yang telah melalui tinjauan sejawat dan telah kembali ke hype AI untuk mencoba memahami apa yang merugikan saat ini.”

Hal tersebut dan Madabushi adalah poin penting yang perlu diingat karena investor terus menggelontorkan miliaran dolar untuk output AI dan trennya mendekati puncaknya. Ada banyak hal yang dipertaruhkan bagi perusahaan-perusahaan di balik teknologi AI, dan apa yang baik bagi mereka – dan para pendukung mereka – tidak baik bagi kita semua.

AI generatif mungkin tidak akan menghancurkan kita. Namun hal ini sudah menimbulkan dampak buruk – lihatlah penyebaran pornografi ilegal, ekspresi wajah yang salah, dan banyaknya komentator yang dibayar rendah. Para pembuat kebijakan berharap bahwa mereka juga akan melihat hal ini dan berbagi ide-idenya – atau sampai pada akhirnya. Jika tidak, mungkin ada sesuatu yang perlu ditakutkan oleh masyarakat.

Cerita

Google Gemini dan AI, astaga: Acara tahunan Google Made By Google berlangsung pada hari Selasa, dan perusahaan mengumumkan sejumlah pembaruan pada asisten Gemini – termasuk ponsel, headphone, dan jam tangan pintar baru. Lihat liputan TechCrunch untuk informasi terbaru.

Baca juga:  Layar Penel Pandai Berteknologi Voice Tracking Camera Diperkenalkan

Tuntutan hak cipta AI sedang berlangsung: Gugatan class action yang diajukan oleh seniman yang mengklaim Stability AI, Runway AI, dan DeviantArt melatih AI mereka dalam karya berhak cipta mungkin akan dilanjutkan, tetapi sebagian, keputusan hakim utama pada hari Senin. Dalam putusan yang beragam, sebagian besar tuntutan penggugat ditolak sementara sebagian lainnya tetap bertahan, yang berarti gugatan tersebut masih dapat diajukan ke pengadilan.

Masalah dengan X dan Grok: X, jejaring sosial milik Elon Musk, menjadi sasaran serangkaian keluhan privasi setelah menggunakan data pengguna di Uni Eropa untuk melatih model AI tanpa meminta persetujuan masyarakat. X telah setuju untuk berhenti memproses data UE dengan melatih Grok – untuk saat ini.

YouTube menguji pikiran Gemini: YouTube sedang mencoba berintegrasi dengan Gemini untuk membantu pembuat konten berbagi ide, judul, dan gambar mini video. Disebut Brainstorm dan Gemini, fitur ini tersedia untuk pengembang tertentu sebagai bagian dari uji coba terbatas.

GPT-4o OpenAI memberikan keajaiban: GPT-4o OpenAI adalah model pembelajaran mesin pertama di industri untuk teks dan gambar. Dan hal ini menyebabkan mereka terkadang melakukan hal-hal aneh – seperti menirukan suara lawan bicara atau berteriak sembarangan di tengah percakapan.

Makalah penelitian mingguan

Ada banyak sekali perusahaan di luar sana yang menawarkan alat yang mereka klaim dapat mengidentifikasi teks yang ditulis dengan tipe AI dengan andal, yang dapat berguna, misalnya, untuk memerangi pemalsuan dan pencurian. Namun ketika kami mencobanya sebentar, perangkat tersebut tidak berfungsi. Dan sebuah studi baru menunjukkan bahwa segala sesuatunya tidak berjalan sebaik ini.

Para peneliti di UPenn membuat database dan dasbor, Robust AI Detector (RAID), yang berisi lebih dari 10 juta resep, artikel, postingan blog, dan banyak lagi yang dibuat dan ditulis oleh AI untuk mengukur kinerja pendeteksi dokumen AI. Mereka menemukan bahwa tes yang mereka uji “tidak ada gunanya” (dalam kata-kata para peneliti), tes tersebut hanya berhasil jika digunakan dalam situasi dan teks tertentu yang serupa dengan apa yang diajarkan kepada mereka.

“Jika universitas atau sekolah mengandalkan penganalisis semi-terlatih untuk melakukan pekerjaan siswa (AI generatif) dalam proses rekrutmen, mereka mungkin berpura-pura bahwa siswanya melakukan kecurangan padahal sebenarnya tidak,” Chris Callison-Burch, profesor ilmu komputer dan teknologi Informasi. sains adalah salah satu penulis penelitian ini, katanya dalam sebuah pernyataan. “Mereka mungkin juga merindukan siswa yang menyontek dengan menggunakan kecerdasan buatan (AI) untuk mengerjakan pekerjaan rumah.”

Tampaknya tidak ada solusi jitu dalam hal pengenalan teks AI – masalahnya tidak dapat diatasi.

Menurut laporan, OpenAI sendiri telah mengembangkan alat pengenalan dokumen baru untuk model AI-nya – sebuah perubahan dari upaya pertama perusahaan tersebut – namun menolak untuk merilisnya karena khawatir hal itu dapat membingungkan pengguna non-Inggris dan membuatnya tidak efektif jika hanya dilakukan sedikit perubahan. kata-kata. (Sayangnya, OpenAI juga dikatakan khawatir tentang bagaimana kecerdasan buatan (AI) dapat memengaruhi persepsi — dan penggunaan — produk-produknya.)

Baca juga:  Permintaan akan AI mendorong penggunaan air di dunia ke tingkat yang baru

Contoh minggu ini

Tampaknya AI generatif lebih baik daripada meme. Peneliti MIT menggunakannya untuk memecahkan masalah dalam sistem kompleks seperti turbin angin.

Tim Lab Ilmu Komputer dan Kecerdasan Buatan MIT mengembangkan kerangka kerja, yang disebut SigLLM, yang mencakup komponen untuk mengubah data waktu – pengukuran yang dilakukan berulang kali dari waktu ke waktu – menjadi informasi berbasis teks yang dapat diproses oleh model AI. Pengguna dapat memasukkan data terprogram ke model dan memintanya untuk mulai mendeteksi kesalahan. Model ini juga dapat digunakan untuk peramalan jangka panjang sebagai bagian dari jalur deteksi kesalahan.

Kerangka kerja tersebut tidak berfungsi dengan cara yang khusus baik dalam percobaan para peneliti. Namun jika kinerjanya dapat ditingkatkan, SigLLM dapat, misalnya, membantu teknisi mengidentifikasi potensi masalah pada peralatan seperti alat berat sebelum masalah tersebut terjadi.

“Karena ini adalah iterasi pertama, kami tidak menyangka akan mencapai hal tersebut untuk pertama kalinya, namun hasil ini menunjukkan bahwa ada peluang untuk memperluas (model AI) ke deteksi masalah yang kompleks,” kata Sarah Alnegheimish, seorang insinyur listrik. mahasiswa pascasarjana di bidang teknik dan ilmu komputer dan penulis utama makalah di SigLLM, mengatakan dalam sebuah pernyataan.

Ambil tas

OpenAI telah meningkatkan ChatGPT, platform chatbot bertenaga AI, ke versi baru bulan ini – tetapi OpenAI belum merilis pengubah (ya, itu tidak akan berubah).

Jadi apa yang harus dilakukan? Apa dia bisa salah satunya, tepatnya? Tidak ada yang bisa dilakukan kecuali bukti yang tak terbantahkan dari tes subjektif.

Saya rasa Ethan Mollick, seorang profesor di Wharton yang mempelajari AI, inovasi, dan startup, memiliki ide yang tepat. Sulit untuk mendokumentasikan keluaran model AI karena model “terasa” berbeda dari satu interaksi ke interaksi lainnya; mereka sebagian besar berbasis getaran. Pada saat yang sama, orang-orang menggunakan – dan membayar – ChatGPT. Bukankah seharusnya mereka tahu apa yang sedang mereka hadapi?

Mungkin saja perubahan ini semakin berkembang, dan OpenAI berpendapat bahwa tidak bijaksana untuk menunjukkan hal ini karena alasan persaingan. Terlebih lagi, model tersebut dalam beberapa hal terkait dengan pencapaian OpenAI. Terlepas dari itu, dalam kaitannya dengan AI, transparansi harus menjadi kuncinya. Tidak ada kepercayaan tanpanya – dan OpenAI telah kehilangan banyak hal.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *