Zuckerberg berbagi visi terbaru untuk Meta AI dengan CEO Nvidia Jensen Huang

Meta sukses besar tahun lalu dengan Every Part, sebuah algoritma pembelajaran mesin yang dapat dengan cepat dan andal mengidentifikasi dan mendeskripsikan segala sesuatu dalam sebuah gambar. Yang terakhir, yang diperkenalkan oleh CEO Mark Zuckerberg di panggung SIGGRAPH pada hari Senin, mengambil contoh dari bioskop, menunjukkan bagaimana kemajuan di bidang ini.

Segmentasi adalah istilah teknis di mana seorang visioner melihat sebuah gambar dan memisahkan bagian-bagiannya: “ini seekor anjing, ini adalah pohon di belakang anjing” semoga, bukan “ini adalah pohon yang tumbuh di dalam seekor anjing”. Hal ini telah berlangsung selama bertahun-tahun, namun akhir-akhir ini menjadi lebih baik dan lebih cepat, dengan Every Stage menjadi sebuah langkah maju yang besar.

Section Everything 2 (SA2) adalah hasil natural karena berfungsi secara alami untuk video dan bukan hanya gambar; meskipun Anda tentu saja dapat menjalankan contoh pertama untuk setiap video satu per satu, hal ini tidak terlalu efisien.

“Para ilmuwan menggunakan hal-hal ini untuk mempelajari, seperti terumbu karang dan lingkungan alam, hal-hal seperti itu. Tapi bisa melakukan ini dalam video dan merekamnya dan mengatakan apa yang Anda inginkan, itu luar biasa,” kata Zuckerberg dalam percakapan dengan CEO Nvidia Jensen. Huang.

Pemrosesan video sangatlah penting, dan ini merupakan bukti kemajuan yang dicapai di seluruh industri bahwa SA2 dapat dijalankan tanpa melelehkan hard drive. Tentu saja, ini masih merupakan model besar yang memerlukan perangkat keras besar untuk beroperasi, namun distribusi yang cepat dan fleksibel belum memungkinkan bahkan setahun yang lalu.

Kredit gambar: Memangkas

Modelnya, seperti yang pertama, akan terbuka dan gratis untuk digunakan, dan tidak diketahui jenis model apa yang terkadang ditawarkan oleh perusahaan AI ini. Tapi ada demonstrasi gratis.

Baca juga:  Acara Apple 2024: iPhone 16, Apple Intelligence, dan pengungkapan 'Glowtime' lainnya yang diharapkan

Tentu saja model semacam ini membutuhkan banyak data untuk dilatih, dan Meta juga merilis database deskriptif besar berisi 50.000 video yang dibuat untuk tujuan ini. Dalam makalah yang menjelaskan SA2, database lain yang berisi lebih dari 100.000 video “tersedia secara internal” juga digunakan untuk pelatihan, dan yang ini tidak diungkapkan – Saya telah meminta Meta untuk mencari tahu lebih lanjut tentang apa ini dan mengapa tidak dirilis. . (Kami pikir itu dari profil Instagram dan Facebook publik.)

Contoh data instruksional tertulis.
Kredit gambar: Memangkas

Meta telah menjadi pemimpin dalam domain AI “terbuka” selama beberapa tahun, meskipun sebenarnya (seperti yang dipilih Zuckerberg dalam wawancara) telah melakukan hal ini sejak lama, dengan alat seperti PyTorch. Namun baru-baru ini, LLaMa, Segment Anything, dan beberapa rilis gratis lainnya telah menjadi titik akses AI utama di area ini, meskipun “keterbukaan” mereka masih menjadi perdebatan.

Zuckerberg mengatakan keterbukaan tidak didasari oleh kebaikan hati mereka di Meta, namun bukan berarti niat mereka kotor:

“Ini bukan seperti sebuah program yang dapat Anda buat – Anda memerlukan lingkungan yang mendukungnya. Ini hampir tidak akan berhasil jika kami tidak menjadikannya open source, bukan? Kami tidak melakukan ini karena kami ahli, meskipun Saya pikir ini mungkin baik bagi lingkungan – kami melakukannya karena kami pikir ini akan menciptakan sesuatu yang kami bangun.”

Bagaimanapun, itu akan dimanfaatkan dengan baik. Lihat GitHub di sini.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *