Awal dari bahasa Prancis telah mengumpulkan sejumlah besar uang untuk “membangun kembali infrastruktur” bagi pengembang yang ingin membangun dan melatih AI dengan benar.
FlexAI, demikian perusahaan menyebutnya, telah beroperasi secara rahasia sejak Oktober 2023, tetapi perusahaan yang berbasis di Paris ini meluncurkannya pada hari Rabu dengan €28,5 juta ($30 juta), sambil menggoda produk pertamanya: layanan cloud on-demand. untuk kursus AI.
Ini adalah perubahan bertahap pada benih, yang biasanya mengacu pada tipe awal yang sebenarnya – dan begitulah yang terjadi sekarang. Salah satu pendiri dan CEO FlexAI Brijesh Tripathi sebelumnya adalah insinyur senior di raksasa GPU dan sekarang menjadi kesayangan AI Nvidia, sebelum pindah ke berbagai peran senior di bidang teknologi dan teknik di Apple; Tesla (bekerja langsung di bawah Elon Musk); Zoox (sebelum Amazon menemukan cara mengendarai mobil); dan, yang terbaru, Tripathi adalah VP cabang platform AI dan komputasi super Intel, AXG.
Salah satu pendiri FlexAI dan CTO Dali Kilani juga memiliki CV yang mengesankan, bekerja di berbagai peran teknologi di perusahaan termasuk Nvidia dan Zynga, dan baru-baru ini menjabat sebagai CTO di startup Prancis Lifen, yang mengembangkan alat digital untuk industri perawatan kesehatan.
Putaran unggulan dipimpin oleh Alpha Intelligence Capital (AIC), Elaia Partners, dan Heartcore Capital, dengan partisipasi dari Frst Capital, Motier Ventures, Partech, dan CEO InstaDeep Karim Beguir.
Menghitung teka-teki
Untuk memahami apa yang Tripathi dan Kilani coba lakukan dengan FlexAI, penting untuk memahami apa yang dihadapi oleh pengembang dan pakar AI dalam mengakses “komputasi”; Ini berarti kekuatan pemrosesan, infrastruktur, dan alat yang diperlukan untuk melakukan tugas komputasi seperti pemrosesan data, menjalankan algoritme, dan menjalankan model pembelajaran mesin.
“Menggunakan alat apa pun dalam AI itu sulit; ini bukan untuk orang yang lemah hati, dan bukan untuk orang yang tidak berpengalaman,” kata Tripathi kepada TechCrunch. “Anda perlu tahu banyak tentang cara membangun infrastruktur sebelum dapat menggunakannya.”
Sebaliknya, lingkungan cloud publik yang telah berkembang selama beberapa dekade terakhir adalah contoh yang baik tentang bagaimana perusahaan telah berevolusi dari kebutuhan pengembang untuk membuat perangkat lunak tanpa terlalu mengkhawatirkan backend.
“Jika Anda seorang pengembang kecil dan ingin menulis sebuah aplikasi, Anda tidak perlu tahu di mana aplikasi itu berjalan, atau di mana backendnya berada – Anda hanya perlu melihat contoh EC2 (Amazon Elastic Compute cloud) dan kamu sudah selesai, kata Tripathi. “Anda tidak dapat melakukan hal tersebut dengan komputasi AI saat ini.”
Di bidang AI, pengembang harus menentukan berapa banyak GPU (unit pemrosesan grafis) yang mereka perlukan untuk terhubung ke jenis jaringan apa, yang dikendalikan oleh perangkat lunak yang menjadi tanggung jawab mereka untuk diterapkan. Jika GPU atau jaringan gagal, atau ada masalah dalam rangkaiannya, tanggung jawab ada pada produsen untuk memperbaikinya.
“Kami ingin membawa alat komputasi AI ke tingkat kesederhanaan yang sama dengan yang dicapai cloud – 20 tahun kemudian, ya, tapi tidak ada alasan mengapa komputasi AI tidak dapat memperoleh manfaat yang sama,” kata Tripathi. “Kami ingin mencapai titik di mana menjalankan pekerjaan AI tidak mengharuskan Anda menjadi ilmuwan data.”
Dengan iterasi terbaru produknya yang berjalan dengan beberapa pelanggan beta, FlexAI akan meluncurkan produk pertamanya akhir tahun ini. Ini adalah layanan cloud yang menghubungkan pengembang ke “komputasi diskrit”, yang berarti mereka dapat menjalankan proyek mereka dan menerapkan model AI dalam berbagai desain, membayar per penggunaan dibandingkan menyewa GPU seharga satu dolar per jam.
GPU sangat penting untuk pengembangan AI, misalnya, pelatihan dan menjalankan model linguistik skala besar (LLM). Nvidia adalah salah satu pemain terkemuka di bidang GPU, dan salah satu penerima manfaat terbesar dari revolusi AI yang dipelopori oleh OpenAI dan ChatGPT. Dalam 12 bulan sejak OpenAI meluncurkan ChatGPT API pada Maret 2023, yang memungkinkan pengembang menggunakan ChatGPT ke dalam aplikasi mereka sendiri, saham Nvidia telah meningkat dari sekitar $500 miliar menjadi $2 triliun.
LLM bermunculan di industri teknologi, seiring dengan meningkatnya permintaan GPU. Namun GPU mahal untuk dijalankan, dan menyewanya dari penyedia cloud untuk tugas-tugas kecil atau acara ad-hoc tidak masuk akal dan bisa mahal; Itu sebabnya AWS melakukan penyewaan jangka pendek untuk proyek AI kecil. Namun menyewa tetaplah menyewa, itulah sebabnya FlexAI ingin menghilangkan kerumitan dan membiarkan pelanggan mengakses komputasi AI sesuai permintaan.
“Multicloud untuk AI”
Premis FlexAI adalah sebagian besar pengembang tidak melakukannya Sebenarnya mereka mengurus bagian utama yang digunakan GPU atau chip, baik itu Nvidia, AMD, Intel, Graphcore atau Cerebras. Perhatian utama mereka adalah kemampuan mengembangkan AI dan mengembangkan perangkat lunak sesuai keterbatasan mereka.
Di sinilah konsep FlexAI tentang “komputasi AI universal” muncul, di mana FlexAI mengambil apa yang dibutuhkan pengguna dan memberikannya pada desain apa pun yang masuk akal untuk pekerjaan itu, menangani semua perubahan yang diperlukan pada platform yang berbeda, baik itu Intel Gaudi. arsitektur, Rocm AMD atau CUDA Nvidia.
Artinya, pengembang sedang mempertimbangkan untuk membangun, melatih, dan menggunakan model, kata Tripathi. “Kami mengurus semua yang ada di lapangan. Kegagalan, pemulihan, keandalan, semuanya dikelola oleh kami, dan Anda membayar untuk apa yang Anda gunakan. “
Dalam banyak hal, FlexAI berencana untuk mendorong AI yang telah diterapkan di cloud, yang berarti lebih dari sekadar model bayar sesuai pemakaian: Ini berarti kemampuan untuk beralih ke “multicloud” dengan memanfaatkan berbagai manfaat. untuk GPU dan chip yang berbeda.
Misalnya, FlexAI akan mendukung pelanggan berdasarkan prioritas mereka. Jika sebuah perusahaan memiliki anggaran terbatas untuk melatih dan menyempurnakan model AI mereka, mereka dapat mengintegrasikannya ke dalam platform FlexAI untuk mendapatkan hasil maksimal dalam komputasi. Ini mungkin berarti melewati Intel dengan harga yang lebih murah (tetapi dengan kecepatan yang lebih lambat), namun jika pengembang memiliki prosesor kecil yang memerlukan output lebih cepat, maka pengembang dapat menjalankannya melalui Nvidia.
Pada dasarnya, FlexAI pada dasarnya adalah “penambah permintaan”, yang menyewakan peralatan melalui saluran tradisional dan, menggunakan “hubungan kuat” dengan orang-orang dari Intel dan AMD, mengamankan harga pilihan yang tersebar di antara para pelanggannya. Ini tidak berarti beralih ke pemimpin Nvidia, tetapi ini berarti bahwa dalam skala besar – dengan Intel dan AMD berjuang untuk GPU yang tersisa setelah Nvidia – ada insentif besar bagi mereka untuk bermain sepak bola dengan integrator tersebut. seperti FlexAI.
“Jika saya bisa membuatnya berhasil bagi pelanggan dan mendatangkan ratusan pelanggan ke desain mereka, mereka (Intel dan AMD) akan sangat senang,” kata Tripathi.
Hal ini berbeda dengan pemain GPU cloud seperti CoreWeave dan Lambda Labs yang memiliki pendapatan lebih besar dan fokus pada perangkat keras Nvidia.
“Saya ingin membaca AI sampai pada titik di mana penggunaan cloud diperlukan,” kata Tripathi. “Anda tidak bisa melakukan multicloud dengan AI. Anda harus memilih perangkat keras sebenarnya, jumlah GPU, infrastruktur, konektivitas, dan menyimpannya sendiri. Saat ini, itulah satu-satunya cara untuk mendapatkan komputasi AI.”
Saat ditanya siapa saja pendirinya, Tripathi mengaku belum bisa menyebutkan semuanya karena belum adanya “kesepakatan” dari beberapa di antara mereka.
“Intel adalah partner yang menyediakan infrastruktur, dan AMD adalah partner yang menyediakan infrastruktur,” ujarnya. “Tetapi ada fase kedua kemitraan yang sedang berlangsung dengan Nvidia dan beberapa perusahaan silikon lainnya yang kami belum siap untuk membaginya, namun mereka semua sudah sepakat dan MOU (memorandum of Understanding) sedang ditandatangani saat ini.”
Hasil Elon
Tripathi diperlengkapi dengan baik untuk mengatasi tantangan di masa depan, setelah bekerja di beberapa perusahaan teknologi terbesar di dunia.
“Saya cukup tahu tentang GPU; Saya membuat GPU,” kata Tripathi tentang tujuh tahun yang ia habiskan di Nvidia, yang berakhir pada tahun 2007 ketika ia beralih ke Apple saat meluncurkan iPhone pertama. “Di Apple, saya fokus pada penyelesaian masalah nyata bagi pelanggan. Saya ada di sana ketika Apple mulai membuat SoC (system on chips) pertama mereka untuk ponsel. “
Tripathi juga menghabiskan dua tahun di Tesla dari 2016 hingga 2018 sebagai kepala teknik perangkat keras, di mana dia akhirnya bekerja langsung di bawah Elon Musk selama enam bulan terakhir setelah dua orang di puncak meninggalkan perusahaan secara tiba-tiba.
“Di Tesla, apa yang saya pelajari dan mulai saya lakukan adalah tidak ada hambatan selain sains dan fisika,” ujarnya. “Apa yang dilakukan saat ini bukanlah cara yang seharusnya atau diperlakukan. Anda harus mengikuti apa yang perlu Anda lakukan dengan prinsip dasar, dan untuk melakukan ini, hapus setiap kotak hitam. “
Tripathi terlibat dalam peralihan Tesla untuk membuat chipnya sendiri, sebuah langkah yang telah ditiru oleh GM dan Hyundai, serta produsen mobil lainnya.
“Salah satu hal pertama yang saya lakukan di Tesla adalah mencari tahu berapa banyak mikrokontroler di dalam mobil, dan untuk melakukan itu, kami harus memilih kotak hitam besar dengan pelindung logam dan pelindung di sekelilingnya. Masukkan pengontrol kecil ini ke sana,” kata Tripati. “Dan kami akhirnya menaruhnya di atas meja, memakainya dan berkata, ‘Elon, ada 50 mikrokontroler di dalam mobil. Dan terkadang kami membayar 1.000 dolar karena semuanya aman dan terjamin di dalam kotak logam besar.’ Dan dia berkata, ‘ayo kita buat sendiri.’ Dan kami melakukan itu.”
GPU sebagai jaminan
Melihat ke masa depan, FlexAI memiliki ambisi untuk otomatisasi dan pusat data. Hal ini, kata Tripathi, akan didukung oleh pembiayaan utang, berdasarkan perkembangan terkini yang menunjukkan bahwa pesaing termasuk CoreWeave dan Lambda Labs menggunakan chip Nvidia sebagai jaminan untuk mendapatkan pinjaman – daripada memberikan lebih banyak modal.
“Bank kini tahu cara menggunakan GPU sebagai jaminan,” kata Tripathi. “Mengapa kami memberikan keadilan? Sebelum kami benar-benar menjadi pemasok komputer, nilai perusahaan kami tidak akan cukup untuk menghasilkan ratusan juta dolar yang dibutuhkan untuk membangun pusat data. Jika kami adil, kami akan kehabisan uang. Namun jika kami menjual GPU tersebut sebagai jaminan, mereka dapat mengambil GPU tersebut dan menaruhnya di pusat data lain. “