youngster.id - Lebih dari 100 pemodal ventura (VC) telah menginvestasikan US$6 miliar lebih sejak tahun 2018 ke dalam 25 perusahaan rintisan teratas chip kecerdasan buatan/artificial intelligence (AI), berdasarkan Top IA Hardware Startups Market Radar Omdia yang baru.
Namun, meski tahun 2021 akan dikenang sebagai tahun yang luar biasa, tampak jelas bahwa lingkungan pendanaan telah berubah. Transisi dari kurangnya chip global menjadi krisis persediaan, titik balik dalam kebijakan moneter, dan penurunan ekonomi pada tahun 2022 berarti penggalangan pendanaan kini lebih menantang.
“Perusahaan rintisan terbaik chip AI yang mendapat pendanaan berada di bawah tekanan untuk memberikan jenis pengembang dukungan perangkat lunak yang digunakan oleh pemimpin pasar, NVIDIA. Ini merupakan hambatan utama untuk mendapatkan teknologi chip AI yang baru ke pasar,” ungkap Analis Utama Omdia untuk Komputasi Lanjutan, Alexander Harrowell, dalam keterangan tertulis Selasa (21/2/2023).
Omdia memperkirakan bahwa kemungkinan lebih dari satu perusahaan rintisan besar akan tersingkir tahun ini. Boleh jadi melalui “trade sale” ke penyedia cloud hyperscale atau produsen chip utama.
“Jalan keluar yang paling memungkinkan barangkali adalah melalui ‘trade sale’ ke vendor besar,” ujar Harrowell.
Menurut Harrowell, Apple memiliki US$23 miliar kas pada neracanya dan Amazon US$35 miliar. Sementara itu Intel, NVIDIA, dan AMD memiliki sejumlah US$10 miliar di antara mereka. “Para hyperscaler sangat tertarik untuk mengadopsi silikon AI kustom, dan mereka mampu mempertahankan keterampilan yang terlibat,” tambahnya.
Omdia juga menemukan bahwa setengah dari pendanaan VC sebesar US$6 miliar selama periode waktu ini telah diarahkan ke satu teknologi saja – akselerator CGRA cetakan besar, yang sering kali dirancang dengan tujuan memuat seluruh model AI pada chip.
Namun, ada sejumlah pertanyaan tentang pendekatan ini, mengingat pertumbuhan model AI yang berkesinambungan.
“Pada tahun 2018 dan 2019, ide tersebut menjadikan seluruh model memori pada chip masuk akal, karena pendekatan ini menawarkan latensi yang sangat rendah dan menjawab masalah input/output dari model AI besar. Namun, model tersebut terus berkembang dengan pesat sejak saat itu, membuat skalabilitas menjadi masalah yang sangat penting. Model yang lebih terstruktur dan kompleks secara internal berarti prosesor AI harus menawarkan programabilitas untuk tujuan umum. Dengan demikian, masa depan prosesor AI dapat berada pada arah yang berbeda,” pungkas Harrowell. (*AMBS)
Discussion about this post