youngster.id - Dengan kehadiran kecerdasan buatan (AI), permintaan dan keragaman beban kerja terus meningkat sehingga organisasi harus memiliki kapasitas dan sumber daya yang mumpuni. Sayangnya, data center umumnya didedikasikan terutama untuk sistem TI tradisional, sehingga hanya menyisakan sedikit ruang untuk mendukung beban kerja intensif.
Untuk menjawab kebutuhan ini, Red Hat dan AMD menyatukan kekuatan solusi open source terkemuka di industri Red Hat dengan portofolio lengkap arsitektur komputasi berkinerja tinggi AMD.
Senior Vice President and Chief Product Officer Red Hat Ashesh Badani mengatakan, organisasi harus memiliki pilihan dan fleksibilitas untuk mengoptimalkan jejak TI mereka untuk tuntutan peningkatan skala yang ketat.
“Kolaborasi kami yang diperluas dengan AMD memperluas spektrum opsi bagi organisasi yang ingin menyiapkan lingkungan TI mereka untuk masa depan yang terus berkembang, mulai dari memodernisasi investasi yang ada pada arsitektur CPU berperforma tinggi dan platform virtualisasi hingga mempersiapkan AI produksi dengan akselerator hardware generasi berikutnya dan teknologi AI open source,” katanya dikutip Rabu (21/5/2025).
Red Hat dan AMD menggabungkan kekuatan Red Hat AI dengan portofolio prosesor berbasis x86 dan arsitektur GPU AMD untuk mendukung lingkungan yang dioptimalkan, hemat biaya, dan siap produksi untuk beban kerja yang mendukung AI.
GPU AMD Instinct kini sepenuhnya diaktifkan pada Red Hat OpenShift AI. Menurut Badani, hal ini memberikan pelanggan daya pemrosesan performa tinggi yang diperlukan untuk penerapan AI di seluruh cloud hybrid tanpa persyaratan sumber daya yang ekstrem.
Selain itu, menggunakan GPU AMD Instinct MI300X dengan Red Hat Enterprise Linux AI, Red Hat dan AMD melakukan pengujian pada Microsoft Azure ND MI300X v5 untuk berhasil mendemonstrasikan inferensi AI untuk penskalaan model bahasa kecil (SLM) serta model bahasa besar (LLM) yang diterapkan di beberapa GPU pada satu VM, mengurangi kebutuhan untuk menerapkan di beberapa VM dan mengurangi biaya kinerja.
Untuk mendorong akselerasi dan kemampuan penyetelan performa lebih lanjut, Red Hat dan AMD berkolaborasi dalam komunitas vLLM hulu untuk mendorong inferensi AI yang lebih efisien. Berdasarkan kolaborasi dalam komunitas vLLM ini, GPU AMD Instinct akan mendukung Red Hat AI Inference Server, distribusi vLLM kelas perusahaan dari Red Hat, secara langsung untuk server inferensi AI yang tangguh, andal, dan dapat diskalakan.
“Sebagai kontributor komersial teratas untuk vLLM, Red Hat berkomitmen untuk memungkinkan kompatibilitas saat menerapkan vLLM pada hardware pilihan organisasi, yang mencakup GPU AMD Instinct. Menjalankan vLLM pada GPU AMD Instinct memberdayakan organisasi untuk menerapkan model AI sumber terbuka apa pun pada hardware GPU yang tervalidasi dan teruji untuk pengoptimalan dan kinerja yang luar biasa,” katanya lagi.
Executive Vice President and Chief Commercial Officer AMD Philip Guido mengatakan, CPU AMD EPYC juga memungkinkan kinerja AI menyeluruh dan ideal untuk menghosting sistem yang mendukung GPU. Hal ini dapat membantu meningkatkan kinerja dan laba atas investasi (ROI) setiap server GPU bahkan untuk beban kerja AI yang paling berat sekalipun.
“Seiring dengan semakin beragamnya beban kerja pelanggan perusahaan, mereka membutuhkan solusi yang dapat ditingkatkan skalanya. Dengan menggabungkan platform sumber terbuka terkemuka di industri Red Hat dengan GPU AMD Instinct dan CPU AMD EPYC kelas dunia, kami menghadirkan kinerja dan efisiensi yang dibutuhkan pelanggan untuk mempercepat inovasi AI, virtualisasi, dan cloud hybrid,” ucapnya.
Dengan mengoptimalkan jejak data center yang ada, organisasi dapat menginvestasikan kembali sumber daya secara lebih efektif dan mudah untuk memungkinkan inovasi AI.
STEVY WIDIA
Discussion about this post