Saat aplikasi AI beranjak dari eksplorasi ke produksi, fleksibilitas dalam memilih model, akselerator, dan lingkungan deployment menjadi kunci. Red Hat menawarkan pendekatan hybrid cloud terbuka untuk menjawab kebutuhan tersebut.
Dalam peralihan tersebut, organisasi menghadapi dua tantangan: memecah silo data dan menghindari ketergantungan pada satu cloud.
Pada fase eksplorasi, banyak tim mencoba berbagai tools dan layanan publik. Namun begitu masuk ke produksi, perusahaan menuntut agar data sensitif tetap berada di lingkungannya sendiri, tanpa harus berpindah-pindah platform secara manual atau terkunci dalam satu ekosistem penyedia layanan.
Hal ini ditegaskan oleh Country Manager Red Hat Indonesia, Vony Tjiu, yang mengatakan, “Ada beberapa yang mungkin menjalankan AI workload di satu penyedia cloud dan tidak bisa pindahkan dari satu cloud ke yang lain. Dengan menggunakan Red Hat platform, keseluruhan workload dapat berjalan di cloud mana saja.”
Vony menggarisbawahi bahwa Red Hat tidak menyediakan cloud tapi memberikan fleksibilitas untuk menjalankan aplikasi di cloud mana saja. “Jadi tidak terikat dengan salah satu cloud saja,” ujarnya.
Red Hat bekerja sama dengan penyedia layanan cloud besar untuk menyediakan OpenShift dalam bentuk managed service, seperti ROSA, Red Hat OpenShift dengan AWS; ARO, Azure Red Hat OpenShift; dan managed OpenShift GCP. Menurut Vony, layanan adalah salah satu yang cukup banyak dicari dan ditanyakan oleh customer. Hal ini menunjukkan bahwa fleksibilitas deployment bukan sekadar konsep, tetapi juga menjadi salah satu aspek yang paling diminati oleh pelanggan di lapangan.
Tantangan lain yang tak kalah besar, menurut Vony, adalah keberadaan silo antara tim data dan tim aplikasi. Kedua tim bekerja di platform dan lingkungan yang berbeda, sehingga integrasi model ke dalam aplikasi membutuhkan waktu dan upaya lebih. Hal ini menciptakan hambatan dalam standarisasi, tata kelola, dan keamanan, terutama saat workload beranjak ke skala produksi. Di sinilah fleksibilitas dan keterbukaan menjadi kunci penting bagi perusahaan.
Untuk menjawab tantangan tersebut, Red Hat mengedepankan pendekatan hybrid cloud terbuka yang mendukung fleksibilitas penuh: pelanggan dapat menggunakan model AI apa pun, akselerator hardware apa pun, dan menjalankan beban kerja di mana saja, baik di cloud publik, private cloud, maupun on-premise.
Dengan platform OpenShift sebagai fondasi Kubernetes-native, Red Hat memungkinkan perusahaan memilih berbagai LLM, seperti Llama, Gemini, atau Granite, dan menjalankannya di atas GPU dari NVIDIA, AMD, atau Intel.
“Tidak ada satu solusi yang cocok untuk semua,” ujar Vony, merujuk pada beragam kebutuhan dan kondisi yang dihadapi setiap organisasi. Pendekatan terbuka Red Hat memberikan ruang bagi pelanggan untuk menyesuaikan teknologi dengan strategi bisnisnya.
Namun, fleksibilitas saja tidak cukup. Dalam tahap produksi, keamanan dan kedaulatan data menjadi syarat mutlak. “Ketika mereka masuk ke production, mereka pastinya menginginkan data tetap aman dan kedaulatan data ada di data center mereka,” ungkap Vony. Menjawab kebutuhan ini, Red Hat melengkapi setiap layer platform-nya dengan sertifikasi ISO, compliance untuk government cloud, serta keamanan yang tertanam (embedded security). Bahkan, Red Hat Enterprise Linux 10 (RHEL 10) telah dipersiapkan dengan teknologi post-quantum cryptography untuk menghadapi ancaman masa depan dari komputasi kuantum.
Di luar platform, Red Hat juga membangun fondasi ekosistem yang kuat melalui kemitraan dan pengembangan talenta. Program Red Hat Academy yang tersebar di lebih dari 200 institusi pendidikan di Asia Pasifik telah melatih lebih dari 26.000 siswa—termasuk 7.500 di Indonesia. Selain itu, Red Hat Talent Network mempertemukan 40 lebih perusahaan rekanan dengan hampir 50 calon lulusan yang siap diserap ke dunia industri.
Untuk mendukung efisiensi operasional dan mendorong implementasi AI yang lebih luas, Red Hat menyatukan berbagai solusi dalam satu platform yang terintegrasi. Red Hat Enterprise Linux AI (RHEL AI) menawarkan kernel yang dioptimalkan untuk inferensi di atas GPU.
Sementara AI Inference Server berfungsi sebagai pusat manajemen lifecycle model lintas hardware dan cloud. Berkat integrasi dengan vLLM dari hasil akuisisi Neural Magic, efisiensi beban kerja dapat ditingkatkan dengan biaya GPU yang lebih rendah.
Di sisi lain, OpenShift AI mendukung praktik MLOps dengan menyatukan workflow tim data dan aplikasi dalam satu lingkungan yang konsisten. Untuk perusahaan yang masih mengandalkan VM tradisional, Red Hat kini menghadirkan OpenShift Virtualization Engine sebagai solusi transisi ke lingkungan container dengan biaya dan risiko yang lebih terkontrol.
Dengan portofolio produk seperti RHEL AI, OpenShift AI, AI Inference Server, serta OpenShift Virtualization Engine, Red Hat menawarkan satu pendekatan terintegrasi yang memungkinkan perusahaan menjalankan, mengelola, dan mengamankan berbagai jenis beban kerja, baik aplikasi AI maupun aplikasi tradisional, di berbagai lingkungan. Pendekatan ini dirancang untuk memberikan fleksibilitas pilihan teknologi sekaligus menjaga kontrol atas data dan infrastruktur.