Akamai & NVIDIA Kembangkan Cloud Inference untuk Percepat Pemrosesan AI di Edge
Liana Threestayanti October 30, 2025 01:34 PM

Akamai Technologies menggandeng NVIDIA untuk meluncurkan Cloud Inference, layanan baru yang memperluas kemampuan inferensi kecerdasan buatan (AI) hingga ke jaringan edge global.

Langkah ini menegaskan komitmen Akamai dalam menghadirkan infrastruktur AI berlatensi rendah dan efisien bagi organisasi di berbagai sektor.

Kolaborasi Akamai & NVIDIA Dorong Inferensi AI di Edge Cloud

Layanan Akamai Cloud Inference dirancang agar proses inferensi AI dapat dijalankan tidak hanya di pusat data, tetapi juga di edge—lokasi yang lebih dekat dengan pengguna dan perangkat.

Untuk mencapai performa optimal, Akamai memanfaatkan teknologi dari NVIDIA, termasuk GPU RTX PRO 6000 Blackwell Server Edition, DPU BlueField-3, serta perangkat lunak NVIDIA AI Enterprise. Kombinasi ini memungkinkan inferensi AI dengan efisiensi dan kecepatan tinggi di lingkungan komputasi terdistribusi.

Akamai mengandalkan jaringan globalnya yang mencakup lebih dari 4.200 titik edge. Pada tahap awal, layanan Cloud Inference akan tersedia di sekitar 20 lokasi strategis dan akan diperluas secara bertahap ke wilayah lain di seluruh dunia.

Empat Skenario Utama Penerapan Cloud Inference

Melalui kolaborasi ini, Akamai dan NVIDIA memperkenalkan empat skenario penerapan utama untuk memaksimalkan potensi inferensi AI di edge:

1. AI Factories di Edge – memungkinkan pemrosesan dan inferensi data dilakukan secara lokal untuk mengurangi waktu respons.

2. Streaming Inference Real-Time – mendukung analisis berkelanjutan pada aplikasi seperti deteksi penipuan atau keputusan keuangan real-time.

3. AI Fisik dengan Respons Milidetik – cocok untuk sistem otomatisasi seperti kendaraan otonom, robot industri, hingga infrastruktur kota pintar.

4. Orkestrasi Cerdas Beban Kerja Global – secara dinamis mengarahkan proses inferensi ke lokasi edge atau pusat data paling efisien sesuai kompleksitas beban kerja.

Menuju Infrastruktur AI yang Terdistribusi

Chief Executive Officer Akamai, Dr. Tom Leighton, mengatakan bahwa perkembangan AI saat ini memiliki pola yang mirip dengan era awal internet.

"Dua puluh lima tahun yang lalu, kami memelopori CDN untuk mengatasi world wide wait dan mendorong web berkembang menjadi platform global seperti sekarang,” ujarnya.

Ia menambahkan, peningkatan kebutuhan akan kapasitas dan kinerja inferensi kini mendorong transformasi serupa di ranah AI.

"Dengan dukungan infrastruktur AI NVIDIA, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan,” kata Tom Leighton.

Sementara itu, Jensen Huang, Founder dan CEO NVIDIA, menekankan bahwa fase inferensi merupakan tahap AI yang paling menuntut daya komputasi.

"Inferensi telah menjadi fase AI yang membutuhkan komputasi paling intensif—yang membutuhkan penalaran secara real-time dalam skala global,” jelasnya.

Ia menilai kolaborasi ini akan mempercepat adopsi AI generatif di berbagai sektor.

“Bersama-sama, NVIDIA dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, sehingga menghadirkan generative AI yang lebih cepat dan lebih scalable,” tambahnya.

© Copyright @2025 LIDEA. All Rights Reserved.