Kontainer dan edge computing saat ini menjadi tulang punggung distribusi aplikasi modern yang berjalan secara real time, di mana hitungan milidetik bisa menentukan pengalaman hingga keselamatan pengguna.
Kontainer kini menjadi standar de facto dalam pembangunan dan deployment aplikasi modern sehingga aplikasi dapat dijalankan secara konsisten di mana saja.
Menurut riset Gartner, 90% organisasi global akan menjalankan containerized applications dalam produksi pada tahun 2026. Angka tersebut memperlihatkan kenaikan dari 40% pada 2021.
Sementara itu, studi yang dilakukan Forrester mengungkapkan bahwa 86% pemimpin TI yang disurvei telah memprioritaskan perluasan penggunaan kontainer untuk lebih banyak aplikasi.
Jay Jenkins, Chief Technical Officer, Cloud Computing, Akamai Technologies, memaparkan bahwa kontainer mengemas aplikasi bersama konfigurasi dan seluruh komponen eksternalnya (dependencies) sehingga deployment menjadi lebih konsisten dan terprediksi di berbagai lingkungan.
Bersamaan dengan itu, kebutuhan performa real-time dan rendah latensi pada berbagai jenis aplikasi mendorong pergeseran arsitektur dari cloud terpusat ke edge computing.
“Bahkan penundaan kecil yang hanya beberapa detik saja dapat berujung pada pengalaman pengguna yang membuat frustasi dan, pada akhirnya, membuat pengguna berpindah (ke aplikasi/layanan lain,” ujar Jay.
Beberapa jenis aplikasi kritis bahkan dapat membahayakan pengguna jika latensi rendah tidak terpenuhi. Misalnya di bidang kesehatan, aplikasi real time untuk memantau data kesehatan dan tanda-tanda vital pasien membutuhkan latensi pada kisaran 10-700 milidetik. Sementara aplikasi telekonsultasi dapat mentolerir latensi beberapa ratus milidetik. Untuk operasi jarak jauh (telesurgery) dan komunikasi darurat (seperti peringatan cepat atau respons segera), latensinya harus di bawah 100 milidetik.
Contoh lain adalah aplikasi smart grid. Jenis aplikasi ini memiliki kebutuhan latensi yang bervariasi, tetapi beberapa fungsi kritis, seperti otomatisasi gardu induk, memerlukan latensi yang sangat rendah, biasanya kurang dari 3 milidetik (ms). Aplikasi lainnya seperti respons permintaan (demand response) atau pencatatan gangguan (fault recording) masih dapat mentoleransi latensi yang lebih tinggi, hingga 1–2 detik.
Tantangan Operasional di Edge
Ketika beban kerja dipindahkan ke tepi jaringan (edge), apalagi dalam skala global, tim operasi pun dihadapkan pada tantangan kompleksitas.
Jay Jenkins menjelaskan bahwa konsistensi konfigurasi, latency yang terkendali, serta monitoring real-time untuk workload data-intensive dan latency-sensitive harus dijaga di setiap lokasi edge. Hal ini merupakan sebuah tugas yang hampir mustahil jika dilakukan secara manual.
“Selain itu, menyeimbangkan kinerja tinggi dengan efisiensi biaya di seluruh arsitektur terdistribusi tetap menjadi perhatian utama bagi banyak perusahaan,” imbuhnya.
Solusi Akamai untuk Kompleksitas Arsitektur Terdistribusi
Akamai Managed Container Service (MCS) mengatasi kompleksitas ini dengan menggabungkan edge-first infrastructure dan otomasi penuh. Lebih dari 4.300 Point of Presence (PoP) di lebih dari 700 kota di seluruh dunia menjalankan kontainer-kontainer pelanggan Akamai menggunakan full-stack GPU/VPU, object storage, dan database terkelola.
“Setiap paket aplikasi di-deploy dengan model deklaratif mirip Kubernetes, memastikan setiap node converges pada state yang sama,” jelasnya. Selain itu, MCS menawarkan autoscaling otomatis dan observability end-to-end, yang memungkinkan tim DevOps fokus pada pengembangan fitur ketimbang mengatasi masalah infrastruktur .
Cakupan global dan pendekatan full-stack di edge disebut Jay Jenkins sebagai keunggulan Akamai MCS jika dibandingkan layanan sejenis dari penyedia lain. Jenkins menekankan bahwa dengan jaringan PoP di 700+ kota, latensi bisa ditekan seminimal mungkin.
Sementara itu, menurutnya, model biaya flat egress pricing membantu organisasi dan perusahaan menghindari lonjakan tagihan saat trafik melonjak. Dengan demikian, organisasi bisa merencanakan anggaran lebih stabil dan tidak dikenakan biaya tambahan saat permintaan tinggi.
Penuhi Kebutuhan Real-Time di Industri
Akamai Managed Container Service dirancang khusus untuk beban kerja yang membutuhkan latensi rendah, daya tanggap real-time, dan kekuatan komputasi lokal.
“Hal ini menjadikannya sangat sesuai untuk industri dan aplikasi yang sama sekali tidak bisa mentoleransi keterlambatan,” jelas Jay.
Ia menambahkan, layanan ini secara khusus difokuskan untuk mendukung aplikasi real-time, seperti game online, platform fintech, dan layanan streaming video, yang tidak mentolerir keterlambatan bahkan dalam hitungan milidetik.
Area lain yang menjadi fokus Akamai mulai dari perangkat kesehatan yang terhubung dan pemantauan pasien jarak jauh, hingga manufaktur pintar dan pelacakan aset di pertambangan.
“Sektor layanan kesehatan turut diuntungkan dengan kemampuan memroses data pasien yang sensitif langsung di server edge, sehingga meningkatkan daya tanggap (responsiveness)sekaligus mendukung kepatuhan,” jelas Jay Jenkins.
Di sektor seperti ritel dan transportasi, Akamai melihat adopsi yang kuat untuk berbagai use case seperti analisis inventaris secara real-time, pengawasan, navigasi kendaraan otonom, dan interaksi pelanggan yang bersifat lokal.
Jawab Tantangan Konektivitas di Indonesia
Berbicara tentang konektivitas di Indonesia, Jay Jenkins memuji bahwa infrastruktur internet di Indonesia telah mengalami kemajuan yang signifikan, tapi masih ada sejumlah tantangan maupun peluang yang unik.
“Dengan negara kepulauan yang luas dan konektivitas yang tidak merata di seluruh wilayah, menghadirkan pengalaman digital yang konsisten dan latensi rendah masih menjadi hal yang rumit-khususnya untuk aplikasi berkinerja tinggi dan sensitif terhadap waktu,” ujarnya.
Hal ini mendorong Akamai untuk menyesuaikan teknologinya dengan kondisi unik tersebut. Menurut Jay, akuisisi Linode dan kehadiran core compute region di Jakarta akan menyelaraskan layanan Akamai MCS ke peta jalan digital nasional. Dengan demikian, pelanggan lokal DS dapat menikmati akses server edge tanpa harus bergantung pada backhaul panjang ke pusat data region asing.
Selain itu, kemitraan Akamai dengan ISP lokal diharapkan dapat memperkuat konektivitas hybrid, memungkinkan failover otomatis dan caching di lokasi terpencil untuk menjaga ketersediaan layanan.