Pusat Data AI Konsumsi Banyak Energi, Perusahaan Teknologi Global Berlomba Temukan Solusi

Diposting pada

Perkembangan AI yang Menguras Energi dan Upaya Mengurangi Dampaknya

Industri kecerdasan buatan (Artificial Intelligence/AI) sedang menghadapi tantangan besar, yaitu konsumsi energi yang semakin meningkat. Di satu sisi, penggunaan AI meluas di berbagai sektor, mulai dari layanan kesehatan hingga transportasi. Di sisi lain, beban energi yang dibutuhkan untuk menjalankan sistem AI juga semakin memprihatinkan. Hal ini mendorong para ilmuwan dan perusahaan teknologi untuk mencari solusi agar AI tetap bisa berjalan tanpa menyebabkan krisis listrik.

Menurut laporan dari Badan Energi Internasional (International Energy Agency), pusat data yang menjadi tulang punggung AI diperkirakan akan menyerap hingga 3 persen konsumsi listrik global pada tahun 2030. Angka ini dua kali lipat dari tingkat konsumsi saat ini. Sebuah firma konsultan asal Amerika Serikat, McKinsey, menggambarkan situasi ini sebagai perlombaan membangun pusat data demi mengejar pertumbuhan AI yang pesat. Namun, mereka juga memperingatkan bahwa jika tidak ada solusi cepat, dunia bisa menghadapi krisis listrik.

Solusi yang Sedang Dicoba

Salah satu cara untuk mengatasi masalah ini adalah dengan membangun lebih banyak pasokan listrik. Namun, proses ini membutuhkan waktu yang cukup lama. Opsi lain adalah mencari cara agar konsumsi energi bisa dikurangi tanpa mengorbankan performa. Menurut Mosharaf Chowdhury, profesor ilmu komputer dari University of Michigan, tantangan ini bisa dijawab dengan solusi cerdas di semua lini, mulai dari perangkat keras hingga algoritma AI itu sendiri.

Contohnya, laboratoriumnya berhasil mengembangkan algoritma yang mampu menghitung kebutuhan listrik tiap chip AI secara presisi, sehingga dapat menghemat energi hingga 20 hingga 30 persen. Dua dekade lalu, menjalankan pusat data berarti menghabiskan energi besar bukan hanya untuk server, tapi juga sistem pendinginnya. Namun, sekarang, sistem operasional seperti pendingin hanya memakan 10 persen energi dari yang dikonsumsi server.

Inovasi dalam Sistem Pendingin

Penggunaan sensor bertenaga AI untuk mengatur suhu di zona-zona tertentu, alih-alih mendinginkan seluruh sistem secara merata, telah membantu menghemat penggunaan air dan listrik. Selain itu, terobosan besar berikutnya disebut-sebut adalah pendingin cair (liquid cooling). Teknologi ini menggantikan suara bising AC dengan cairan khusus yang mengalir langsung ke dalam server untuk menyerap panas.

“Semua pemain besar sedang mengembangkan ini,” kata Gareth Williams dari firma konsultan Arup. Chip AI modern seperti buatan Nvidia bisa menyedot energi 100 kali lipat lebih banyak dibanding server dua dekade lalu. Pemimpin cloud computing terkemuka milik Amazon, AWS (Amazon Web Service), baru-baru ini mengumumkan teknologi pendingin cair buatan mereka sendiri untuk menstabilkan chip Nvidia, tanpa perlu membongkar pusat data lama.

Kemajuan dalam Efisiensi Chip

Ada kabar baik, setiap generasi chip komputer baru kini lebih efisien dibanding pendahulunya. Riset dari Yi Ding di Purdue University menunjukkan bahwa chip AI bisa bertahan lebih lama tanpa kehilangan performa. Namun, muncul tantangan lainnya. “Sulit meyakinkan perusahaan semikonduktor untuk mengorbankan keuntungan dengan mendorong pelanggan tetap memakai chip lama lebih lama,” ujar Ding.

Di Amerika Serikat, energi kini dianggap sebagai faktor kunci dalam menjaga keunggulan AI atas China. Awal tahun ini, startup China bernama DeepSeek merilis model AI yang performanya sebanding dengan sistem AI terbaik buatan AS, padahal hanya menggunakan chip yang lebih sederhana dan otomatis lebih hemat energi. Para insinyur DeepSeek melakukannya dengan pemrograman GPU yang sangat presisi, serta melewatkan satu tahapan pelatihan intensif energi yang selama ini dianggap wajib.

China diyakini sudah jauh lebih siap dalam urusan ketersediaan energi, termasuk dari sumber terbarukan dan nuklir. Hal ini membuat AS semakin waspada terhadap perkembangan teknologi AI di negara tersebut.