AI di Setiap Mesin: LLM yang Mungkin Tidak Anda Inginkan di Chrome

AI di Setiap Mesin: LLM yang Mungkin Tidak Anda Inginkan di Chrome

By Reggi, 09 May 2026

Di dunia teknologi yang terus berkembang, rasanya kita tidak bisa lepas dari "AI on Every Machine: The LLM You Didn't Know About and Probably Didn't Want." Baru-baru ini, Google Chrome menjadi sorotan karena secara diam-diam mengintegrasikan model Gemini Nano ke dalam browser web paling populer di dunia itu. Kabar ini membuat banyak pengguna Chrome merasakan dampaknya melalui kinerja perangkat yang melambat dan akses disk yang berat. Model Gemini Nano berukuran empat gigabyte ini dilaporkan sudah terunduh oleh miliaran pengguna tanpa mereka sadari. Tujuannya? Untuk menyediakan fitur auto-correct dan saran teks tingkat lanjut, mungkin untuk mengurangi beban versi online Gemini.

Ketika AI Hadir Tanpa Permintaan

Hal yang paling mengkhawatirkan adalah model Gemini Nano ini tidak hanya terpasang tanpa persetujuan pengguna, tetapi juga berjalan tanpa izin mereka. Anda tidak bisa menggunakannya untuk hal lain selain yang diinginkan Google Chrome. Ini berbeda dengan LLM lokal yang bisa Anda kontrol penuh, seperti yang bisa didapatkan dari Llama.cpp atau LM-Studio. Dengan perangkat lunak seperti itu, data penggunaan Anda tidak akan dijual dan konten Anda tidak akan menjadi bahan untuk melatih alat plagiarisme.

Banyak pihak merasa terganggu dengan pengembangan ini, dan ada alasannya. Ketika miliaran komputer tanpa sadar menginstal komponen perangkat lunak yang sangat boros energi, efeknya pada konsumsi daya global akan signifikan, yang berujung pada peningkatan jejak karbon komputasi. Ini bukan hanya fenomena Chrome, karena Siri di perangkat Apple juga sudah menggunakan LLM lokal untuk beberapa waktu.

LLM Lokal: Tak Terhindarkan, Tapi Haruskah Tanpa Kontrol?

Terlepas dari banyaknya "AI slop" yang membuat banyak orang muak, satu hal yang jelas: LLM ada di sini untuk tinggal. Namun, memiliki LLM di bawah kendali Anda sendiri di komputer pribadi seharusnya tidak menjadi hal yang buruk. Perusahaan teknologi besar tampaknya berinvestasi besar-besaran dalam penggunaan "praktis" model bahasa besar, yang membuat kehadirannya menjadi tak terhindarkan. Masalahnya bukan pada keberadaan LLM lokal, tetapi pada kapan dan bagaimana LLM tersebut beroperasi.

Saat ini, LLM di Chrome adalah monster pemakan daya komputasi yang pada akhirnya dikendalikan oleh Google. Bayangkan masa depan di mana berbagai perangkat lunak sehari-hari juga menginstal komponen multi-gigabyte pemakan CPU serupa yang tidak dapat dikontrol. Anda mungkin masih ingat Clippy dari Microsoft yang menguras sumber daya desktop di tahun 90-an; situasi ini terasa serupa.

Dampak pada Kinerja dan Lingkungan

Ukuran model Gemini Nano yang empat gigabyte bukanlah lelucon bagi perangkat keras pengguna. Jika perangkat Anda tidak memiliki NPU (Neural Processing Unit), LLM ini akan berjalan menggunakan CPU atau GPU Anda. Pada laptop dengan grafis terintegrasi, ini dapat secara signifikan mengurangi masa pakai baterai. Banyak pengguna dengan PC lama atau "kentang" mungkin akan merasakan dampak paling besar pada kinerja harian mereka.

Selain itu, ada kekhawatiran serius tentang privasi data. Meskipun ada yang berargumen bahwa model ini tidak akan memproses data pengguna lain, ada kemungkinan besar LLM di Chrome ini akan mengirim data ke model yang lebih besar di cloud jika tidak dapat mengatasi tugas tertentu secara lokal. Ini bisa menjadi celah kebocoran data yang besar. Ditambah lagi, karena LLM ini tersedia melalui API dalam browser, ada risiko fitur ini disalahgunakan oleh malware.

Bagaimana Mengendalikan Situasi Ini?

Idealnya, LLM lokal harus berfungsi seperti aplikasi lain: dipilih dan diinstal oleh pengguna sendiri. LLM semacam itu bisa menyediakan layanannya ke aplikasi seperti browser web jika pengguna mengizinkannya, dan tidak berjalan kecuali diminta. Memang, menginstal Llama.cpp mungkin di luar jangkauan banyak pengguna, tetapi LM-Studio membuktikan bahwa LLM lokal bisa dikemas menjadi aplikasi yang mudah diinstal, bahkan untuk pengguna awam.

Jika Anda adalah pengguna Chrome dan merasa terganggu, ada cara untuk menonaktifkan fitur-fitur terkait Gemini Nano. Anda bisa membuka chrome://flags di browser Anda, lalu mencari "Gemini" dan menonaktifkan semua sakelar yang muncul. Ini mungkin tidak sepenuhnya menghapus modelnya, tetapi setidaknya dapat menghentikan operasinya secara pasif.

Perusahaan perangkat lunak besar yang mengklaim peduli terhadap lingkungan harus menunjukkan angka dan berupaya keras mengurangi konsumsi daya pada kondisi idle. Jika konsumen mulai mengasosiasikan fitur AI bawaan dengan kinerja komputer yang melambat, seperti yang terjadi dengan asisten kantor tiga puluh tahun lalu, mungkin mereka akan menuntut perubahan. Kita hanya bisa berharap.

Referensi