Getaran Awal: DeepSeek dan Fatamorgana Efisiensi
Kemunculan DeepSeek AI dari China awal tahun ini mengirimkan gelombang kejut ke lanskap investasi teknologi. Pendekatannya yang tampak revolusioner, menjanjikan kecerdasan buatan yang kuat dengan beban komputasi yang jauh lebih rendah, segera memicu spekulasi. Sebuah narasi dengan cepat terbentuk: mungkin ekspansi infrastruktur AI yang tak henti-hentinya dan mahal, yang ditandai dengan pembelian besar-besaran chip dan sistem khusus, akan segera melambat. Pasar bereaksi, mencerminkan keyakinan bahwa era baru AI yang hemat biaya mungkin secara dramatis membatasi ledakan belanja yang diantisipasi.
Namun, wawasan dari pertemuan tingkat tinggi para pemikir industri baru-baru ini melukiskan gambaran yang sangat berbeda. Sebuah konferensi AI generatif yang diadakan di New York oleh Bloomberg Intelligence menunjukkan bahwa interpretasi awal, yang hanya berfokus pada potensi penghematan biaya, melewatkan cerita yang lebih besar. Jauh dari menandakan perlambatan belanja, acara tersebut menggarisbawahi keinginan yang hampir tak terpuaskan akan kapasitas AI yang lebih besar. Konsensusnya bukan tentang pemotongan; melainkan tentang mencari cara untuk memenuhi selera yang tumbuh secara eksponensial untuk sistem cerdas, bahkan sambil sangat berharap menunya tidak terlalu mahal.
Suara dari Garda Depan: Dahaga Kapasitas yang Tak Terpadamkan
Diskusi sepanjang acara sehari penuh, yang mempertemukan para pengembang, ahli strategi, dan investor, secara konsisten berputar kembali ke tema meningkatnya permintaan yang mendorong investasi monumental. Mandeep Singh, seorang analis teknologi senior di Bloomberg Intelligence dan salah satu penyelenggara acara, menangkap sentimen yang berlaku dengan ringkas. Merefleksikan berbagai panel dan diskusi ahli, ia mencatat refrain universal: tidak ada seorang pun yang terlibat merasa memiliki kapasitas AI yang cukup. Perasaan yang luar biasa adalah kebutuhan akan lebih banyak, bukan memiliki terlalu banyak.
Secara krusial, Singh menambahkan, momok ‘gelembung infrastruktur’, ketakutan umum di sektor teknologi yang berkembang pesat, secara mencolok absen dari percakapan. Fokus tetap tertuju pada tantangan mendasar yang dihadapi seluruh industri. Anurag Rana, kolega Singh dan analis senior Bloomberg Intelligence untuk layanan TI dan perangkat lunak, membingkainya sebagai pertanyaan terpenting: ‘Di mana kita dalam siklus [pembangunan infrastruktur AI] itu?’
Sambil mengakui bahwa menentukan tahap pasti dari pembangunan besar-besaran ini tetap sulit dipahami (‘Tidak ada yang tahu’ pasti, Rana mengakui), fenomena DeepSeek tak dapat disangkal mengubah perspektif. Ini menyuntikkan dosis harapan yang kuat bahwa beban kerja AI yang signifikan berpotensi ditangani dengan lebih ekonomis. ‘DeepSeek mengguncang banyak orang,’ amati Rana. Implikasinya jelas: jika model AI canggih memang dapat berjalan secara efisien pada perangkat keras yang kurang menuntut, mungkin proyek-proyek raksasa, seperti inisiatif multi-ratus miliar dolar yang dikabarkan direncanakan oleh konsorsium yang melibatkan pemain teknologi besar, mungkin dievaluasi ulang atau diskalakan secara berbeda.
Mimpi itu, yang digaungkan di seluruh industri menurut Rana, adalah agar biaya operasional AI, terutama untuk inferensi (tahap di mana model yang terlatih menghasilkan prediksi atau konten), mengikuti lintasan penurunan dramatis yang disaksikan dalam penyimpanan komputasi awan selama dekade terakhir. Dia mengenang bagaimana ekonomi penyimpanan data dalam jumlah besar di platform seperti Amazon Web Services (AWS) meningkat secara dramatis selama kurang lebih delapan tahun. ‘Penurunan kurva biaya itu… ekonominya bagus,’ katanya. ‘Dan itulah yang diharapkan semua orang, bahwa di sisi inferensi… jika kurva turun ke level itu, ya Tuhan, tingkat adopsi AI… akan menjadi spektakuler.’ Singh setuju, mencatat bahwa kedatangan DeepSeek secara fundamental ‘telah mengubah pola pikir semua orang tentang mencapai efisiensi.’
Kerinduan akan efisiensi ini terasa di seluruh sesi konferensi. Sementara banyak panel mendalami kepraktisan memindahkan proyek AI perusahaan dari tahap konseptual ke produksi langsung, diskusi paralel terus-menerus menekankan kebutuhan kritis untuk memangkas biaya yang terkait dengan penerapan dan menjalankan model AI ini. Tujuannya jelas: mendemokratisasi akses dengan membuat AI layak secara ekonomi untuk jangkauan aplikasi dan pengguna yang lebih luas. Shawn Edwards, kepala teknologi Bloomberg sendiri, menyarankan bahwa DeepSeek tidak selalu merupakan kejutan total, melainkan ilustrasi kuat dari keinginan universal. ‘Apa yang membuat saya berpikir adalah bahwa akan sangat bagus jika Anda bisa mengayunkan tongkat sihir dan membuat model-model ini berjalan sangat efisien,’ katanya, memperluas harapan ke seluruh spektrum model AI, bukan hanya satu terobosan spesifik.
Prinsip Proliferasi: Memicu Permintaan Komputasi
Salah satu alasan utama para ahli mengantisipasi investasi berkelanjutan yang substansial dalam infrastruktur AI, terlepas dari pencarian efisiensi, terletak pada proliferasi model AI semata. Tema yang berulang sepanjang konferensi New York adalah langkah tegas menjauh dari gagasan model AI tunggal monolitik yang mampu menangani semua tugas.
- Urusan Keluarga: Seperti yang dikatakan Edwards dari Bloomberg, ‘Kami menggunakan keluarga model. Tidak ada yang namanya model terbaik.’ Ini mencerminkan pemahaman yang berkembang bahwa arsitektur AI yang berbeda unggul dalam tugas yang berbeda – generasi bahasa, analisis data, pengenalan gambar, penyelesaian kode, dan sebagainya.
- Kustomisasi Perusahaan: Para panelis secara luas setuju bahwa sementara model ‘dasar’ atau ‘perbatasan’ serba guna yang besar akan terus dikembangkan dan disempurnakan oleh laboratorium AI besar, tindakan nyata dalam bisnis melibatkan penerapan ratusan atau bahkan ribuan model AI khusus.
- Fine-Tuning dan Data Proprietary: Banyak dari model perusahaan ini akan diadaptasi dari model dasar melalui proses yang disebut fine-tuning. Ini melibatkan pelatihan ulang jaringan saraf pra-terlatih pada data spesifik perusahaan, seringkali data proprietary. Hal ini memungkinkan AI untuk memahami konteks bisnis yang unik, terminologi, dan interaksi pelanggan, memberikan hasil yang jauh lebih relevan dan berharga daripada yang bisa dilakukan model generik.
- Demokratisasi Pengembangan: Jed Dougherty, yang mewakili platform ilmu data Dataiku, menyoroti perlunya ‘opsionalitas di antara model’ untuk agen AI perusahaan. Dia menekankan pentingnya memberi perusahaan kendali, kemampuan kreasi, dan auditabilitas atas alat AI mereka. ‘Kami ingin menempatkan alat untuk membangun hal-hal ini di tangan orang-orang,’ tegas Dougherty. ‘Kami tidak ingin sepuluh PhD membangun semua agen.’ Dorongan menuju aksesibilitas yang lebih luas dalam pengembangan itu sendiri menyiratkan kebutuhan akan lebih banyak infrastruktur dasar untuk mendukung upaya penciptaan terdistribusi ini.
- AI Spesifik Merek: Industri kreatif menawarkan contoh utama. Hannah Elsakr, yang memimpin usaha bisnis baru di Adobe, menjelaskan strategi mereka yang bertaruh pada model kustom sebagai pembeda utama. ‘Kami dapat melatih ekstensi model kustom untuk merek Anda yang dapat membantu kampanye iklan baru,’ ilustrasinya, menunjukkan bagaimana AI dapat disesuaikan untuk mempertahankan estetika dan pesan merek tertentu.
Di luar diversifikasi model, peningkatan penyebaran agen AI dalam alur kerja perusahaan adalah pendorong signifikan lain dari permintaan pemrosesan. Agen-agen ini dibayangkan tidak hanya sebagai alat pasif tetapi sebagai peserta aktif yang mampu melaksanakan tugas multi-langkah.
Ray Smith, yang mengepalai agen dan upaya otomatisasi Microsoft Copilot Studio, memperkirakan masa depan di mana pengguna berinteraksi dengan ratusan agen khusus melalui antarmuka terpadu seperti Copilot. ‘Anda tidak akan memaksakan seluruh proses ke dalam satu agen, Anda akan memecahnya menjadi beberapa bagian,’ jelasnya. Agen-agen ini, sarannya, pada dasarnya adalah ‘aplikasi di dunia baru’ pemrograman. Visinya adalah di mana pengguna cukup menyatakan tujuan mereka – ‘beri tahu apa yang ingin kita capai’ – dan agen mengatur langkah-langkah yang diperlukan. ‘Aplikasi agentik hanyalah cara baru alur kerja,’ kata Smith, menekankan bahwa mewujudkan visi ini lebih merupakan masalah ‘kecepatan kita membangunnya’ daripada kemungkinan teknologi (‘semuanya mungkin secara teknologi’).
Dorongan untuk menanamkan agen AI lebih dalam ke dalam proses organisasi sehari-hari ini semakin mengintensifkan tekanan untuk pengurangan biaya dan penyebaran yang efisien. James McNiven, kepala manajemen produk di raksasa mikroprosesor ARM Holdings, membingkai tantangan dalam hal aksesibilitas. ‘Bagaimana kita menyediakan akses di lebih banyak perangkat?’ renungnya. Mengamati model yang mencapai kemampuan mendekati ‘tingkat PhD’ dalam tugas-tugas tertentu, ia menarik paralel dengan dampak transformatif membawa sistem pembayaran seluler ke negara-negara berkembang bertahun-tahun yang lalu. Pertanyaan inti tetap: ‘Bagaimana kita membawa [kemampuan AI] itu kepada orang-orang yang dapat menggunakan kemampuan itu?’ Membuat agen AI canggih tersedia sebagai asisten bagi sebagian besar tenaga kerja tidak hanya membutuhkan perangkat lunak yang cerdas tetapi juga perangkat keras yang efisien dan, tak terhindarkan, lebih banyak investasi infrastruktur dasar, bahkan ketika efisiensi per komputasi meningkat.
Rintangan Penskalaan: Silikon, Daya, dan Raksasa Awan
Bahkan model dasar generik yang paling banyak digunakan pun berkembang biak dengan kecepatan yang mencengangkan, memberikan tekanan besar pada infrastruktur yang ada. Dave Brown, yang mengawasi komputasi dan jaringan untuk Amazon Web Services (AWS), mengungkapkan bahwa platform mereka saja menawarkan akses pelanggan ke sekitar 1.800 model AI yang berbeda. Dia menggarisbawahi fokus intens AWS pada ‘melakukan banyak hal untuk menurunkan biaya’ menjalankan alat-alat canggih ini.
Strategi utama untuk penyedia cloud seperti AWS melibatkan pengembangan silikon kustom mereka sendiri. Brown menyoroti peningkatan penggunaan chip yang dirancang AWS, seperti prosesor Trainium mereka yang dioptimalkan untuk pelatihan AI, menyatakan, ‘AWS menggunakan lebih banyak prosesor kami sendiri daripada prosesor perusahaan lain.’ Langkah menuju perangkat keras khusus internal ini bertujuan untuk merebut kendali atas kinerja dan biaya, mengurangi ketergantungan pada pemasok chip serba guna seperti Nvidia, AMD, dan Intel. Terlepas dari upaya ini, Brown dengan jujur mengakui realitas mendasar: ‘Pelanggan akan melakukan lebih banyak jika biayanya lebih rendah.’ Batas atas permintaan saat ini lebih ditentukan oleh kendala anggaran daripada kurangnya aplikasi potensial.
Skala sumber daya yang dibutuhkan oleh pengembang AI terkemuka sangat besar. Brown mencatat kolaborasi harian AWS dengan Anthropic, pencipta keluarga model bahasa Claude yang canggih. Michael Gerstenhaber, kepala antarmuka pemrograman aplikasi Anthropic, berbicara bersama Brown, menunjukkan intensitas komputasi AI modern, terutama model yang dirancang untuk penalaran kompleks atau ‘berpikir’. Model-model ini sering menghasilkan penjelasan langkah demi langkah yang terperinci untuk jawaban mereka, menghabiskan daya pemrosesan yang signifikan. ‘Model berpikir menyebabkan banyak kapasitas digunakan,’ kata Gerstenhaber.
Sementara Anthropic secara aktif bekerja dengan AWS pada teknik optimasi seperti ‘caching prompt’ (menyimpan dan menggunakan kembali komputasi dari interaksi sebelumnya untuk menghemat sumber daya), kebutuhan perangkat keras mendasar tetap sangat besar. Gerstenhaber dengan blak-blakan menyatakan bahwa Anthropic membutuhkan ‘ratusan ribu akselerator’ – chip AI khusus – yang didistribusikan ‘di banyak pusat data’ hanya untuk menjalankan rangkaian modelnya saat ini. Ini memberikan gambaran konkret tentang skala sumber daya komputasi yang menopang hanya satu pemain AI utama.
Memperparah tantangan pengadaan dan pengelolaan armada silikon yang luas adalah konsumsi energi yang membengkak terkait dengan AI. Brown menyoroti ini sebagai perhatian kritis, dan yang meningkat pesat. Pusat data saat ini yang mendukung beban kerja AI intensif sudah mengonsumsi daya yang diukur dalam ratusan megawatt. Proyeksi menunjukkan kebutuhan di masa depan pasti akan naik ke kisaran gigawatt – output pembangkit listrik besar. ‘Daya yang dikonsumsinya,’ Brown memperingatkan, merujuk pada AI, ‘besar, dan jejaknya besar di banyak pusat data.’ Permintaan energi yang meningkat ini tidak hanya menghadirkan biaya operasional yang sangat besar tetapi juga tantangan lingkungan dan logistik yang signifikan untuk penempatan dan penyediaan daya bagi generasi infrastruktur AI berikutnya.
Kartu Liar Ekonomi: Bayangan di Atas Rencana Pertumbuhan
Terlepas dari prospek bullish yang didorong oleh kemajuan teknologi dan kasus penggunaan yang berkembang, variabel signifikan membayangi semua proyeksi untuk investasi AI: iklim ekonomi yang lebih luas. Saat konferensi Bloomberg Intelligence berakhir, para peserta sudah mengamati kegelisahan pasar yang berasal dari paket tarif global yang baru diumumkan, yang dianggap lebih luas dari yang diantisipasi.
Ini berfungsi sebagai pengingat kuat bahwa peta jalan teknologi yang ambisius dapat dengan cepat terganggu oleh tekanan makroekonomi. Rana dari Bloomberg memperingatkan bahwa sementara pengeluaran AI mungkin agak terisolasi pada awalnya, area tradisional investasi TI perusahaan, seperti server dan penyimpanan yang tidak terkait dengan AI, bisa menjadi korban pertama dalam kontraksi ekonomi. ‘Hal besar lain yang kami fokuskan adalah pengeluaran teknologi non-AI,’ katanya, menyatakan keprihatinan tentang dampak potensial pada penyedia layanan teknologi utama menjelang musim laporan pendapatan, bahkan sebelum mempertimbangkan anggaran AI secara spesifik.
Namun, ada teori yang berlaku bahwa AI mungkin terbukti sangat tangguh. Rana menyarankan bahwa Chief Financial Officer (CFO) di perusahaan besar, yang menghadapi kendala anggaran karena ketidakpastian ekonomi atau bahkan resesi, mungkin memilih untuk memprioritaskan inisiatif AI. Mereka berpotensi mengalihkan dana dari area yang kurang kritis untuk melindungi investasi AI strategis yang dianggap penting untuk daya saing di masa depan.
Namun, pandangan optimis ini jauh dari jaminan. Ujian akhir, menurut Rana, adalah apakah perusahaan besar mempertahankan target belanja modal (capex) agresif mereka, terutama untuk membangun pusat data AI, dalam menghadapi meningkatnya ketidakpastian ekonomi. Pertanyaan kritis tetap ada: ‘Apakah mereka akan berkata, ‘Kau tahu? Ini terlalu tidak pasti.’’ Jawabannya akan menentukan apakah momentum yang tampaknya tak terbendung di balik belanja infrastruktur AI melanjutkan pendakiannya yang tak henti-hentinya atau menghadapi jeda tak terduga yang ditentukan oleh realitas ekonomi global.