gelembung

Suasana dingin tampaknya mulai menyelimuti Wall Street. Dana lindung nilai milik miliarder teknologi Peter Thiel baru-baru ini menjual seluruh sahamnya senilai $100 juta (£76 juta) di Nvidia, perusahaan chip paling berharga di dunia yang berada di jantung booming kecerdasan buatan (AI).

Sementara itu, Michael Burry – yang terkenal karena membunyikan alarm sebelum krisis keuangan 2008 dan penggambaran dirinya oleh Christian Bale dalam film The Big Short – bertaruh hampir $200 juta (£152 juta) melawan produsen chip tersebut.

Mengapa dua investor sekaliber mereka berbalik melawan perusahaan yang harga sahamnya telah naik hampir 15 kali lipat dalam 5 tahun?

Sebagian alasannya adalah karena ini bukan hanya masalah Nvidia. Perusahaan ini memproduksi prosesor yang menjadi dasar sebagian besar industri AI – sebuah industri yang sudah bernilai triliunan dolar dan hampir sendirian mendorong pertumbuhan ekonomi AS.

Namun, ada sesuatu dalam kisah pertumbuhan itu yang mungkin mulai goyah. Banyak peneliti dan investor sekarang menduga bahwa momentum AI yang menakjubkan bertumpu pada asumsi teknis yang mungkin tidak akan bertahan selamanya.

Dengan kata lain, gelembung AI mungkin sedang terbentuk – dan dapat dengan mudah pecah karena kelemahan fatal yang tersembunyi di depan mata.

Taruhan besar: model yang lebih besar = AI yang lebih baik

Untuk memahami apa yang terjadi di ekonomi global saat ini, Anda perlu memahami terlebih dahulu apa sebenarnya AI, seperti yang kita kenal sekarang .

Ledakan teknologi AI saat ini didorong oleh gelombang yang dikenal sebagai ‘pembelajaran mendalam’, yaitu pendekatan untuk menciptakan sistem komputer cerdas menggunakan ‘jaringan saraf tiruan’.

Jaringan saraf bukanlah hal baru: idenya sudah ada sejak tahun 1944, tetapi baru-baru ini jaringan saraf menjadi cukup besar dan cepat untuk bekerja dengan baik.

Sistem ini terdiri dari node yang saling terhubung (neuron buatan) yang memproses informasi dan meneruskannya ke node lain. Model pembelajaran mendalam menumpuk beberapa lapisan node ini, di mana setiap lapisan mengekstrak fitur yang semakin kompleks dari data. Kata ‘dalam’ mengacu pada banyaknya lapisan.

Tanpa terlalu terjebak dalam detail, yang dihasilkan adalah model-model yang merupakan perkiraan yang sangat baik, yang belajar memprediksi seperti apa seharusnya suatu hal berdasarkan pola-pola dalam data latihannya.

Model bahasa besar (LLM) adalah jenis model pembelajaran mendalam yang paling dikenal oleh banyak orang saat ini, yang mendukung chatbot seperti ChatGPT dari OpenAI, Gemini dari Google, dan Claude dari Anthropic.

LLM dilatih menggunakan sejumlah besar teks sehingga menjadi sangat mahir dalam memprediksi kata berikutnya dalam sebuah urutan.

“Fitur-fitur itu mirip dengan fitur pelengkap otomatis di ponsel Anda,” kata Gary Marcus, salah satu tokoh terkemuka dalam komunitas skeptis AI.

“Anda mengetik sesuatu, dan sistem akan menebak apa yang akan muncul selanjutnya.”

“Pada dasarnya, ini adalah perangkat yang sangat canggih untuk membuat prediksi tersebut – dengan melihat konteks, bukan hanya dari beberapa kata terakhir seperti yang mungkin digunakan ponsel Anda, tetapi menggunakan semua hal dalam semua percakapan yang pernah Anda lakukan dalam beberapa waktu terakhir.”

Seiring waktu, sebuah mantra sederhana mengakar di Silicon Valley: buat modelnya lebih besar dan model tersebut akan menjadi lebih baik.

Ada tiga tuas yang dapat ditarik untuk mencapai hal ini.

  • Pertama, tingkatkan ukuran model. Ini berarti menambahkan lebih banyak lapisan atau node sehingga sistem mempelajari lebih banyak parameter (variabel internal yang mengkodekan pengetahuan).
  • Kedua, tingkatkan jumlah data pelatihan. Dengan memberikan lebih banyak contoh pada model, model dapat mempelajari lebih banyak pola.
  • Ketiga, tingkatkan daya komputasi, yang dikenal dalam industri sebagai ‘compute’. Ini melibatkan penggunaan chip yang lebih banyak dan lebih cepat selama pelatihan, memungkinkan model untuk belajar dari data secara lebih efektif.

Meningkatkan ketiga faktor ini secara bersamaan menghasilkan peningkatan kinerja yang tampak sangat mudah diprediksi. Dengan demikian, ‘hukum penskalaan’ pun lahir.

Sama seperti Hukum Moore (yang memprediksi bahwa jumlah transistor pada sebuah chip akan berlipat ganda kira-kira setiap dua tahun, memungkinkan komputer menyusut dari ukuran ruangan menjadi ukuran saku), perusahaan AI berasumsi bahwa hanya dengan meningkatkan skala model – membuatnya lebih besar, melatihnya dengan lebih banyak data, dan menggunakan lebih banyak daya komputasi – akan menghasilkan peningkatan kemampuan yang stabil dan hampir terjamin

Selama beberapa tahun, hal ini terbukti benar. Penerapan hukum penskalaan ini mempercepat perkembangan AI, dan dalam waktu setengah dekade, model pembelajaran mendalam berubah dari mainan yang unik menjadi sistem yang diandalkan oleh ratusan juta pengguna setiap hari.

Model GPT OpenAI yang berurutan merupakan contoh utama dari pola pikir penskalaan. GPT-3, yang dirilis pada tahun 2020, berisi 175 miliar parameter , menjadikannya model terbesar pada masanya.

Penerusnya pada tahun 2023, GPT-4, diperkirakan 10 kali lebih besar, dengan sekitar 1,8 triliun parameter . Data pelatihan juga meningkat pesat: GPT-4 dilaporkan dilatih menggunakan 13 triliun token teks (satu token kira-kira 3/4 dari sebuah kata ). Sebagai perbandingan, seluruh Wikipedia bahasa Inggris hanya berisi sekitar 5 miliar kata – menjadikannya ribuan kali lebih kecil daripada materi pelatihan GPT-4.

Model-model terkemuka lainnya dari Anthropic, Google, dan Meta semuanya mengikuti pola yang serupa.

Secara teori, setiap peningkatan 10 kali lipat dalam ukuran model dan data diharapkan menghasilkan kemampuan baru dan kinerja yang lebih baik di berbagai tugas. Dan memang, kinerja pada banyak benchmark telah meningkat pesat.

Sebagai contoh, GPT-4 mencapai skor 84,6 persen pada tes Massive Multitask Language Understanding – sebuah tolok ukur untuk sistem AI yang mencakup 57 topik – sedangkan GPT-3.5 mencetak skor 70 persen.

Peningkatan tersebut mempersempit kesenjangan menuju kinerja setara manusia pada banyak tugas. GPT-4, misalnya, mampu lulus ujian pengacara dan tes profesional lainnya yang sebelumnya gagal dilewati oleh pendahulunya.

Kemajuan ini memicu klaim besar bahwa kecerdasan buatan umum (AGI) – AI yang dapat melakukan semua pekerjaan Anda lebih baik daripada Anda, mengemudikan mobil Anda, memesan liburan Anda, dan bahkan membuat terobosan ilmiah – sudah di depan mata, dan membenarkan valuasi yang sangat tinggi untuk perusahaan rintisan dan pemasok AI.

Satu-satunya masalah? Hukum penskalaan tersebut mungkin bukanlah ‘hukum’ sama sekali.

3 batasan terbesar AI saat ini

“Jika saya memberitahu Anda bahwa bayi saya memiliki berat 9 pon saat lahir, dan 18 bulan kemudian beratnya berlipat ganda,” kata Marcus, “itu tidak berarti beratnya akan terus berlipat ganda dan menjadi bayi seberat triliun pon pada saat ia masuk perguruan tinggi.”

Yang dia maksud adalah, meskipun hukum penskalaan tampak seperti hubungan yang nyata pada saat itu, dan memberikan hasil yang mengesankan, tidak ada bukti empiris bahwa hukum tersebut akan berlaku selamanya.

Kini mulai terlihat celah, karena model yang lebih besar tidak menghasilkan peningkatan yang proporsional. Model mungkin puluhan kali lebih besar daripada beberapa tahun yang lalu, tetapi menurut sebagian besar metrik, model tersebut tidak 10 kali lebih pintar.

Semua ini menempatkan kegilaan AI dalam sudut pandang yang berbeda. Jika sekadar menambah data dan daya komputasi pada masalah tersebut tidak lagi menghasilkan hasil yang jauh lebih baik, maka fondasi ekonomi dari ledakan AI mulai goyah.

“Masalahnya dengan sistem-sistem ini adalah mereka sebenarnya hanya peniru – mereka tidak memiliki pemahaman mendalam tentang apa yang mereka bicarakan,” kata Marcus.

Pada intinya, seperti yang dikatakan Marcus, model AI saat ini masih merupakan “mesin statistik raksasa” yang mempelajari korelasi, bukan pemahaman sejati. Mereka memprediksi output berdasarkan pola dalam data pelatihan mereka, bukan dengan bernalar tentang dunia seperti yang dilakukan manusia.

Tidak seperti kalkulator yang selalu memberikan jawaban yang benar untuk masalah yang dirancang untuknya, jaringan saraf tidak akan pernah 100 persen benar sepanjang waktu. Cara kerjanya lebih mirip otak manusia, membuat perkiraan terbaik berdasarkan pola yang pernah dilihat sebelumnya.

1. Halusinasi

Generalisasi berlebihan atau rekayasa terang-terangan yang dihasilkan bahkan oleh model-model tercanggih sekalipun sering kali disebut secara halus sebagai ‘halusinasi’.

Sebagian besar dari kita pasti sudah pernah menjumpai hal ini. AI dengan percaya diri mengarang fakta, mengutip penelitian yang tidak ada, atau menyatakan sesuatu yang sepenuhnya salah.

Marcus menggunakan contoh temannya, Harry Shearer, seorang aktor pengisi suara Mr. Burns di The Simpsons , untuk menjelaskan. Shearer pernah menemukan biografi yang dihasilkan AI yang mengklaim bahwa dia adalah orang Inggris, padahal itu salah, seperti yang akan ditunjukkan oleh pengecekan cepat di Wikipedia.

Mengapa model tersebut mengatakan demikian? Mungkin karena banyak aktor suara atau komedian lain yang dibacanya dalam kategori tersebut adalah orang Inggris, sehingga mesin statistik pencocokan pola tersebut menduga bahwa Shearer juga orang Inggris.

Pada dasarnya, AI tersebut tidak memiliki konsep tentang siapa sebenarnya Harry Shearer, atau bahkan apa itu aktor atau Inggris – ia hanya mengulang korelasi yang tampaknya masuk akal dari data pelatihannya.

“Mereka memecah semuanya menjadi bagian-bagian informasi kecil, dan mereka mempelajari korelasi antara bagian-bagian informasi tersebut,” kata Marcus. Dengan kata lain, tidak ada fakta pasti dalam model pembelajaran mendalam, hanya koneksi – dan tidak akan pernah ada.

Secara empiris, model yang lebih baru memang mengalami halusinasi lebih jarang daripada model yang lebih lama, tetapi tetap saja cukup sering terjadi.

Sebuah studi tahun 2024 menemukan bahwa ChatGPT-4 menghasilkan informasi palsu sebanyak 28,6 persen, dibandingkan dengan tingkat halusinasi 39,6 persen untuk GPT-3.5, dalam pengujian di mana akurasi faktual diukur. Menurut OpenAI , perusahaan telah membuat “kemajuan signifikan dalam mengurangi halusinasi” pada model terbarunya, GPT-5, tetapi halusinasi masih sering terjadi.

Sejatinya, tidak ada model AI saat ini yang dapat dipercaya untuk selalu akurat. Kita sebagai manusia masih dibutuhkan untuk memeriksa kebenaran hasil yang diberikan, yang tidak menggantikan keahlian manusia dalam suatu bidang tertentu, tetapi justru membutuhkannya.

2. ‘Masalah data pencilan’

Halusinasi adalah salah satu masalah; masalah lainnya adalah apa yang terjadi ketika model-model ini menghadapi situasi di luar distribusi data pelatihannya. Jika AI melihat sesuatu yang benar-benar baru atau aneh – sesuatu yang tidak terwakili dengan baik dalam miliaran contoh yang telah diserapnya – AI tersebut dapat mengalami kerusakan total.

Marcus menyebut ini sebagai ‘masalah outlier’. Dia mengatakan, “Ada wilayah pinggiran tak terbatas di sekitar pusat segala sesuatu yang belum pernah dijangkau oleh sistem-sistem tersebut.”

Ambil contoh mobil otonom. Mobil-mobil ini seringkali dapat mengenali kendaraan lain yang bergerak dengan cara yang teratur dan familiar. Tetapi jika mereka menemukan truk yang terguling melintang di dua jalur – bentuk yang hampir tidak pernah mereka lihat dalam data pelatihan – sistem mungkin gagal untuk menganggapnya sebagai bahaya sama sekali. Tidak sulit membayangkan betapa mahalnya kesalahan seperti itu.

Ini adalah masalah besar dalam hal ke mana industri AI dapat melangkah selanjutnya, dan inilah mengapa kita belum melihat model ilmuwan AI tunggal memenangkan Hadiah Nobel untuk penemuan-penemuan baru. Model pembelajaran mendalam saat ini dapat mengolah kembali pengetahuan manusia, tetapi tidak dapat memperluasnya jauh melampaui batas apa yang telah dilihatnya.

3. Batasan data

Lalu, apa konsekuensi dari semua ini? Model AI sekarang sangat mahal untuk dilatih dan dijalankan, tidak hanya membutuhkan data dalam jumlah besar tetapi juga infrastruktur komputasi yang sangat besar.

Dan mereka benar-benar kehabisan data yang baik untuk dipelajari – sampai-sampai perusahaan sekarang mengumpulkan dan mentranskripsikan semuanya (seperti subtitle video YouTube ) hanya untuk mendapatkan lebih banyak teks untuk memberi makan “monster” tersebut.

“Selama beberapa tahun terakhir, hampir semua orang menggunakan internet hingga 100 persen, dan mereka tidak lagi mendapatkan keuntungan yang sama,” kata Marcus. “Tidak ada lagi 10 internet yang bisa dimanfaatkan.”

Faktanya, analisis tahun 2024 oleh lembaga penelitian nirlaba Epoch AI memperkirakan bahwa pada suatu titik antara tahun 2028 hingga 2032 , kita mungkin akan kehabisan pasokan data teks manusia berkualitas tinggi untuk pelatihan.

Menurut Elon Musk, yang mendirikan perusahaan AI-nya sendiri, xAI, pada tahun 2023, titik itu mungkin sudah tercapai. “Jumlah kumulatif pengetahuan manusia telah habis dalam pelatihan AI. Itu pada dasarnya terjadi tahun lalu,” kata Musk dalam sebuah wawancara pada bulan Januari yang disiarkan langsung di platform media sosialnya, X.

Biaya revolusi AI

Semua pembicaraan tentang skala ini membuat seolah-olah kita memahami bagaimana sistem-sistem ini benar-benar bekerja. Padahal tidak. Kita tahu seperti apa arsitekturnya dan bagaimana cara membuatnya melakukan tugas, tetapi ketika menyangkut komputasi yang mereka lakukan secara internal untuk menghasilkan output, mereka pada dasarnya adalah kotak hitam.

“Kita tahu cara membangunnya, tetapi kita tidak tahu cara memprediksi secara tepat apa yang akan mereka lakukan,” kata Marcus. “Pada dasarnya, seluruh gagasan menggunakan kotak hitam di mana Anda hanya memasukkan data, seperti Anda menuangkan cranberry ke dalam penggiling, dan mengharapkan kognisi keluar darinya, menurut saya, adalah ide yang buruk sejak awal.”

Menurut survei yang dilakukan oleh Asosiasi untuk Kemajuan Kecerdasan Buatan, pandangan Marcus merupakan konsensus, dengan mayoritas peneliti AI sepakat bahwa sekadar meningkatkan skala pendekatan yang ada saat ini tidak akan menghasilkan AGI (Kecerdasan Buatan yang Diperluas).

Kini, landasan ekonomi dari pendekatan ini mulai menunjukkan tekanan. Dorongan untuk model yang semakin besar memiliki harga yang sangat mahal. Bahkan sejak tahun lalu, CEO Anthropic, Dario Amodei, memperkirakan model-model tersebut akan segera menelan biaya $10 miliar (£7,6 miliar) atau lebih untuk dilatih.

Pelatihan dan penggunaan AI juga berdampak buruk terhadap lingkungan. Meskipun angka pastinya sulit dipastikan, sebuah studi pracetak tahun 2021 oleh para peneliti dari Google dan Universitas California, Berkeley, memperkirakan bahwa proses pelatihan GPT-3 saja membutuhkan 1.287 megawatt jam listrik – cukup untuk memasok listrik bagi 120 rumah di AS selama setahun. Model tersebut jauh lebih kecil daripada yang digunakan saat ini; GPT-4, misalnya, diperkirakan membutuhkan daya 40 kali lipat dari jumlah tersebut .

Penggunaan model-model ini juga mahal. Menurut Goldman Sachs , sebuah kueri ChatGPT membutuhkan daya hampir 10 kali lebih banyak daripada pencarian Google biasa, dan permintaan daya pusat data diproyeksikan akan tumbuh 160 persen pada tahun 2030.

Biaya tersembunyi ini – tagihan listrik, air untuk mendinginkan server, rantai pasokan untuk GPU – adalah kekuatan yang kurang glamor yang mendorong (dan berpotensi meruntuhkan) gelembung AI.

Apakah ini benar-benar gelembung?

Persaingan teknologi ini telah menjadi berkah bagi para produsen chip: pendapatan Nvidia melonjak dari sedikit di atas $20 miliar (£16 miliar) pada tahun 2022 menjadi hampir $130 miliar (£104 miliar) dalam 12 bulan sebelum Agustus 2025. Hasil dan prospek triwulanan terbarunya juga positif, setidaknya mengembalikan sebagian kepercayaan pada perusahaan senilai $4,5 triliun (£3,6 triliun) tersebut.

Dan di sinilah letak keanehan, dan potensi alasan mengapa mungkin belum saatnya untuk menyimpan uang Anda di bawah kasur. Karena, terlepas dari biaya sistem-sistem ini yang sangat mahal, uang tetap dihasilkan.

Sebuah buletin terbaru , juga dari Goldman Sachs, dengan hati-hati menyatakan bahwa “kita belum berada dalam gelembung… namun,” dan alasannya adalah perusahaan-perusahaan seperti Alphabet (perusahaan induk Google), Nvidia, dan Microsoft – yang semuanya merupakan inti dari booming AI – menghasilkan ratusan miliar dolar.

Ini bukanlah perusahaan Pet.com yang rapuh seperti pada masa gelembung dot-com di akhir tahun 1990-an. Mereka adalah raksasa keuangan dengan uang untuk berinvestasi dalam pusat data yang mahal dan pelatihan model.

Jadi, meskipun mungkin benar bahwa banyak perusahaan rintisan AI akan gulung tikar seiring melambatnya pertumbuhan, perusahaan-perusahaan raksasa yang menopang ekonomi global kemungkinan akan tetap bertahan.

Ada juga cara lain bagi perusahaan-perusahaan ini untuk tetap menguntungkan. Bahkan perusahaan AI yang merugi besar-besaran pun dapat memanfaatkan segudang data yang menguntungkan jika mereka mampu merebut pangsa pasar yang cukup besar.

Marcus menyebut ini sebagai langkah menuju “kapitalisme pengawasan” – gagasan bahwa data pribadi kita menjadi bahan mentah yang dapat ditambang dan dijual. Bayangkan media sosial Anda menampilkan iklan yang ditargetkan dan menjual data Anda ke tempat lain – teknik yang sama dapat menjadi ladang uang bagi industri AI.

Dia menambahkan, “Saya pikir mereka pasti memikirkan iklan yang ditargetkan dan sebagainya. Untuk data pribadi, mereka tidak perlu menyelesaikan masalah besar kecerdasan buatan, mereka hanya perlu membuat orang mengetikkan sesuatu – dan mereka sudah melakukannya.”

Jalan baru ke depan

Jika peningkatan skala model yang ada saat ini tidak akan membawa kita pada jenis AI transformatif yang telah diprediksi banyak orang, lalu apa solusinya?

Salah satu opsi, menurut Marcus, adalah kembali ke ide lama yang diam-diam telah menunggu di balik layar: AI neuro-simbolik. Selama setengah abad terakhir, penelitian AI sebagian besar terbagi menjadi dua kubu: mereka yang membangun jaringan saraf dan mereka yang mengembangkan sistem simbolik.

Sistem simbolik, seperti namanya, memanipulasi simbol dengan logika formal.

“Ini disebut manipulasi simbol karena Anda memiliki simbol yang mewakili sesuatu, seperti dalam aljabar,” jelas Marcus. “Pemrograman komputer klasik hampir seluruhnya terdiri dari hal-hal seperti itu, dan jaringan saraf tidak melakukannya dengan baik.”

Dia melanjutkan: “Teknik AI klasik sangat bagus dalam, misalnya, merepresentasikan basis data dan ontologi. Seperti burung robin adalah burung, burung adalah hewan, dan oleh karena itu disimpulkan bahwa burung robin adalah hewan. Teknik AI klasik sempurna dalam hal itu. Mereka tidak pernah berhalusinasi.”

Dengan menggabungkan logika berbasis aturan yang jelas dari AI lama dengan kemampuan mengenali pola dari jaringan saraf, Marcus berpendapat bahwa para peneliti dapat lebih mendekati kecerdasan umum sejati. Sistem hibrida ini akan menghindari batasan kaku dari perangkat lunak tradisional sekaligus mengurangi kesalahan dan jawaban yang dibuat-buat yang menjadi masalah pada model saat ini.

Beberapa perusahaan sudah bereksperimen dengan pendekatan ini, yang paling terkenal adalah Google DeepMind.

Sistem AlphaFold2-nya, yang dapat secara akurat memprediksi struktur 3D protein dari urutan asam aminonya, telah secara luas dipuji sebagai salah satu terobosan ilmiah terpenting dalam beberapa tahun terakhir. Yang terpenting, sistem ini menggabungkan jaringan saraf dengan elemen manipulasi simbolik.

Maka, mungkin tidak mengherankan jika AlphaFold2 meraih Hadiah Nobel Kimia tahun 2024 – sebuah kemenangan yang oleh Marcus disebut sebagai “Hadiah Nobel pertama untuk AI Neurosimbolik”. Ini bukanlah sistem AI yang membuat penemuan tanpa bantuan, tetapi merupakan validasi besar terhadap pendekatan tersebut.

Menurut Marcus, strategi neuro-simbolik tidak akan langsung menghasilkan AGI (Artificial General Intelligence) – tetapi strategi ini bisa menjadi lompatan signifikan ke depan.

Dan meskipun ia pesimis tentang keadaan bidang ini saat ini, ia tetap optimis dengan hati-hati tentang apa yang akan terjadi selanjutnya.

“Apakah kita akan memiliki kecerdasan buatan umum pada tahun 2027? Saya dapat mengatakan dengan kepastian mutlak, atau hampir kepastian mutlak, tidak, kita tidak akan memilikinya.”

Namun, ia menambahkan, “Saya benar-benar yakin kecerdasan buatan yang lebih baik itu mungkin.”

“Tragedi era ini adalah kita menghabiskan begitu banyak uang untuk satu taruhan. Taruhan itu, triliunan dolar, adalah bahwa peningkatan skala, penambahan lebih banyak data, dan penambahan daya komputasi akan membawa kita pada kecerdasan buatan umum. Saya pikir sebenarnya ada banyak bukti yang menentang hal itu saat ini.”

Leave a Reply

Your email address will not be published. Required fields are marked *