Liputan6.com, Jakarta - Kecerdasan buatan (AI) yang belakangan ini digunakan manusia sebagai alat untuk mendukung aktivitas sehari-hari, ternyata memiliki karakter yang mirip dengan manusia.
Meskipun cara "berpikir" manusia dan sistem AI sangat berbeda, penelitian terbaru mengungkapkan bahwa AI terkadang mengambil keputusan tak rasional layaknya manusia.
Dalam hampir separuh skenario yang diuji dalam studi terbaru, ChatGPT menunjukkan banyak bias pengambilan keputusan umum yang ditemukan pada psikologi manusia.
Mengutip Live Science, Rabu (7/5/2025), temuan yang dipublikasikan pada 8 April 2025 di jurnal Manufacturing & Service Operations Management ini merupakan yang pertama mengevaluasi perilaku ChatGPT di seluruh 18 bias kognitif terkenal yang ada pada manusia.
Para penulis makalah dari lima institusi akademik di Kanada dan Australia menguji GPT-3.5 dan GPT-4 OpenAI, dua model bahasa besar (large language models/LLM) yang mendukung ChatGPT.
Hasilnya, mereka menemukan bahwa meskipun kedua LLM itu menunjukkan konsistensi penalaran yang 'mengagumkan', ternyata tidak sepenuhnya 'kebal' terhadap kekurangan yang biasa ditemukan pada manusia. Lebih lanjut, konsistensi itu sendiri memiliki efek positif dan negatif.
"Para manajer akan mendapatkan manfaat terbesar dengan menggunakan alat AI untuk masalah yang memiliki solusi dengan formula yang jelas," kata ketua peneliti studi, Yang Chen, yang juga dikenal sebagai asisten profesor manajemen operasi di Ivey Business School.
Namun, ia mengimbau, jika kamu menggunakan AI untuk keputusan subjektif atau berdasarkan preferensi, kamu harus mempertimbangkanya.
Studi ini mengambil bias manusia yang umum dikenal, termasuk penghindaran risiko, terlalu percaya diri dan efek kepemilikan, di mana kita memberikan nilai lebih pada hal-hal yang kita miliki.
GPT-4 Vs GPT-3.5
Para ilmuwan kemudian mengajukan pertanyaan hipotetis yang diambil dari psikologi umum kepada LLM, dalam konteks penerapan komersial di dunia nyata, seperti bidang manajemen inventaris atau negosiasi supplier.
Tujuannya bukan hanya untuk melihat apakah AI akan meniru bias manusia, tetapi apakah ia akan tetap melakukannya ketika ditanya pertanyaan dari berbagai domain bisnis.
GPT-4 mengungguli GPT-3.5 ketika menjawab masalah dengan solusi matematika yang jelas, menunjukkan lebih sedikit kesalahan dalam skenario berbasis probabilitas dan logika.
Dalam simulasi subjektif, seperti apakah AI akan memilih opsi berisiko untuk merealisasikan keuntungan, chatbot sering kali mencerminkan preferensi irasional yang cenderung ditunjukkan manusia.
"GPT-4 menunjukkan preferensi yang lebih kuat terhadap kepastian daripada yang dilakukan manusia," tulis tim peneliti dalam makalah tersebut, merujuk pada kecenderungan AI untuk condong ke hasil yang lebih aman dan lebih dapat diprediksi ketika diberikan tugas ambigu.
Lebih penting lagi, perilaku chatbot sebagian besar tetap stabil terlepas dari apakah pertanyaannya dirumuskan sebagai masalah psikologis abstrak atau proses bisnis operasional.
Studi ini menyimpulkan bahwa bias yang ditunjukkan bukan hanya produk dari contoh yang dihafal, tetapi bagian dari cara AI bernalar.
Hasil Mengejutkan
Salah satu hasil mengejutkan dari penelitian ini adalah cara GPT-4 terkadang melakukan kesalahan seperti manusia.
"Dalam tugas bias konfirmasi, GPT-4 selalu memberikan respons yang bias," tulis para penulis dalam studi tersebut.
Ia juga menunjukkan kecenderungan yang lebih kuat terhadap hot-hand fallacy (bias untuk mengharapkan pola dalam keacakan) dibandingkan GPT 3.5.
Sebaliknya, ChatGPT berhasil menghindari beberapa bias manusia yang umum, termasuk pengabaian base-rate (di mana kita mengabaikan fakta statistik demi informasi anekdotal atau spesifik kasus) dan sunk-cost fallacy (pengambilan keputusan dipengaruhi oleh biaya yang telah dikeluarkan, memungkinkan informasi yang tidak relevan mengaburkan penilaian).
Menurut para penulis, bias seperti manusia pada ChatGPT berasal dari data pelatihan yang berisi bias kognitif dan heuristik yang ditunjukkan manusia.
AI Membutuhkan Pengawasan dan Pedoman
Kecenderungan tersebut diperkuat selama fine-tuning, terutama ketika manusia lebih menyukai respons yang masuk akal daripada yang rasional. Ketika menghadapi tugas yang lebih ambigu, AI lebih condong ke pola penalaran manusia daripada logika langsung.
"Jika kamu menginginkan dukungan keputusan yang akurat dan tidak bias, gunakan Generative Pre-trained Transformers (GPT) seperti kalkulator," Chen menjelaskan.
Namun, ketika hasilnya lebih bergantung pada input subjektif atau strategis, pengawasan manusia menjadi lebih penting, bahkan jika itu hanya menyesuaikan prompt pengguna untuk mengoreksi bias yang diketahui.
"AI harus diperlakukan seperti karyawan yang membuat keputusan penting. Ia membutuhkan pengawasan dan pedoman etika. Jika tidak, kita berisiko mengotomatisasi pemikiran yang cacat alih-alih memperbaikinya," kata rekan penulis penelitian ini, Meena Andiappan, seorang profesor madya di bidang sumber daya manusia dan manajemen dari McMaster University, Kanada.