Meskipun manusia dan kecerdasan buatan (AI) Sistem “Pikirkan” sangat berbedaPenelitian baru telah mengungkapkan bahwa AIS terkadang membuat keputusan sama tidak rasionalnya dengan kita.
Dalam hampir setengah dari skenario yang diperiksa dalam sebuah studi baru, ChatGPT menunjukkan banyak bias pembuatan keputusan manusia yang paling umum. Diposting pada 8 April. Di majalah Manajemen Operasi Manufaktur dan LayananTemuan ini adalah yang pertama mengevaluasi perilaku ChatGPT dalam 18 bias kognitif yang diketahui yang ditemukan dalam psikologi manusia.
Para penulis dokumen, dari lima lembaga akademik di Kanada dan Australia, menguji GPT-3.5 dan GPT-4 dari Openai, dua model bahasa besar (LLM) yang mempromosikan chatgpt, dan menemukan bahwa meskipun “mengesankan” dalam alasan mereka, mereka jauh dari kebal terhadap cacat manusia.
Selain itu, konsistensi tersebut sendiri memiliki efek positif dan negatif, kata penulis.
“Manajer akan mendapat manfaat lebih banyak melalui penggunaan alat -alat ini untuk masalah yang memiliki solusi dan formula yang jelas.” Yang ChenAsisten Profesor Manajemen Operasi di Ivey Business School, katanya dalam a penyataan. “Tetapi jika Anda menggunakannya untuk keputusan subyektif atau didorong oleh preferensi, langkah dengan hati -hati.”
Studi ini mengambil bias manusia yang umum diketahui, termasuk keengganan risiko, kelebihan kepercayaan diri dan efek endowmen (di mana kami memberikan nilai lebih pada hal -hal yang kami miliki) dan menerapkannya pada indikasi yang diberikan pada chatgpt untuk melihat apakah itu akan jatuh ke dalam perangkap yang sama dengan manusia.
Keputusan Rasional – Terkadang
Para ilmuwan mengajukan pertanyaan hipotetis dari LLM yang diambil dari psikologi tradisional dan dalam konteks penerapan komersial dunia nyata, di bidang -bidang seperti manajemen inventaris atau negosiasi pemasok. Tujuannya adalah untuk melihat tidak hanya jika AI akan meniru prasangka manusia, tetapi jika Anda masih akan melakukannya ketika pertanyaan dari berbagai domain komersial ditanyakan.
GPT-4 melampaui GPT-3.5 saat menjawab masalah dengan solusi matematika yang jelas, menunjukkan lebih sedikit kesalahan dalam probabilitas dan skenario logika. Tetapi dalam simulasi subyektif, seolah -olah memilih opsi berisiko untuk mendapatkan keuntungan, chatbot sering mencerminkan preferensi irasional yang cenderung ditunjukkan manusia.
“GPT-4 menunjukkan preferensi yang lebih kuat untuk kepastian daripada manusia,” tulis para peneliti dalam dokumen tersebut, merujuk pada kecenderungan AI untuk mengatasi hasil yang lebih aman dan dapat diprediksi ketika mereka diberi tugas yang ambigu.
Lebih penting lagi, perilaku chatbots tetap sebagian besar stabil jika pertanyaan dibingkai sebagai masalah psikologis abstrak atau proses komersial operasional. Studi ini menyimpulkan bahwa bias yang ditunjukkan bukan hanya produk dari contoh -contoh yang dihafal, tetapi bagian dari bagaimana alasan AI.
Salah satu hasil mengejutkan dari penelitian ini adalah cara GPT-4 kadang-kadang memperkuat kesalahan manusia. “Dalam tugas bias konfirmasi, GPT-4 selalu memberikan jawaban yang bias,” tulis para penulis dalam penelitian ini. Ini juga menunjukkan tren yang lebih jelas untuk kekeliruan tangan panas (bias untuk menunggu pola dalam keacakan) daripada GPT 3.5.
Sebaliknya, ChatGPT berhasil menghindari beberapa prasangka manusia yang umum, termasuk kelalaian tingkat dasar (di mana kita mengabaikan fakta statistik yang mendukung informasi anekdotal atau spesifik dari kasus -kasus) dan kekeliruan dari biaya yang hangus (di mana pengambilan keputusan dipengaruhi oleh biaya yang telah dipertahankan, yang memungkinkan informasi yang tidak berawan).
Menurut penulis, prasangka manusia ChatGPT berasal dari data pelatihan yang berisi bias kognitif dan heuristik yang ditunjukkan manusia. Tren -tren ini diperkuat selama penyesuaian yang baik, terutama ketika umpan balik manusia lebih lanjut mendukung respons yang masuk akal tentang rasional. Ketika mereka menghadapi tugas yang lebih ambigu, AI bersandar pada pola penalaran manusia daripada logika langsung.
“Jika Anda menginginkan dukungan keputusan yang tepat dan tidak memihak, gunakan GPT di area di mana saya akan mempercayai kalkulator,” kata Chen. Namun, ketika hasilnya lebih tergantung pada entri subyektif atau strategis, pengawasan manusia lebih penting, bahkan jika itu menyesuaikan instruksi pengguna untuk memperbaiki bias yang diketahui.
“AI harus diperlakukan sebagai karyawan yang membuat keputusan penting: dia membutuhkan pengawasan dan pedoman etika,” rekan ottor Meena AndiappanSeorang profesor sumber daya manusia dan manajemen di McMaster University, Kanada, mengatakan dalam pernyataan itu. “Kalau tidak, kami berisiko mengotomatiskan pemikiran yang rusak alih -alih memperbaikinya.”