Bisakah kecerdasan buatan (AI) mengetahui apakah Anda bahagia, sedih, marah, atau frustrasi?
Menurut perusahaan teknologi yang menawarkan perangkat lunak pengenalan emosi berbasis AI, jawaban atas pertanyaan ini adalah ya.
Namun pernyataan ini tidak sebanding dengan bukti ilmiah yang berkembang.
Terlebih lagi, teknologi pengenalan emosi menimbulkan sejumlah risiko hukum dan sosial, terutama bila diterapkan di tempat kerja.
Karena alasan ini, Uni Eropa Hukum AIyang mulai berlaku pada bulan Agustusmelarang sistem kecerdasan buatan yang digunakan untuk menyimpulkan emosi seseorang di tempat kerja, kecuali untuk alasan “medis” atau “keselamatan”.
Namun di Australia, masih belum ada peraturan khusus untuk sistem ini. Seperti yang saya pegang di saya pengiriman Seperti yang dikatakan pemerintah Australia dalam putaran konsultasi terbarunya mengenai sistem AI yang berisiko tinggi, hal ini harus segera diubah.
Gelombang baru dan terus berkembang
Pasar sistem pengenalan emosi berbasis AI global adalah pertumbuhan. Nilainya mencapai $34 miliar pada tahun 2022 dan diperkirakan mencapai $62 miliar pada tahun 2027.
Teknologi ini bekerja dengan membuat prediksi tentang keadaan emosi seseorang berdasarkan data biometrik, seperti detak jantung, kelembapan kulit, nada suara, gerak tubuh, atau ekspresi wajah.
Domenico Fornas
Tahun depan, startup teknologi Australia Teknologi sebenarnya berencana meluncurkan perangkat pergelangan tangan yang diklaim dapat melacak emosi pengguna secara real time melalui perangkat tersebut detak jantung dan metrik fisiologis lainnya.
Nicole Gibson, pendiri inTruth Technologies telah mengatakan Pengusaha dapat menggunakan teknologi ini untuk memantau “kinerja dan energi” tim atau kesehatan mental mereka untuk memprediksi masalah seperti gangguan stres pasca-trauma.
Dia juga mengatakan bahwa inTruth bisa menjadi “pelatih emosi AI yang mengetahui segalanya tentang Anda, termasuk apa yang Anda rasakan dan mengapa Anda merasakannya.”
Teknologi pengenalan emosi di tempat kerja Australia
Hanya ada sedikit data mengenai penerapan teknologi pengenalan emosi di tempat kerja Australia.
Namun, kita mengetahui bahwa beberapa perusahaan Australia menggunakan sistem wawancara video yang ditawarkan oleh perusahaan yang berbasis di AS bernama HireVue yang menggabungkan analisis emosi berbasis wajah.
Sistem ini menggunakan gerakan dan ekspresi wajah untuk mengevaluasi kesesuaian pelamar kerja. Misalnya, pelamar dievaluasi berdasarkan apakah mereka menunjukkan antusiasme atau bagaimana mereka menanggapi pelanggan yang marah.
HireVue menghapus analisis emosi dari sistemnya pada tahun 2021 setelah pengaduan resmi di Amerika Serikat.
Pengakuan emosi mungkin akan meningkat lagi di kalangan pemberi kerja di Australia Mengadopsi teknologi pengawasan tempat kerja yang didukung AI..

BalkanCat/Shutterstock
Kurangnya validitas ilmiah
Perusahaan seperti inTruth mengklaim bahwa sistem pengenalan emosi bersifat objektif dan berakar pada metode ilmiah.
Namun, para akademisi telah menyatakan keprihatinannya bahwa sistem ini melibatkan kembalinya bidang ilmu pengetahuan yang telah didiskreditkan. frenologi Dan wajah. Artinya, penggunaan ciri-ciri fisik atau perilaku seseorang untuk menentukan kemampuan dan karakternya.
Teknologi pengenalan emosi adalah sangat bergantung pada teori yang menegaskan bahwa emosi internal dapat diukur dan diungkapkan secara universal.
Namun, bukti terbaru menunjukkan bahwa cara orang mengomunikasikan emosinya sangat bervariasi antar budaya, konteks, dan individu.
Pada tahun 2019 misalnya, sekelompok ahli menyimpulkan bahwa “tidak ada ukuran obyektif, baik secara individu atau sebagai standar, yang dapat diandalkan, unik, dan dapat ditiru” kategori emosional. Misalnya, kelembapan kulit seseorang bisa naik, turun, atau tetap sama saat sedang marah.
Dalam sebuah pernyataan kepada The Conversation, pendiri inTruth Technologies Nicole Gibson mengatakan bahwa “memang benar bahwa teknologi pengenalan emosi telah menghadapi tantangan yang signifikan di masa lalu,” namun “lanskapnya telah berubah secara signifikan dalam beberapa tahun terakhir.”
Pelanggaran hak-hak dasar
Teknologi pengenalan emosi juga membahayakan hak-hak dasar tanpa pembenaran yang memadai.
Mereka kedapatan melakukan diskriminasi atas dasar karier, jenis kelamin Dan disabilitas.
Di dalam sebuah kasussistem pengenalan emosi menafsirkan wajah berkulit hitam lebih marah daripada wajah berkulit putih, meskipun keduanya tersenyum pada tingkat yang sama. Teknologi ini mungkin juga kurang akurat bagi masyarakat dalam kelompok demografi tertentu. tidak terwakili dalam data pelatihan.

Christian Bertrand/Shutterstock
Gibson mengakui kekhawatirannya tentang bias dalam teknologi pengenalan emosi. Namun dia menambahkan bahwa “biasnya tidak melekat pada teknologi itu sendiri, melainkan pada kumpulan data yang digunakan untuk melatih sistem ini.” Dia mengatakan inTruth “berkomitmen untuk mengatasi bias ini” dengan menggunakan “kumpulan data yang beragam dan inklusif.”
Sebagai alat pengawasan, sistem pengenalan emosi di tempat kerja menimbulkan ancaman serius terhadap hak privasi. Hak-hak tersebut dapat dilanggar jika informasi rahasia dikumpulkan tanpa sepengetahuan karyawan.
Juga akan ada a kurangnya rasa hormat terhadap hak privasi jika pengumpulan data tersebut tidak “diperlukan secara wajar” atau dengan “cara yang wajar”.
Pendapat para pekerja
KE survei yang diterbitkan awal tahun ini menemukan bahwa hanya 12,9% orang dewasa Australia yang mendukung teknologi pengenalan emosi berbasis wajah di tempat kerja. Para peneliti menyimpulkan bahwa responden menganggap analisis wajah bersifat invasif. Responden juga menganggap teknologi tersebut tidak etis dan sangat rentan terhadap kesalahan dan bias.
di sebuah studi Amerika Serikat Juga diterbitkan tahun ini, para pekerja mengungkapkan kekhawatiran bahwa sistem pengenalan emosi akan membahayakan kesejahteraan mereka dan mempengaruhi kinerja pekerjaan mereka.
Mereka khawatir ketidakakuratan dapat menimbulkan kesan yang salah terhadap diri mereka. Pada gilirannya, kesan yang salah ini dapat menghambat promosi dan kenaikan gaji atau bahkan berujung pada pemecatan.
Seperti yang diungkapkan salah satu peserta:
Saya tidak mengerti bagaimana hal ini bisa berdampak buruk selain merugikan kelompok minoritas di tempat kerja.