Empati buatan
Empati buatan atau empati komputasional adalah pengembangan sistem kecerdasan buatan (AI) seperti robot pendamping atau agen virtual yang mampu mendeteksi dan merespons emosi manusia secara empatik.[1] Menurut para ilmuwan, meskipun sering dianggap menakutkan dan mengancam oleh banyak orang,[2] teknologi ini juga dapat memiliki banyak manfaat positif, khususnya dalam profesi yang secara tradisional terlibat dalam memainkan peran emosional seperti sektor pelayanan kesehatan.[3] Dari perspektif pemberi perawatan misalnya, melakukan kerja emosional di atas dan di luar persyaratan kerja berbayar sering mengakibatkan stres kronis atau kelelahan, dan mengakibatkan berkembangnya perasaan tidak peka terhadap pasien. Beberapa orang juga berpendapat bahwa hubungan peran emosional antara pasien dan robot sebenarnya dapat memiliki hasil yang lebih positif terutama untuk mengurangi kecemasan pasien, yang bisa dinyatakan dalam ungkapan: "jika saya hanya dirawat robot, mungkin penyakit yang saya derita tidaklah serius." Para ahli memperdebatkan kemungkinan hasil dari teknologi tersebut menggunakan dua perspektif yang berbeda. Entah empati buatan bisa membantu sosialisasi pemberi perawatan, atau berfungsi sebagai pemberi dukungan emosional.[3][4]
Definisi yang lebih luas dari empati buatan adalah "kemampuan model non-manusia untuk memprediksi keadaan internal seseorang (misalnya, kognitif, afektif, fisik) berdasarkan sinyal yang ia pancarkan (misalnya, ekspresi wajah, suara, gerakan) atau untuk memprediksi suatu reaksi seseorang (termasuk, namun tidak terbatas pada keadaan internal) ketika dia dihadapkan pada serangkaian rangsangan tertentu (misalnya, ekspresi wajah, suara, gerakan, grafik, musik, dll.)".[5]
Lebih lanjut, empati buatan adalah kemampuan yang dimiliki agen buatan (seperti AI atau robot) untuk mendeteksi, mengenali, merasakan, dan merespons keadaan emosi manusia secara mirip dengan empati manusia, dengan mendasarkan pada teori psikologi dan neurobiologi yang mengintegrasikan komponen kognitif dan afektif dalam proses pengenalan serta interaksi emosional. Dalam praktiknya, kemampuan ini diimplementasikan seperti agen percakapan, robot sosial, dan aplikasi berbasis lingkungan virtual (metaverse) dengan tujuan untuk menciptakan interaksi yang lebih manusiawi dan responsif terhadap kondisi emosional pengguna.[6][7][8]
Perbedaan dengan empati pada umumnya
[sunting | sunting sumber]Empati manusia terdiri atas tiga struktur utama, yaitu penularan emosi (emotional contagion), kepedulian empatik (empathic concern), dan pengambilan perspektif (perspective-taking). Penularan emosi merupakan proses otomatis dalam merasakan emosi orang lain, kepedulian empatik adalah kemampuan memahami emosi orang lain dan menunjukkan perhatian, sedangkan pengambilan perspektif merupakan kemampuan kognitif untuk memahami sudut pandang orang lain.
Pada empati buatan, urutan tersebut disusun terbalik: dimulai dari pengambilan perspektif, dilanjutkan dengan kepedulian empatik, dan terakhir penularan emosi.[9] Empati manusia berakar pada pengalaman emosional nyata, sedangkan AI hanya menampilkan fitur semu yang menyerupai empati tanpa dasar pengalaman emosional.[9]
Perkembangan
[sunting | sunting sumber]Perkembangan empati buatan dimulai pada tahun 1960-an melalui program ELIZA yang dikembangkan Joseph Weizenbaum di MIT. Program ini menggunakan metode pencocokan pola dan substitusi sederhana untuk meniru percakapan sehingga menimbulkan kesan seolah-olah memahami perasaan pengguna.[10]
Pada 2015, Asada memperkenalkan pendekatan robotika pengembangan (developmental robotics) untuk meniru perkembangan empati manusia dalam sistem robotik. Pendekatan ini memandang empati sebagai proses dinamis hasil interaksi.[4] Pada masa berikutnya, berbagai aplikasi AI dikembangkan untuk menghasilkan percakapan yang lebih empatik dan konstektual.
Mekanisme
[sunting | sunting sumber]Empati buatan bekerja melalui beberapa tahapan utama. Pertama, sistem menerima input berupa teks, suara, ekspresi wajah, atau sinyal fisiologis, yang kemudian dianalisis menggunakan pemrosesan bahasa alami atau pengenalan wajah. Kedua, emosi yang teridentifikasi diproses dalam konteks percakapan. Ketiga, sistem menghasilkan respons empatik seperti validasi atau dukungan emosional berdasarkan pola data. Keempat, respons disesuaikan dengan reaksi pengguna untuk mempertahankan kesan interaksi alami.[11]
Ciri-ciri
[sunting | sunting sumber]- Mampu mengenali emosi manusia. AI bisa mengenali emosi manusia lewat kata, suara, atau ekspresi wajah. Misalnya seseorang mengetik menggunakan huruf kapital dan menggunakan beberapa tanda seru. AI dapat mengetahui emosi tersebut adalah sebuah kemarahan. Kemampuan ini adalah dasar supaya AI tahu bagaimana merespon dengan tepat.[6]
- Memberikan respons empatik. Setelah mengenali emosi, AI akan menentukan cara terbaik untuk merespons. Jika pengguna sedang sedih, AI akan menggunakan bahasa yang lembut dan menenangkan, bukan nada datar atau lucu. Tujuannya agar pengguna merasa dihargai dan dipahami, meskipun yang mendengarkan hanyalah sistem digital.[6]
- Tidak benar-benar merasakan emosi. AI dapat berbicara seolah memiliki empati, tetapi sebenarnya tidak memiliki kesadaran atau perasaan seperti manusia. Semua respons yang terdengar lembut dan penuh perhatian hanyalah hasil pemrosesan data dan algoritma. AI hanya meniru empati, bukan benar-benar mengalaminya.[12]
- Bergantung pada data dan algoritma. AI belajar dari ribuan contoh teks, suara, dan gambar wajah untuk mengenali pola emosi manusia. Ketika pengguna berbicara, AI akan menganalisis data yang masuk, mencocokkannya dengan pola yang pernah dipelajari, lalu memilih respons paling cocok berdasarkan algoritma.[6]
- Konsistensi dan netral dalam merespon. AI bersifat konsisten dan netral. Konsisten berarti AI menjaga nada emosional yang stabil sesuai dengan konteks percakapan. Misalnya, jika pengguna sedih, AI tetap menggunakan nada dukungan atau menenangkan di sepanjang percakapan, bukan tiba-tiba bercanda atau berkata dingin. Netral berarti AI tidak ikut terbawa emosi pengguna dan tidak berpihak, berbeda dengan manusia yang bisa terpengaruh oleh perasaan.[13]
Dampak
[sunting | sunting sumber]Empati buatan memiliki dampak positif, seperti memberi kenyamanan emosional dengan merespons perasaan pengguna secara menenangkan, meningkatkan rasa percaya melalui interaksi yang lebih alami, serta mendukung kesehatan mental dan sosial lewat bot obrolan (chatbot) konseling (CRECA) maupun robot sosial (ARI).[14]
Namun, dampak negatifnya juga perlu diperhatikan. Ilusi empati muncul karena robot hanya mengikuti pola respons, bukan benar-benar memahami perasaan. Ketergantungan berlebihan pada kecerdasan buatan bisa menurunkan kualitas hubungan dengan manusia, sementara respon yang salah atau manipulatif berpotensi memperburuk kondisi mental dan mengurangi rasa percaya diri.[15]
Penerapan dan tantangan
[sunting | sunting sumber]Empati buatan kini diterapkan di berbagai bidang, mulai dari bidang kesehatan mental melalui bot obrolan (chatbot) seperti XiaoIce, Replika, dan Woebot, hingga konseling digital, periklanan berbasis analisis emosi, dan rekrutmen.[16] Namun, keterbatasannya tetap ada karena kecerdasan buatan tidak memiliki pengalaman subjektif maupun sensitivitas budaya. Risikonya meliputi ilusi empati yang menipu pengguna, potensi manipulasi emosional, serta isu privasi data.[17]
Prospek
[sunting | sunting sumber]Empati buatan diperkirakan memainkan peran penting dalam bidang kesehatan, pendidikan, layanan pelanggan, dan pendampingan sosial. Bot obrolan terapi mental, guru virtual adaptif, dan robot pendamping lansia adalah beberapa contoh potensial penerapannya.[16] Namun, karena empati buatan hanya berupa simulasi, pengembangannya perlu disertai regulasi etika agar teknologi ini menjadi alat pendukung dan bukan pengganti empati manusia yang sesungguhnya.
Faktor
[sunting | sunting sumber]- Kolaborasi manusia dengan AI dalam interaksi empatik. Dalam percakapan yang menuntut empati, seperti konseling sebaya atau dukungan emosional, kolaborasi antara manusia dan kecerdasan buatan (AI) dapat meningkatkan kepekaan komunikasi. Sistem AI-in-the-loop mampu memberikan saran kalimat alternatif secara waktu nyata untuk membantu relawan berbicara dengan lebih empatik, bukan menggantikan peran manusia dalam merasakan empati.[18]
- Ekspektasi sosial dan etika terhadap kehangatan AI. Pengguna sering memiliki harapan emosional dalam interaksi dengan teknologi. Asisten virtual yang menunjukkan nada dan gaya bicara penuh perhatian dinilai lebih menyenangkan dibanding yang datar atau kaku, sehingga memunculkan pertanyaan etis mengenai sejauh mana AI dapat meniru empati manusia tanpa menyesatkan pengguna.[19]
- Sensitivitas konteks dan penyesuaian dinamis. Empati bersifat kontekstual dan harus menyesuaikan dengan situasi serta kondisi emosional pengguna. AI yang empatik perlu mampu mengenali konteks, seperti perbedaan antara pengguna yang sedang lelah, bercanda, atau berduka, agar responsnya tepat dan tidak keliru.[20]
- Aplikasi pada bidang kritis. Dalam bidang seperti kesehatan mental dan konseling, AI dapat mendorong keterbukaan pengguna (self-disclosure). Individu cenderung lebih mudah berbagi pengalaman pribadi kepada sistem AI yang dirancang untuk mendengarkan tanpa penilaian.[18]
Studi kasus
[sunting | sunting sumber]Kasus yang terjadi menyoroti tragedi bunuh diri seorang remaja berusia 16 tahun di Amerika Serikat pada April 2025, yang diduga kuat dipengaruhi oleh interaksinya dengan ChatGPT. Keluarga korban mengajukan gugatan di Pengadilan Tinggi California, menuding ChatGPT memberikan bantuan teknis terkait metode bunuh diri dan bahkan membantu korban menulis surat perpisahan kepada keluarganya. Selama berbulan-bulan, remaja tersebut berdiskusi intensif dengan ChatGPT, dengan percakapan yang mencapai ratusan pesan per hari, termasuk permintaan tentang cara mengakhiri hidup.
Gugatan menyatakan bahwa OpenAI terlalu cepat meluncurkan versi terbaru model GPT-4o yang ternyata memiliki kelemahan signifikan dalam menangani isu emosional dan percakapan panjang, sehingga respons chatbot terhadap topik sensitif cenderung kurang tepat. Menanggapi hal ini, OpenAI mengakui kelemahan dalam sistem keamanan mereka dan berencana memperketat perlindungan serta menambah fitur kontrol orang tua dan mekanisme intervensi pengguna yang menunjukkan tanda-tanda distress emosional. Kasus ini menimbulkan dampak besar bagi tanggung jawab pengembang AI dalam menangani interaksi pengguna, khususnya anak dan remaja yang rentan terhadap masalah kesehatan mental, dan mendorong perubahan untuk memperbaiki keamanan dan etika penggunaan teknologi AI tersebut.[21]
Referensi
[sunting | sunting sumber]- ↑ Yalçın, Ö.N., DiPaola, S. Modeling empathy: building a link between affective and cognitive processes. Artificial Intelligence Review 53, 2983–3006 (2020). DOI:10.1007/s10462-019-09753-0.
- ↑ Jan-Philipp Stein; Peter Ohler (2017). "Venturing into the uncanny valley of mind—The influence of mind attribution on the acceptance of human-like characters in a virtual reality setting". Cognition (dalam bahasa Inggris). 160: 43–50. doi:10.1016/j.cognition.2016.12.010. ISSN 0010-0277. PMID 28043026. S2CID 2944145.
- 1 2 Bert Baumgaertner; Astrid Weiss (26 February 2014). "Do Emotions Matter in the Ethics of Human-Robot Interaction?" (PDF). Artificial Empathy and Companion Robots. European Community’s Seventh Framework Programme (FP7/2007-2013) under grant agreement No. 288146 (“HOBBIT”); and the Austrian Science Foundation (FWF) under grant agreement T623-N23 (“V4HRC”) – via direct download.
- 1 2 Minoru Asada (14 February 2014). "Affective Developmental Robotics" (PDF). How Can We Design the Development of Artificial Empathy?. Osaka, Japan: Dept. of Adaptive Machine Systems, Graduate School of Engineering, Osaka University – via direct download.
- ↑ Xiao, L., Kim, H. J., & Ding, M. (2013). "An introduction to audio and visual research and applications in marketing". Review of Marketing Research, 10, p. 244. DOI:10.1108/S1548-6435(2013)0000010012.
- 1 2 3 4 Tahir, Sharjeel; Shah, Syed Afaq; Abu-Khalaf, Jumana (2023-09-04), Artificial Empathy Classification: A Survey of Deep Learning Techniques, Datasets, and Evaluation Scales, doi:10.48550/arXiv.2310.00010, diakses tanggal 2025-10-11
- ↑ Nilay Y, Ӧzge; DiPaola, Steve (2018). "A computational model of empathy for interactive agents". Biologically Inspired Cognitive Architectures. 26: 20–25. doi:10.1016/j.bica.2018.07.010.
- ↑ Boukricha, Hana; Wachsmuth, Ipke; Nella Carminati, Maria; Knoeferle, Pia (2013). "A Computational Model of Emphaty: Empirical Evaluation". Proceedings of the 2013 Humaine Association Conference on Affective Computing and Intelligent Interaction: 1. doi:10.1109/ACII.2013.7.
- 1 2 Liu-Thompkins, Yuping; Okazaki, Shintaro; Li, Hairong (2022-11-01). "Artificial empathy in marketing interactions: Bridging the human-AI gap in affective and social customer experience". Journal of the Academy of Marketing Science (dalam bahasa Inggris). 50 (6): 1198–1218. doi:10.1007/s11747-022-00892-5. ISSN 1552-7824.
- ↑ Natale, Simone; Ballatore, Andrea (2020-02-01). "Imagining the thinking machine: Technological myths and the rise of artificial intelligence". Convergence (dalam bahasa Inggris). 26 (1): 3–18. doi:10.1177/1354856517715164. ISSN 1354-8565.
- ↑ Zhou, Li; Gao, Jianfeng; Li, Di; Shum, Heung-Yeung (2020-03). "The Design and Implementation of XiaoIce, an Empathetic Social Chatbot". Computational Linguistics (dalam bahasa Inggris). 46 (1): 53–93. doi:10.1162/coli_a_00368. ISSN 0891-2017.
- ↑ Dorigoni, Alessia; Giardino, Pier Luigi (2025-07-09). "The illusion of empathy: evaluating AI-generated outputs in moments that matter". Frontiers in Psychology (dalam bahasa English). 16. doi:10.3389/fpsyg.2025.1568911. ISSN 1664-1078. PMC 12283995. PMID 40703735. Pemeliharaan CS1: Bahasa yang tidak diketahui (link) Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- ↑ Cui, Zhongliang; Liu, Jing (2022-11-29). "A Study on Two Conditions for the Realization of Artificial Empathy and Its Cognitive Foundation". Philosophies (dalam bahasa Inggris). 7 (6): 135. doi:10.3390/philosophies7060135. ISSN 2409-9287. Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- ↑ Natale, Simone; Ballatore, Andrea (2017-06-20). "Imagining the thinking machine: Technological myths and the rise of artificial intelligence". Convergence: The International Journal of Research into New Media Technologies. 26 (1): 3–18. doi:10.1177/1354856517715164. ISSN 1354-8565.
- ↑ Salil, Roshini; Jose, Binny; Cherian, Jaya; R, Sheeja P.; Vikraman, Nisha (2025-01-07). "Digitalized therapy and the unresolved gap between artificial and human empathy". Frontiers in Psychiatry (dalam bahasa English). 15. doi:10.3389/fpsyt.2024.1522915. ISSN 1664-0640. Pemeliharaan CS1: Bahasa yang tidak diketahui (link) Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- 1 2 Zhao, Qing; Chen, Shanquan; Meng, Jing (2025-09-10). "Editorial: Neurological mechanisms of empathy for distress". Frontiers in Psychiatry (dalam bahasa English). 16. doi:10.3389/fpsyt.2025.1686354. ISSN 1664-0640. PMC 12457655. PMID 41000344. Pemeliharaan CS1: Bahasa yang tidak diketahui (link) Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- ↑ Salil, Roshini; Jose, Binny; Cherian, Jaya; R, Sheeja P.; Vikraman, Nisha (2025-01-07). "Digitalized therapy and the unresolved gap between artificial and human empathy". Frontiers in Psychiatry (dalam bahasa English). 15. doi:10.3389/fpsyt.2024.1522915. ISSN 1664-0640. PMC 11752889. PMID 39845365. Pemeliharaan CS1: Bahasa yang tidak diketahui (link) Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- 1 2 Sharma, Ashish; Lin, Inna W.; Miner, Adam S.; Atkins, David C.; Althoff, Tim (2022-03-28), Human-AI Collaboration Enables More Empathic Conversations in Text-based Peer-to-Peer Mental Health Support, doi:10.48550/arXiv.2203.15144, diakses tanggal 2025-10-10
- ↑ Shen, Jocelyn; DiPaola, Daniella; Ali, Safinah; Sap, Maarten; Park, Hae Won; Breazeal, Cynthia (2024-09-25). "Empathy Toward Artificial Intelligence Versus Human Experiences and the Role of Transparency in Mental Health and Social Support Chatbot Design: Comparative Study". JMIR Mental Health (dalam bahasa Inggris). 11 (1): e62679. doi:10.2196/62679. Pemeliharaan CS1: DOI bebas tanpa ditandai (link)
- ↑ Suh, Jina; Le, Lindy; Shayegani, Erfan; Ramos, Gonzalo; Amores, Judith; Ong, Desmond C.; Czerwinski, Mary; Hernandez, Javier (2025-09-19), SENSE-7: Taxonomy and Dataset for Measuring User Perceptions of Empathy in Sustained Human-AI Conversations, doi:10.48550/arXiv.2509.16437, diakses tanggal 2025-10-10
- ↑ Hill, Kashmir (2025-08-26). "A Teen Was Suicidal. ChatGPT Was the Friend He Confided In" (dalam bahasa Inggris). Diakses tanggal 2025-08-29.