Ahli terapi AI berada dalam Bolehkah chatbots meningkatkan kesihatan mental
Ahli terapi AI berada dalam Bolehkah chatbots meningkatkan kesihatan mental

Ahli terapi (AI) berada dalam: Bolehkah chatbots meningkatkan kesihatan mental?

Kaunselor kesihatan mental Nicole Doyle terkejut apabila ketua Persatuan Gangguan Makan Kebangsaan AS muncul pada mesyuarat kakitangan untuk mengumumkan kumpulan itu akan menggantikan talian bantuannya dengan chatbot.

Beberapa hari selepas talian bantuan dialih keluar, bot itu – BK Tessa – juga akan dihentikan kerana memberikan nasihat yang berbahaya kepada orang yang mengalami penyakit mental.

“Orang ramai… mendapati ia memberi nasihat penurunan berat badan kepada orang yang memberitahu mereka sedang bergelut dengan gangguan makan,” kata Doyle, 33, salah seorang daripada lima pekerja yang dilepaskan pada Mac, kira-kira setahun selepas chatbot itu dilancarkan.

“Walaupun Tessa mungkin meniru empati, ia tidak sama dengan empati manusia sebenar,” kata Doyle.

Persatuan Gangguan Makan Kebangsaan (Neda) berkata walaupun penyelidikan di sebalik bot itu menghasilkan keputusan yang positif, mereka sedang menentukan apa yang berlaku dengan nasihat yang diberikan dan “mempertimbangkan dengan teliti” langkah seterusnya.

Neda tidak menjawab secara langsung kepada soalan mengenai pemberhentian kaunselor tetapi berkata dalam komen melalui e-mel bahawa chatbot tidak pernah dimaksudkan untuk menggantikan talian bantuan.

Dari Amerika Syarikat ke Afrika Selatan, chatbot kesihatan mental yang menggunakan kecerdasan buatan (AI) semakin popular apabila sumber kesihatan diperluaskan, walaupun terdapat kebimbangan daripada pakar teknologi mengenai privasi data dan etika kaunseling.

Walaupun alat kesihatan mental digital telah wujud selama lebih sedekad, kini terdapat lebih daripada 40 chatbot kesihatan mental di seluruh dunia, menurut International Journal Of Medical Informatics.

Pelajar antropologi yang berpangkalan di New York, Jonah telah beralih kepada sedozen ubat psikiatri dan talian bantuan yang berbeza untuk membantunya mengatasi gangguan obsesif-kompulsif (OCD) selama ini.

Dia kini telah menambah ChatGPT ke senarai perkhidmatan sokongannya sebagai tambahan kepada perundingan mingguannya dengan ahli terapi.

Jonah telah berfikir tentang bercakap dengan mesin sebelum ChatGPT kerana “sudah ada ekosistem yang berkembang pesat untuk melepaskan kekosongan dalam talian di Twitter atau Discord… ia kelihatan jelas”, katanya.

Walaupun pemain berusia 22 tahun itu, yang meminta untuk menggunakan nama samaran, menyifatkan ChatGPT sebagai memberi “nasihat yang tidak penting”, dia berkata ia masih berguna “jika anda benar-benar bekerja dan hanya perlu mendengar sesuatu yang asas… hanya risau sahaja”.

Pemula teknologi kesihatan mental memperoleh AS$1.6bil (RM7.46bil) dalam modal teroka pada Disember 2020, apabila Covid-19 memberi tumpuan kepada kesihatan mental, menurut firma data PitchBook.

“Keperluan untuk bantuan perubatan jauh telah diserlahkan lebih banyak lagi oleh pandemik Covid-19,” kata Johan Steyn, penyelidik AI dan pengasas AIforBusiness.net, sebuah perundingan pendidikan dan pengurusan AI.

Kos dan tidak mahu dikenali

Sokongan kesihatan mental adalah cabaran yang semakin meningkat di seluruh dunia, kata penyokong kesihatan.

Dianggarkan satu bilion orang di seluruh dunia hidup dengan kebimbangan dan kemurungan pra-pandemi – 82% daripada mereka di negara berpendapatan rendah dan sederhana, menurut Pertubuhan Kesihatan Sedunia (WHO).

Pandemik meningkatkan jumlah itu sebanyak kira-kira 27%, menurut anggaran WHO.

Rawatan kesihatan mental juga dibahagikan mengikut garis pendapatan, dengan kos menjadi penghalang utama untuk mengakses.

Penyelidik memberi amaran bahawa walaupun kemampuan terapi AI boleh memikat, syarikat teknologi mesti berhati-hati dalam menguatkuasakan jurang penjagaan kesihatan.

Orang yang tidak mempunyai akses Internet menghadapi risiko ketinggalan, atau pesakit dengan insurans kesihatan mungkin mengakses lawatan terapi secara peribadi manakala mereka yang tidak mempunyai pilihan chatbot yang lebih murah, menurut Institusi Brookings.

Perlindungan privasi

Walaupun peningkatan populariti chatbots untuk sokongan kesihatan mental di seluruh dunia, kebimbangan privasi masih menjadi risiko utama bagi pengguna, Yayasan Mozilla ditemui dalam penyelidikan yang diterbitkan pada Mei 2022.

Daripada 32 apl kesihatan mental dan doa, seperti Talkspace, Woebot dan Calm, yang dianalisis oleh teknologi bukan untung, 28 telah dibenderakan kerana “kebimbangan kuat terhadap pengurusan data pengguna”, dan 25 gagal memenuhi piawaian keselamatan seperti memerlukan kata laluan yang kukuh.

Penyelidik Yayasan Mozilla Misha Rykov menyifatkan aplikasi itu sebagai “mesin penyedut data dengan venir aplikasi kesihatan mental”, yang membuka kemungkinan data pengguna dikumpul oleh firma insurans, broker data dan syarikat media sosial. Sebagai contoh, penyedia perkhidmatan kesihatan mental Woebot telah diserlahkan dalam penyelidikan untuk “berkongsi maklumat peribadi dengan pihak ketiga”.

Woebot mengatakan bahawa walaupun ia mempromosikan aplikasi menggunakan iklan Facebook yang disasarkan, “tiada data peribadi dikongsi atau dijual kepada rakan kongsi pemasaran atau pengiklanan ini”, dan ia memberi pengguna pilihan untuk memadamkan semua data mereka atas permintaan.

Yayasan Mozilla sejak itu telah menyemak penilaiannya pada bulan April, mengatakan di laman webnya bahawa “selepas kami menerbitkan ulasan kami, Woebot menghubungi kami dan membuka perbualan untuk menangani kebimbangan kami”.

“Hasil perbualan tersebut adalah kemas kini kepada dasar privasi mereka yang lebih menjelaskan cara mereka melindungi privasi pengguna mereka. Jadi sekarang… kami berasa cukup baik tentang privasi Woebot,” katanya.

Pakar AI juga telah memberi amaran terhadap syarikat terapi maya kehilangan data sensitif kepada pelanggaran siber.

“Bot sembang AI menghadapi risiko privasi yang sama seperti bot sembang tradisional atau mana-mana perkhidmatan dalam talian yang menerima maklumat peribadi daripada pengguna,” kata Eliot Bendinelli, seorang ahli teknologi kanan di kumpulan hak asasi Privacy International.

Di Afrika Selatan, aplikasi kesihatan mental Panda akan melancarkan “sahabat digital” yang dijana AI untuk bersembang dengan pengguna, memberikan cadangan tentang rawatan dan, dengan persetujuan pengguna, memberikan skor dan cerapan tentang pengguna kepada ahli terapi tradisional yang juga boleh diakses pada apl .

“Pengiring tidak menggantikan bentuk terapi tradisional tetapi menambahnya dan menyokong orang ramai dalam kehidupan seharian mereka,” kata pengasas Panda, Alon Lits.

Panda menyulitkan semua sandaran dan akses kepada perbualan AI adalah peribadi sepenuhnya, kata Lits dalam ulasan yang die-mel.

Pakar teknologi seperti Steyn berharap peraturan yang mantap akhirnya akan dapat “melindungi daripada amalan AI yang tidak beretika, mengukuhkan keselamatan data dan mengekalkan piawaian penjagaan kesihatan yang konsisten”.

Dari AS ke Kesatuan Eropah, penggubal undang-undang berlumba-lumba untuk mengawal selia alatan AI dan mendorong industri untuk menerima pakai kod kelakuan sukarela sementara undang-undang baharu dibangunkan.

Empati yang direka bentuk

Namun begitu, tidak mahu namanya disiarkan dan kurangnya pertimbangan yang dirasakan adalah sebab orang seperti Tim yang berusia 45 tahun, seorang pengurus gudang dari Britain, beralih kepada ChatGPT dan bukannya ahli terapi manusia.

“Saya tahu ia hanya model bahasa yang besar dan ia tidak ‘tahu’ apa-apa, tetapi ini sebenarnya memudahkan untuk bercakap tentang isu yang saya tidak bercakap dengan orang lain,” kata Tim – bukan nama sebenar – yang bertukar kepada bot untuk mengelak kesepian kroniknya.

Penyelidikan menunjukkan bahawa empati chatbots boleh melebihi empati manusia.

Kajian 2023 dalam jurnal American JAMA Internal Medicine menilai jawapan chatbots dan doktor kepada 195 soalan pesakit yang ditarik secara rawak dari forum media sosial.

Mereka mendapati bahawa jawapan bot telah dinilai “lebih tinggi dengan ketara untuk kedua-dua kualiti dan empati” berbanding dengan doktor.

Penyelidik menyimpulkan bahawa “pembantu kecerdasan buatan mungkin dapat membantu dalam merangka respons kepada soalan pesakit”, bukan menggantikan doktor sama sekali.

Tetapi sementara bot mungkin meniru empati, ini tidak akan sama dengan empati manusia yang diidamkan apabila mereka menghubungi talian bantuan, kata bekas kaunselor Neda Doyle.

“Kita sepatutnya menggunakan teknologi untuk bekerja bersama kita sebagai manusia, bukan menggantikan kita,” katanya. – Yayasan Thomson Reuters

Sila Baca Juga

Pope Francis in resource rich PNG urges fair treatment for workers

Pope Francis, in resource-rich PNG, urges fair treatment for workers

PORT MORESBY (Reuters) -Pope Francis on Saturday called for better treatment of workers in Papua …