Bulan lalu, Senator AS dari Connecticut, Chris Murphy, melalui Twitter untuk memberi amaran bahawa ChatGTP telah “mengajar sendiri kimia lanjutan” tanpa digesa.
“Sesuatu akan datang,” Murphy memberi amaran. “Kami tidak bersedia.”
Murphy bercakap kepada CT Insider minggu lepas tentang perasaannya terhadap teknologi. Tetapi masih ada persoalan tentang potensi kesan program AI seperti ChatGTP terhadap isu sensitif seperti perubatan. Apakah yang berlaku apabila AI berkembang ke dalam industri perubatan?
“Saya fikir anda 100% akan melihat perkara ini dalam bidang perubatan pada kedua-dua bahagian yang menghadap pesakit dan pihak penyedia,” kata Dr. Perry Wilson, pengarah Pemecut Penyelidikan Klinikal dan Terjemahan di Sekolah Perubatan Yale.
Apakah ChatGTP?
Sebelum membincangkan secara spesifik perkara yang mungkin dilakukan oleh ChatGTP dalam bidang perubatan, kita harus menentukan apa itu. ChatGTP ialah model bahasa yang besar, yang merupakan jenis program komputer yang diberi sejumlah besar maklumat kontekstual, seperti teks, imej dan audio. ChatGTP diberi makan daripada data yang dikikis daripada internet. Model ini memberikan berbilion parameter kepada maklumat yang telah diberikan. Apabila pengguna memasukkan gesaan, model menggunakan parameter tersebut untuk meramalkan output yang paling masuk akal.
Gesaan boleh terdiri daripada “Beritahu saya cerita” kepada “Tulis saya esei lima perenggan tentang rawatan leukemia.” Program ini akan menyusun respons yang kelihatan munasabah.
Program-program ini bertindak seperti cermin ajaib, mengadun semula dan mencerminkan cebisan dunia, seni manusia dan bahasa kembali kepada kita. Ia adalah ilusi koheren dan kreativiti. Pada asasnya, mereka hanya meneka apa yang kita mahu lihat.
Akibatnya, mereka sangat mahir dalam penjanaan teks formula dan bacaan hafalan maklumat yang terkandung dalam data latihan mereka. Mereka boleh menulis surat borang tetapi bukan jenaka.
“Manusia berfikir pada tahap abstrak yang model bahasa besar tidak boleh,” Rory Mir, pengarah bersekutu penganjur komuniti untuk Yayasan Frontier Elektronik. “Terdapat insentif besar untuk mekanisma minda manusia untuk menjadi model bahasa yang tidak mempunyai pengalaman hidup… tetapi minda kita bukanlah perkara yang boleh direbus menjadi kepingan itu.”
Menulis surat borang
Wilson menjelaskan bahawa di mana dia melihat model bahasa besar campur tangan dalam bidang perubatan terlebih dahulu adalah dalam menavigasi komunikasi birokrasi antara penyedia penjagaan kesihatan dan syarikat insurans. Beliau berkata beliau menjangkakan “plug and play” aplikasi AI yang akan mengambil kriteria diagnostik untuk kod pengebilan dan mengubahnya menjadi komunikasi kebenaran terdahulu.
“Jika saya boleh meminta ChatGTP mengisi semua perkara karut yang biasanya saya perlu isi untuk memuaskan hati orang dalam C-suite yang kami bayar dengan sewajarnya, itu adalah penjimat masa yang besar,” kata Wilson. “Itu sesuatu yang boleh diperkemas oleh sesuatu seperti ChatGTP.”
Pakar lain dalam ruang perubatan digital mengenal pasti beberapa aplikasi lain untuk model bahasa besar, seperti membantu doktor menterjemah istilah perubatan kepada bahasa biasa, membantu dalam kertas kerja penjagaan kesihatan atau penemuan ubat. Tetapi aplikasi ini adalah alat. Mereka tidak sepatutnya difahami sebagai pengganti kepada manusia.
“Mereka adalah perantara yang berkuasa yang mampu secara cekap dan kreatif mengecilkan keluasan kemungkinan tindak balas kepada yang paling mungkin,” tulis Stefan Harrer, ahli etika kecerdasan buatan dan penyelidik di Pusat Penyelidikan Koperasi Kesihatan Digital Melbourne, Australia, dalam jurnal EBioMedicine. “Tetapi mereka tidak dapat menilai sama ada gesaan itu bermakna atau sama ada tindak balas model itu masuk akal.”
Bahaya
Harrer menggariskan beberapa masalah dengan menggunakan model bahasa yang besar dalam penjagaan kesihatan. Khususnya, model bahasa yang besar tidak mempunyai cara untuk menilai output mereka untuk maklumat palsu atau tidak sesuai. Harrer menegaskan bahawa ChatGPT tidak tahu dan tidak peduli sama ada maklumat yang dihasilkannya adalah benar. Penyelidik AI memanggil jenis maklumat salah ini “halusinasi.”
Contoh halusinasi AI boleh dilihat di TikTok MedPage Today, di mana ketua editor Dr. Jeremy Faust bertanya kepada ChatGTP tentang diagnosis hipotesis. Walaupun diagnosis yang diberikan untuk keadaan adalah munasabah, program itu mengeluarkan rujukan yang sama sekali palsu apabila diminta untuk petikan.
“Apabila anda masuk ke dalam perkara tertentu seperti petikan, ia mungkin sudah cukup untuk mengetahui bahawa ia perlu bermula dengan nombor, kemudian taip beberapa perkara yang terdengar seperti tajuk saintifik, nombor jurnal dan tarikh, ” kata Wilson. “Tidak pernah ada bahagian latihan yang mengatakan ‘Oh, kembali dan semak untuk melihat sama ada itu benar, atau ‘imbas Pubmed untuk petikan sebenar.'”
Mir memberitahu CT Insider bahawa halusinasi menjadikan model bahasa besar tidak lebih baik daripada pergi ke “lubang arnab WebMD” untuk diagnosis diri.
“Saya akan katakan ia sebenarnya lebih teruk kerana anda kurang jelas tentang dari mana maklumat ini datang,” kata Mir. “Terdapat kemungkinan halusinasi yang lebih besar dicampur dengan tuntutan yang sah, jadi ia menjadi lebih sukar untuk ditafsirkan.”
Isu privasi dan ketelusan
Mir berkata masalah ketepatan ini dikompaun apabila anda menganggap bahawa data latihan untuk program seperti ChatGTP tidak terbuka. Data latihan boleh termasuk maklumat yang salah, maklumat peribadi, maklumat sensitif dan maklumat yang betul, semuanya bercampur aduk. Sebarang maklumat dalam model boleh diludahkan sebagai tindak balas kepada gesaan.
“Untuk apa sahaja yang dihadapi oleh orang ramai, perkara paling selamat untuk dilakukan oleh sesiapa sahaja ialah menjadikan data latihan kepada umum,” kata Mir. “Jika anda tidak OK dengan meletakkan data itu secara terbuka, maka ia tidak sepatutnya berada dalam data latihan untuk bermula.”
Mir merujuk penemuan imej yang diambil oleh doktor sebagai sebahagian daripada rekod perubatan dalam set data imej LAION-5B yang popular. Artis AI menemui wajahnya sebelum dan selepas prosedur dalam set data. LAION mengikis imej dari internet untuk penjanaan imej.
“Ia membawa isu bahawa, terutamanya untuk keadaan perubatan yang jarang berlaku, bolehkah anda menggesa AI penjanaan imej dengan cara ia menunjukkan seseorang (sebenar) dengan keadaan perubatan ini?” Kata Mir.
Selain membocorkan maklumat perubatan sensitif yang tidak sepatutnya dibocorkan, menggunakan data yang tidak sepatutnya digunakan dan memberikan jawapan yang tidak tepat, terdapat bahaya kepada AI yang serupa dengan yang ditimbulkan oleh enjin carian. Sebastian Zimmeck, seorang profesor sains komputer dan pengarah makmal teknologi privasi di Universiti Wesleyan, berkata bahawa tindakan menggunakan perkhidmatan seperti ChatGTP boleh mendedahkan perkara tentang pengguna hanya dengan menggunakan perkhidmatan tersebut.
“Mungkin anda mencari penyakit tertentu yang anda syak ada – katakan anda selesema,” kata Zimmeck. “Dan kemudian anda mendedahkan kepada pembekal (AI) bahawa anda mempunyai selsema kerana mengapa lagi anda akan bertanya soalan itu.”
Zimmeck berkata walaupun ini serupa dengan kelemahan yang disediakan oleh data carian, ia menimbulkan cabaran unik dalam konteks AI. Memandangkan model bahasa besar ialah enjin ramalan, ini menyediakan model dengan cara untuk membuat ramalan tentang pengguna tertentu. Jika program AI digunakan oleh penyedia insurans, itu mungkin tidak baik untuk pesakit, terutamanya jika AI sepatutnya berfungsi sebagai ahli terapi.
“Ia mungkin membuat korelasi yang jelas, tetapi mungkin ada korelasi yang kurang jelas, ” kata Zimmeck. “Membuat ramalan seperti ini boleh mendedahkan maklumat peribadi.” – Perkhidmatan Berita The Hour, Norwalk, Conn/Tribune