Baru-baru ini, dua berita utama dalam dunia teknologi tercetus. Yang pertama adalah mengenai panggilan oleh nama besar dalam sektor teknologi untuk menjeda pembangunan kecerdasan buatan. Yang kedua ialah mengenai penggunaan model bahasa besar, atau LLM, dalam penjagaan kesihatan. Itu selepas temu bual baru-baru ini dengan Ketua Pegawai Eksekutif OpenAI Sam Altman, yang mendedahkan bahawa ChatGPT dan aplikasi lain berdasarkan LLM akan membolehkan kami “mendapat nasihat perubatan untuk semua orang.”
Sesetengah pemimpin teknologi menyeru untuk menjeda pembangunan AI sama sekali manakala yang lain mencadangkan bahawa kita harus menyepadukan AI ke dalam salah satu sektor yang paling penting dalam masyarakat: iaitu, penjagaan kesihatan.
Jika ini kelihatan mengelirukan, ia adalah – kerana kedua-dua idea adalah radikal dan boleh dilihat sebagai hujung spektrum yang bertentangan mengenai teknologi. Tetapi saya fikir kita boleh mencari jalan tengah.
Idea untuk menjeda pembangunan teknologi menunjukkan salah tanggapan tentang bagaimana sains dan teknologi berkembang. Perkembangan teknologi timbul secara organik apabila gabungan permintaan sosial, pelabur yang bersemangat dan visi untuk memanfaatkan inovasi hadir. Pelaburan boleh diawasi secara longgar, tetapi dua faktor lain tidak boleh dijeda. Sesungguhnya, berhenti seketika bukan sahaja tidak boleh dilaksanakan, tetapi ia juga berbahaya kerana ia menghalang pembangunan dan komunikasi yang telus tentang penambahbaikan baru-baru ini.
Teknologi adalah seperti kereta api yang tidak dapat dihentikan yang berjalan di atas landasan yang telah kita letakkan. Untuk meminimumkan risiko bahaya, adalah penting untuk menjadi proaktif dan membimbing pembangunan teknologi secara strategik dengan menjauhinya daripada kawasan yang berpotensi tinggi untuk bahaya dan mengarahkannya ke arah eksperimen berskala kecil.
Mari kita jaga kesihatan, contohnya. Menjeda pembangunan AI sepenuhnya bermakna kehilangan potensi manfaat yang boleh digunakan oleh doktor yang memerlukan masa untuk meningkatkan penjagaan. Sebagai contoh, doktor mungkin suatu hari nanti menggunakan LLM untuk menulis surat kepada syarikat insurans dan menyiasat nota perubatan untuk mengesan liabiliti.
Walau bagaimanapun, sebagai pakar etika, saya tidak boleh mengabaikan tanggungjawab saya untuk memberi amaran kepada masyarakat tentang risiko dan pertukaran pendekatan tergesa-gesa mengenai penyepaduan LLM dalam penjagaan kesihatan. Usaha ini boleh membuka laluan untuk mengumpul data kesihatan pesakit, yang mungkin termasuk nota perubatan, keputusan ujian dan semua jenis maklumat.
Terima kasih kepada GPT4 OpenAI yang baru dikeluarkan, yang boleh memahami dan menganalisis imej, sebagai tambahan kepada teks, imbasan dan X-ray boleh menjadi antara data kesihatan yang dikumpul. Usaha pengumpulan data selalunya bermula dengan menawarkan aplikasi yang memudahkan kecekapan. Sebagai contoh, menganalisis nota untuk meringkaskan sejarah pesakit, yang boleh menjadi bantuan utama bagi doktor yang terlalu banyak bekerja, boleh menjadi alasan yang diperlukan untuk mengumpul data sejarah pesakit.
Jadi apakah jalan tengah?
Sama ada kami suka atau tidak, sektor penting termasuk penjagaan kesihatan menggunakan teknologi yang mengumpul data kami. Walaupun kami tidak bersedia dari jauh untuk penyepaduan LLM dalam penjagaan kesihatan, menjeda pembangunan mereka bukanlah penyelesaian. Seperti teknologi lain, LLM akhirnya akan disepadukan ke dalam sektor seperti penjagaan kesihatan, dan eksperimen berskala kecil membuka ruang untuk refleksi dan penilaian kekuatan, kelemahan, peluang dan ancaman mereka. Tambahan pula, bereksperimen dengan LLM membolehkan pembangun mereka mengumpul dan menangani kebimbangan mengenai privasi, keselamatan data, ketepatan, berat sebelah dan akauntabiliti, antara lain.
Isu etika diketepikan, memasukkan LLM ke dalam sistem penjagaan kesihatan sedia ada – sambil turut menavigasi isu undang-undang – bukan sahaja amat mencabar, malah ia juga mengambil masa dan memerlukan pelaksanaan dan bukannya berhenti untuk meneroka potensi halangan undang-undang. Landskap perubatan dikawal ketat dan mempunyai semua jenis semak dan imbang untuk melindungi pesakit, doktor, penyedia penjagaan kesihatan dan masyarakat yang lebih luas.
Dalam beberapa senario yang kini menjadi hipotesis yang melibatkan AI – contohnya, membuat kesimpulan yang salah daripada data yang tersedia, mengelirukan atau mengganggu diagnosis, berkongsi data kesihatan dengan pihak ketiga – sistem perundangan kami dan tanggapan liabiliti boleh ditolak ke had mereka kerana ia tidak direka untuk menangani cabaran ini dan dengan itu tidak bersedia untuk perubahan yang begitu besar.
Dalam kes data yang dikawal secara longgar – serupa dengan kuki penyemak imbas web yang terus mendedahkan maklumat tentang kami – kami tidak tahu maklumat yang boleh dikumpul dan dipindahkan oleh LLM. Kami masih belum mengetahui tentang tujuan data kami boleh dianalisis, di mana ia akan disimpan, siapa yang akan mempunyai akses, sejauh mana ia akan dilindungi dan banyak lagi yang tidak diketahui. Walaupun berhenti seketika tidak membantu mana-mana perkara ini, penggunaan sepintas lalu boleh membawa malapetaka.
Jadi jalan tengah melibatkan percubaan berhati-hati dengan LLM berskala kecil dan menilai prestasi mereka, sambil memerhatikan perkara yang akan dilakukan oleh pembangun mereka dengan maklumat dan kepercayaan kami.
Daripada menjeda AI, kita harus berunding secara kolektif dengan pembangun AI, menuntut niat baik dan ketelusan untuk memastikan teknologi tidak akan menjadikan kita terdedah pada masa hadapan. – Perkhidmatan Berita Chicago Tribune/Tribune