LONDON: Sebagai tanda bahawa akademia semakin hangat dengan idea bahawa banyak manuskrip yang diterbitkan tidak lama lagi boleh ditulis bersama oleh kecerdasan buatan, semakin banyak jurnal kini membenarkan penggunaan teks yang dihasilkan oleh AI.
Persatuan Kajian Antarabangsa, rakan kongsi Oxford University Press dan penyelia enam jurnal yang meliputi hal ehwal antarabangsa dan geopolitik, mengumumkan pada 11 Jun bahawa “perkembangan terkini” dengan AI bermakna “pengarang manusia” perlu memberikan “penyata terperinci tentang penggunaan yang tepat. alat AI” dalam perkara yang mereka serahkan pada masa hadapan.
Pengarang “harus”, kata ISA, “memasukkan maklumat tentang alat AI yang tepat dan di mana ia digunakan dalam penciptaan manuskrip” dan memberikan “peratusan kasar pergantungan pada alat AI secara bertulis.”
Tetapi sementara ISA mengatakan bot AI “tidak layak sebagai pengarang”, ia tidak menolak penerbitan akhirnya manuskrip yang dicipta semata-mata oleh AI, dengan hanya mengatakan bahawa editornya “tidak menyemak atau menerima manuskrip yang disusun secara eksklusif oleh alat AI di kali ini.”
Organisasi itu menggesa “komuniti ISA menyemak semula untuk mendapatkan panduan selanjutnya” kerana “keadaan berubah dengan cepat.”
Garis panduan ISA mengikut Jawatankuasa Etika Penerbitan, kumpulan payung penerbit universiti, pada Februari 2023 memberitahu pengarang bahawa – daripada mengelakkan AI sama sekali – mereka harus telus tentang “cara alat AI digunakan,” memberi amaran kepada mereka bahawa mereka akan ” bertanggungjawab atas sebarang pelanggaran etika penerbitan.”
Kenyataan COPE pula mendapat sambutan hangat berikutan rangkaian jurnal JAMA Persatuan Perubatan Amerika yang menyeru “penggunaan model bahasa AI yang bertanggungjawab dan pelaporan yang telus tentang cara alat ini digunakan.”
JAMA pada masa itu menggambarkan jawapan ChatGPT kepada soalan sebagai “kebanyakannya ditulis dengan baik” tetapi pada masa yang sama “formulaik, tidak terkini.”
Lebih membimbangkan, mungkin, memandangkan ia terpakai untuk penyelidikan perubatan, JAMA memetik penemuan bahawa chatbot AI kadangkala keluar dengan “bukti yang tidak wujud untuk tuntutan atau kenyataan yang dibuatnya” dan menyediakan bahan yang “palsu atau rekaan, tanpa tepat atau rujukan lengkap.” – dpa