Para saintis memberi amaran tentang bahaya AI tetapi tidak bersetuju
Para saintis memberi amaran tentang bahaya AI tetapi tidak bersetuju

Para saintis memberi amaran tentang bahaya AI tetapi tidak bersetuju dengan penyelesaian

CAMBRIDGE: Para saintis komputer yang membantu membina asas teknologi kecerdasan buatan hari ini memberi amaran tentang bahayanya, tetapi itu tidak bermakna mereka bersetuju tentang bahaya tersebut atau cara mencegahnya.

Kelangsungan hidup manusia terancam apabila “perkara pintar boleh mengakali kita,” kata yang dipanggil Godfather AI Geoffrey Hinton pada persidangan Rabu di Massachusetts Institute of Technology.

“Ia mungkin menghalang kami untuk sementara waktu untuk memastikan stesen janakuasa berfungsi,” kata Hinton. “Tetapi selepas itu, mungkin tidak.”

Selepas bersara daripada Google supaya dia boleh bercakap dengan lebih bebas, Hinton yang berusia 75 tahun berkata dia baru-baru ini menukar pandangannya tentang keupayaan penaakulan sistem komputer yang dia habiskan untuk menyelidik seumur hidup.

“Perkara ini akan dipelajari daripada kami, dengan membaca semua novel yang pernah ada dan semua yang pernah ditulis Machiavelli, cara memanipulasi orang,” kata Hinton, sambil berucap kepada orang ramai yang menghadiri persidangan EmTech Digital MIT Technology Review dari rumahnya melalui video. “Malah. jika mereka tidak boleh menarik tuil secara langsung, mereka pasti boleh membuat kita menarik tuil.”

“Saya harap saya mempunyai penyelesaian mudah yang bagus yang boleh saya tolak, tetapi saya tidak,” tambahnya. “Saya tidak pasti ada penyelesaian.”

Rakan perintis AI Yoshua Bengio, pemenang bersama Hinton bagi hadiah sains komputer teratas, memberitahu The Associated Press pada hari Rabu bahawa dia “agak sejajar” dengan kebimbangan Hinton yang dibawa oleh chatbots seperti ChatGPT dan teknologi yang berkaitan, tetapi bimbang itu hanya katakan “Kami sudah ditakdirkan” tidak akan membantu.

“Perbezaan utama, saya akan katakan, ialah dia seorang yang pesimis, dan saya lebih optimistik,” kata Bengio, seorang profesor di Universiti Montreal. “Saya fikir bahayanya – pendek- yang jangka panjang, yang jangka panjang – sangat serius dan perlu diambil serius oleh bukan sahaja beberapa penyelidik tetapi kerajaan dan penduduk.”

Terdapat banyak tanda bahawa kerajaan sedang mendengar. Rumah Putih telah memanggil Ketua Pegawai Eksekutif Google, Microsoft dan pembuat ChatGPT OpenAI untuk bertemu dengan Naib Presiden Kamala Harris pada Khamis dalam perkara yang disifatkan oleh pegawai sebagai perbincangan terus terang tentang cara mengurangkan kedua-dua risiko jangka pendek dan jangka panjang teknologi mereka. Penggubal undang-undang Eropah juga mempercepatkan rundingan untuk meluluskan peraturan AI baharu yang menyeluruh.

Tetapi semua perbincangan tentang bahaya masa depan yang paling mengerikan menimbulkan kebimbangan bahawa gembar-gembur mengenai mesin manusia luar biasa – yang belum wujud – mengganggu daripada percubaan untuk menetapkan perlindungan praktikal pada produk AI semasa yang sebahagian besarnya tidak dikawal.

Margaret Mitchell, bekas ketua pasukan etika AI Google, berkata dia kecewa kerana Hinton tidak bersuara selama dekadnya dalam kedudukan berkuasa di Google, terutamanya selepas penyingkiran saintis Hitam terkemuka Timnit Gebru pada 2020, yang telah mengkaji bahayanya. model bahasa besar sebelum ia dikomersialkan secara meluas menjadi produk seperti ChatGPT dan Bard Google.

“Adalah satu keistimewaan bahawa dia dapat melompat dari realiti penyebaran diskriminasi sekarang, penyebaran bahasa kebencian, ketoksikan dan pornografi tanpa persetujuan wanita, semua isu ini yang secara aktif membahayakan orang yang terpinggir dalam teknologi,” kata Mitchell, yang juga telah dipaksa keluar daripada Google selepas pemergian Gebru. “Dia melangkau semua perkara itu untuk bimbang tentang sesuatu yang lebih jauh.”

Bengio, Hinton dan penyelidik ketiga, Yann LeCun, yang bekerja di induk Facebook Meta, semuanya telah dianugerahkan Hadiah Turing pada 2019 atas kejayaan mereka dalam bidang rangkaian saraf tiruan, yang memainkan peranan penting kepada pembangunan aplikasi AI hari ini seperti ChatGPT.

Bengio, satu-satunya daripada tiga yang tidak mengambil kerja dengan gergasi teknologi, telah menyuarakan kebimbangan selama bertahun-tahun tentang risiko AI jangka pendek, termasuk ketidakstabilan pasaran pekerjaan, persenjataan automatik dan bahaya set data yang berat sebelah.

Tetapi kebimbangan itu telah berkembang baru-baru ini, membawa Bengio untuk menyertai saintis komputer lain dan pemimpin perniagaan teknologi seperti Elon Musk dan pengasas bersama Apple Steve Wozniak dalam menyeru agar berhenti selama enam bulan untuk membangunkan sistem AI yang lebih berkuasa daripada model terbaru OpenAI, GPT-4 .

Bengio berkata pada hari Rabu dia percaya model bahasa AI terbaharu telah melepasi “ujian Turing” yang dinamakan sempena kaedah pemecah kod British dan perintis AI Alan Turing yang diperkenalkan pada tahun 1950 untuk mengukur apabila AI menjadi tidak dapat dibezakan daripada manusia – sekurang-kurangnya di permukaan.

“Itu adalah peristiwa penting yang boleh membawa kesan drastik jika kita tidak berhati-hati,” kata Bengio. “Kebimbangan utama saya ialah bagaimana mereka boleh dieksploitasi untuk tujuan jahat untuk menggugat kestabilan demokrasi, untuk serangan siber, maklumat yang salah. Anda boleh berbual dengan sistem ini dan berfikir bahawa anda sedang berinteraksi dengan manusia. Mereka sukar dikesan.”

Di mana penyelidik kurang bersetuju ialah bagaimana sistem bahasa AI semasa – yang mempunyai banyak batasan, termasuk kecenderungan untuk mengada-adakan maklumat – sebenarnya akan menjadi lebih bijak daripada manusia bukan sahaja dalam menghafal banyak maklumat, tetapi dalam menunjukkan kemahiran penaakulan yang lebih mendalam.

Aidan Gomez ialah salah seorang pengarang bersama kertas kerja perintis 2017 yang memperkenalkan teknik transformer yang dipanggil – “T” pada penghujung ChatGPT – untuk meningkatkan prestasi sistem pembelajaran mesin, terutamanya dalam cara mereka belajar daripada petikan daripada teks. Kemudian hanya seorang pelatih berusia 20 tahun di Google, Gomez masih ingat berbaring di atas sofa di ibu pejabat syarikat di California apabila pasukannya menghantar kertas itu sekitar jam 3 pagi apabila tiba masanya.

“Aidan, ini akan menjadi sangat besar,” dia masih ingat seorang rakan sekerja memberitahunya, tentang kerja yang sejak itu membantu membawa kepada sistem baharu yang boleh menjana prosa dan imejan seperti manusia.

Enam tahun kemudian dan kini Ketua Pegawai Eksekutif syarikat AInya sendiri yang dipanggil Cohere, yang telah dilaburkan oleh Hinton, Gomez teruja dengan potensi aplikasi sistem ini tetapi terganggu oleh ketakutan yang dia katakan “terpisah daripada realiti” keupayaan sebenar mereka dan “bergantung kepada pada lompatan imaginasi dan penaakulan yang luar biasa.”

“Tanggapan bahawa model-model ini entah bagaimana akan mendapat akses kepada senjata nuklear kami dan melancarkan beberapa acara peringkat kepupusan bukanlah wacana yang produktif,” kata Gomez. “Ia berbahaya kepada usaha dasar pragmatik sebenar yang cuba dilakukan. sesuatu yang baik.”

Ditanya mengenai pelaburannya di Cohere pada hari Rabu berikutan kebimbangannya yang lebih luas tentang AI, Hinton berkata dia tidak bercadang untuk menarik pelaburannya kerana masih terdapat banyak aplikasi yang membantu model bahasa dalam bidang perubatan dan tempat lain. Dia juga berkata dia tidak membuat sebarang keputusan buruk dalam meneruskan penyelidikan yang dimulakannya pada 1970-an.

“Sehingga baru-baru ini, saya fikir krisis eksistensi ini sudah lama berlaku,” kata Hinton. “Jadi saya tidak benar-benar menyesali apa yang saya lakukan.” – AP

Sila Baca Juga

Brazilians split over X suspension poll shows

Brazilians split over X suspension, poll shows

SAO PAULO (Reuters) – Brazilians are split over Supreme Court Justice Alexandre de Moraes’ order …