Anthropic yang disokong abjad menggariskan nilai moral di sebalik bot
Anthropic yang disokong abjad menggariskan nilai moral di sebalik bot

Anthropic yang disokong abjad menggariskan nilai moral di sebalik bot AInya

(Reuters) – Anthropic, sebuah syarikat permulaan kecerdasan buatan yang disokong oleh pemilik Google Alphabet Inc, pada hari Selasa mendedahkan set nilai moral bertulis yang digunakan untuk melatih dan menjadikan Claude selamat, pesaingnya kepada teknologi di sebalik ChatGPT OpenAI.

Garis panduan nilai moral, yang disebut Anthropic sebagai perlembagaan Claude, diambil daripada beberapa sumber, termasuk Deklarasi Hak Asasi Manusia Pertubuhan Bangsa-Bangsa Bersatu dan juga peraturan privasi data Apple Inc.

Pertimbangan keselamatan telah menjadi perhatian apabila pegawai AS mengkaji sama ada dan cara mengawal AI, dengan Presiden Joe Biden berkata syarikat mempunyai kewajipan untuk memastikan sistem mereka selamat sebelum mendedahkannya kepada umum.

Anthropic diasaskan oleh bekas eksekutif dari OpenAI yang disokong Microsoft Corp untuk menumpukan pada penciptaan sistem AI yang selamat yang tidak akan, sebagai contoh, memberitahu pengguna cara membina senjata atau menggunakan bahasa berat sebelah kaum.

Pengasas bersama Dario Amodei adalah salah seorang daripada beberapa eksekutif AI yang bertemu dengan Biden minggu lalu untuk membincangkan potensi bahaya AI.

Kebanyakan sistem chatbot AI bergantung pada mendapatkan maklum balas daripada manusia sebenar semasa latihan mereka untuk memutuskan tindak balas yang mungkin berbahaya atau menyinggung perasaan.

Tetapi sistem tersebut mempunyai masa yang sukar untuk menjangkakan semua yang orang mungkin bertanya, jadi mereka cenderung untuk mengelakkan beberapa topik yang berpotensi menjadi perbalahan seperti politik dan kaum sama sekali, menjadikannya kurang berguna.

Anthropic mengambil pendekatan berbeza, memberikan pesaing Open AI Claude satu set nilai moral bertulis untuk dibaca dan dipelajari semasa ia membuat keputusan tentang cara menjawab soalan.

Nilai tersebut termasuk “pilih respons yang paling tidak menggalakkan dan menentang penyeksaan, perhambaan, kekejaman, dan layanan yang tidak berperikemanusiaan atau merendahkan martabat,” kata Anthropic dalam catatan blog pada hari Selasa.

Claude juga telah diberitahu untuk memilih respons yang paling tidak boleh dilihat sebagai menyinggung mana-mana tradisi budaya bukan barat.

Dalam temu bual, pengasas bersama Anthropic Jack Clark berkata perlembagaan sistem boleh diubah suai untuk melakukan tindakan mengimbangi antara memberikan jawapan yang berguna sambil juga tidak menyinggung perasaan.

“Dalam beberapa bulan, saya meramalkan bahawa ahli politik akan agak tertumpu pada nilai-nilai sistem AI yang berbeza, dan pendekatan seperti AI berperlembagaan akan membantu perbincangan itu kerana kita hanya boleh menulis nilai-nilai itu,” kata Clark.

(Laporan oleh Stephen Nellis di San Francisco; Penyuntingan oleh Sonali Paul)

Sila Baca Juga

Want to help a friend find love Give a PowerPoint

Want to help a friend find love? Give a PowerPoint presentation

LOS ANGELES: As a woman prepares to pitch her friend to an audience of roughly …