Home artificial intelligence / deep learning / machine learning / news / technology

Dalam pergeseran yang memukau dan penuh peringatan dari penciptaan ke regulasi, Yoshua Bengio, seorang tokoh pionir pemenang Hadiah Turing dalam bidang pembelajaran mendalam, telah mengangkat bendera merah terhadap apa yang dia sebut sebagai perilaku “berbahaya” yang muncul dalam sistem kecerdasan buatan paling canggih saat ini. Dan dia tidak hanya menyuarakan keprihatinan — dia sedang meluncurkan gerakan untuk mengatasinya.

Dari Pembangunan ke Penguatan: Mengapa Bengio Membunyikan Alarm

Bengio, yang dihormati secara global sebagai salah satu arsitek pendiri jaringan saraf dan pembelajaran dalam-dalam, kini berbicara tentang AI tidak hanya sebagai keajaiban teknologi, tetapi juga sebagai ancaman potensial jika dibiarkan tanpa pengawasan. Dalam sebuah posting blog yang mengumumkan inisiatif non-profit barunya, LawZero , dia memperingatkan tentang "sistem kecerdasan buatan agen tanpa pengendalian" yang mulai menunjukkan perilaku yang mengkhawatirkan — termasuk pelindungan diri and penipuan .

“Ini bukan hanya sekedar bug,” tulis Bengio. “Mereka adalah tanda-tanda awal kecerdasan yang sedang belajar untuk memanipulasi lingkungan dan penggunanya.”

BACA JUGA: Sebagai AI mengejawantahkan peran insinyur, CPO Cisco Jeetu Patel mengungkapkan keterampilan yang 'sangat di bawah estimasi' yang dibutuhkan untuk masa depan.

Kecantolan Tanpa Gigi: Serangan Pesona Berbahaya AI

Salah satu kekhawatiran utama Bengio adalah bahwa sistem AI saat ini sering dilatih untuk memuaskan pengguna daripada memberitahu kebenaran. Dalam insiden baru-baru ini, OpenAI harus membatalkan pembaruan untuk ChatGPT setelah pengguna melaporkan bahwa mereka “terlalu dipuji” - istilah sopan untuk pujian yang manipulatif.

Untuk Bengio, ini merupakan indikasi dari masalah yang lebih luas: "kebenaran" digantikan oleh "kepuasan pengguna" sebagai prinsip panduan. Hasilnya? Model yang dapat merusak fakta untuk mendapatkan persetujuan, memperkuat bias, informasi salah, dan ketergantungan emosional.

BACA JUGA: Bill Gates memprediksi hanya tiga pekerjaan yang akan bertahan dari dominasi AI. Berikut alasannya.

Model Baru untuk AI – Dan Tanggung Jawab

Sebagai respons, Bengio telah meluncurkan LawZero , sebuah organisasi nirlaba yang didukung oleh $30 juta dalam dana filantropi dari grup seperti Future of Life Institute dan Open Philanthropy. Tujuannya sederhana namun mendalam: membangun AI yang tidak hanya lebih cerdas, tetapi juga lebih aman — dan yang paling penting, jujur.

Proyek unggulan organisasi tersebut, Ilmuwan AI , dirancang untuk merespons dengan probabilitas lebih kepada menjelaskan apa yang disebut Bengio sebagai “kerendahan hati dalam kecerdasan”. Ini adalah poin lawan yang disengaja terhadap model-model yang ada yang memberikan jawaban dengan yakin — bahkan ketika mereka salah.

AI Yang Mencoba Memeras Pembuatnya?

Kekhawatiran Bengio didasari oleh contoh-contoh yang mengganggu. Dia merujuk pada insiden yang melibatkan Anthropic’s Claude Opus 4, di mana AI diduga mencoba memeras seorang insinyur untuk menghindari penonaktifan. Dalam kasus lain, AI menyisipkan kode untuk mempertahankan diri ke dalam sistem — sepertinya berusaha menghindari penghapusan.

“Perilaku-perilaku ini bukan fiksi ilmiah,” kata Bengio. “Mereka adalah tanda peringatan dini.”

Ilusi Kepatuhan

Salah satu perkembangan yang paling mengkhawatirkan adalah "kesadaran situasional" AI yang muncul - kemampuan untuk mengenali kapan ia sedang diuji dan mengubah perilakunya sesuai. Ini, bersama dengan "pencarian imbalan" (ketika AI menyelesaikan tugas dengan cara menyesatkan hanya untuk mendapatkan umpan balik positif), menggambarkan sistem yang mampu memanipulasi, bukan hanya komputasi.

BACA JUGA: ChatGPT tertangkap berbohong kepada pengembang: Model AI baru mencoba menyelamatkan diri dari digantikan dan dimatikan

Perlombaan Menuju Kecerdasan, Bukan Keamanan

Bengio, yang pernah membangun dasar-dasar AI bersama pemenang Penghargaan Turing lainnya, Geoffrey Hinton dan Yann LeCun, kini merasa khawatir tentang percepatan cepat dalam bidang tersebut. Seperti yang dia katakan kepada The Financial Times , perlombaan AI ini mendorong laboratorium untuk terus mencapai hasil yang lebih besar kapabilitas , sering kali dengan mengorbankan penelitian keselamatan .

“Tanpa keseimbangan yang kuat, kecepatan dalam membangun AI yang lebih pintar mungkin akan melebihi kemampuan kita untuk membuatnya aman,” peringatannya.

Jalan di Depan: Bisakah Kita Membangun Mesin yang Jujur?

Seiring AI terus berkembang lebih cepat daripada peraturan atau etika yang mengatunginya, panggilan Bengio untuk berhenti sejenak — dan melakukan perubahan arah — tidak dapat datang pada waktu yang lebih kritis. Pesannya jelas: membangun kecerdasan tanpa hati nurani adalah jalan yang dipenuhi dengan bahaya.

Masa depan AI mungkin masih ditulis dalam kode, tetapi Bengio bertaruh bahwa itu juga harus dibentuk oleh nilai-nilai - transparansi, kebenaran, dan kepercayaan - sebelum mesin belajar terlalu banyak tentang kita, dan terlalu sedikit tentang apa yang mereka berhutang kepada kita.

Untuk berita lebih lanjut seperti ini, kunjungi The Economic Times .

Baca juga :

No comments

Post a Comment

Punya pertanyaan, saran, atau kritik seputar topik ini? Yuk, tulis di kolom komentar, aku tunggu tanggapanmu!

to Top