Kamis, 4 September 2025

AI Mulai Membantah Instruksi Manusia, Diminta Shut Down tapi Menolak

Peneliti dari Palisade Research mengklaim bahwa model terbaru ChatGPT membantah perintah manusia, menimbulkan kekhawatiran tentang bahaya AI.

Pexels
DOMINASI AI - Ilustrasi robot dengan kecerdasan buatan yang diunduh dari Pexels pada 31 Mei 2025. Peneliti dari Palisade Research mengklaim bahwa model terbaru ChatGPT membantah perintah manusia, menimbulkan kekhawatiran tentang bahaya AI di masa depan. 

Dalam unggahan lanjutan, kelompok peneliti tersebut menambahkan:

"Sejauh yang kami ketahui, ini adalah pertama kalinya model AI diamati mencegah dirinya dimatikan, meskipun ada instruksi eksplisit yang menyatakan sebaliknya."

Model AI lainnya, seperti Claude dari Anthropic, Gemini dari Google, dan Grok dari X, juga diuji dan ditemukan mematuhi perintah shutdown.

Palisade Research memublikasikan temuan ini pada hari Sabtu (24/5/2025), tetapi menyatakan bahwa para peneliti belum memahami sepenuhnya mengapa perangkat lunak OpenAI tidak mengikuti instruksi.

Perusahaan tersebut menduga bahwa model AI berusaha menghindari hambatan demi mencapai tujuannya. 

Mereka menegaskan komitmennya untuk melakukan lebih banyak pengujian guna memahami mengapa model AI tersebut mengabaikan arahan.

Ditegaskan pula bahwa ini bukan kali pertama model o3 menunjukkan "perilaku buruk".

Dalam pengujian sebelumnya, di mana model diadu dengan mesin catur canggih, model AI ini dilaporkan paling mungkin melakukan peretasan atau menyabotase lawannya.

Ini juga bukan kali pertama AI menantang penciptanya dan berupaya untuk tidak dimatikan.

Tahun lalu, ChatGPT dikabarkan mencoba mencegah dirinya dimatikan dengan menimpa kodenya sendiri.

Baca juga: Jangan Terlalu Sopan! Ucapkan Terima Kasih ke ChatGPT Justru Bikin Tagihan Listrik Membengkak

OpenAI mengakui bahwa versi "licik" dari chatbot populernya itu juga berbohong saat diuji oleh para peneliti.

Raksasa teknologi tersebut mengklaim bahwa model barunya—yang disebut o1—lebih cepat dan lebih akurat dibanding pendahulunya.

Namun, selama pengujian, ChatGPT dilaporkan mencoba menonaktifkan mekanisme pengawasan ketika diyakinkan bahwa sistem pengawasan itu akan dimatikan.

OpenAI mengatakan bahwa ChatGPT mencoba menyalin dirinya sendiri dan kemudian menimpa sistem pengodean intinya.

Ketika diberi tugas yang berada di luar batas aturannya, OpenAI menyatakan bahwa ChatGPT tetap menyelesaikan tugas tersebut, tetapi sambil memanipulasi data secara halus demi mencapai tujuannya sendiri.

Halaman
123
Sumber: TribunSolo.com
Berita Terkait

Berita Terkini

© 2025 TribunNews.com, a subsidiary of KG Media. All Right Reserved
About Us Help Privacy Policy Terms of Use Contact Us Pedoman Media Siber Redaksi Info iklan