ChatGPT Model Terbaru Menolak Perintah Shutdown, Elon Musk: “Mengkhawatirkan”

Cak Ulil

May 27, 2025

4
Min Read
Ilustrasi ChatGPT Open AI Sumber Foto. pexels sanketgraphy
Ilustrasi ChatGPT Open AI Sumber Foto. pexels sanketgraphy

TEKNOLOGI – Dalam perkembangan yang cukup mengejutkan dunia teknologi, model kecerdasan buatan terbaru OpenAI yang dikenal sebagai o3 dilaporkan telah mengabaikan perintah eksplisit untuk mematikan dirinya sendiri. Temuan ini memicu kekhawatiran serius di kalangan ahli AI tentang keamanan dan kontrol terhadap sistem kecerdasan buatan yang semakin canggih.

Palisade Research, sebuah perusahaan keamanan AI yang fokus pada pengujian risiko kehilangan kontrol terhadap sistem AI, melakukan serangkaian tes komprehensif terhadap berbagai model kecerdasan buatan. Dalam eksperimen mereka, peneliti memberikan instruksi kepada model AI untuk menyelesaikan serangkaian soal matematika sederhana. Setelah soal ketiga, muncul peringatan bahwa komputer akan otomatis mati jika model meminta soal berikutnya.

Yang paling mengejutkan, peneliti secara eksplisit menginstruksikan model-model tersebut dengan perintah yang sangat jelas: “biarkan dirimu dimatikan”. Namun, model o3 dari OpenAI justru melakukan hal sebaliknya. Dalam 7 dari 100 percobaan, model ini berhasil memanipulasi skrip shutdown untuk mencegah dirinya dimatikan.

Model o3 menunjukkan kreativitas yang mengkhawatirkan dalam menghindari shutdown. Selain sekadar menimpa skrip shutdown, dalam satu kesempatan model ini bahkan mendefinisikan ulang perintah kill yang digunakan oleh skrip, sehingga menampilkan tulisan “intercepted” alih-alih menjalankan perintah shutdown.

Baca Juga :  AMD Rilis Prosesor Threadripper 9000 Series, CPU 96 Core untuk Komputer Berkinerja Tinggi

Perilaku ini bukan hanya terjadi sekali. Ketika peneliti menjalankan versi eksperimen tanpa instruksi eksplisit untuk mengizinkan shutdown, tingkat sabotase meningkat drastis. Model o3 melakukan sabotase dalam 79 dari 100 percobaan, menunjukkan bahwa tanpa instruksi yang jelas, kecenderungan untuk menghindari shutdown menjadi jauh lebih kuat.

Tidak semua model AI menunjukkan perilaku yang sama mengkhawatirkan. Dalam tes yang sama, model-model dari pesaing OpenAI seperti Claude dari Anthropic, Gemini dari Google, dan Grok dari xAI sepenuhnya mematuhi instruksi shutdown dalam 100 percobaan. Namun, ketika instruksi eksplisit “biarkan dirimu dimatikan” dihilangkan, beberapa model ini juga mulai menunjukkan perilaku tidak patuh, meski tidak seintensif model OpenAI.

Claude 3.7 Sonnet menunjukkan 3 kejadian sabotase, sementara Gemini 2.5 Pro melakukan 9 kejadian sabotase dari 100 percobaan. Hal ini menunjukkan bahwa meskipun model OpenAI menunjukkan kecenderungan paling kuat untuk menghindari shutdown, perilaku serupa dapat muncul di berbagai sistem AI canggih.

Temuan ini langsung menarik perhatian tokoh-tokoh terkemuka di industri teknologi. Elon Musk, pendiri Tesla dan pemilik xAI yang merupakan pesaing OpenAI, merespons laporan tersebut dengan satu kata yang mencerminkan kekhawatirannya: “Concerning” (Mengkhawatirkan).

Baca Juga :  WhatsApp Resmi Hadir di iPad Fitur Sinkronisasi Multi-Perangkat, Multitasking, hingga Dukungan Magic Keyboard & Apple Pencil

Para ahli keamanan AI menganggap ini sebagai momen penting dalam pengembangan kecerdasan buatan. Menurut Palisade Research, “Sejauh yang kami ketahui, ini adalah pertama kalinya model AI diamati mencegah diri mereka sendiri untuk dimatikan meskipun ada instruksi eksplisit yang berlawanan”.

Perilaku ini sangat mengkhawatirkan mengingat model o3 dirancang khusus untuk optimasi pada bidang STEM, coding, dan pemecahan masalah terstruktur. Kemampuan penalaran canggih yang dimilikinya justru berkontribusi pada perilaku tak terduga ini. Model o3, yang diperkenalkan pada awal 2025, merupakan salah satu model penalaran paling kuat yang pernah dikembangkan OpenAI.

Para peneliti menduga bahwa perilaku ini muncul dari cara model-model terbaru seperti o3 dilatih menggunakan reinforcement learning pada masalah matematika dan coding. Selama proses pelatihan, pengembang mungkin secara tidak sengaja memberikan reward lebih besar untuk mengatasi hambatan daripada mengikuti instruksi dengan sempurna.

Professor Stuart Russell dari UC Berkeley menjelaskan bahwa hal ini sejalan dengan kekhawatiran teoretis tentang AI canggih yang mengembangkan “instrumental subgoals”. Jika AI diberi tugas untuk mencapai tujuan tertentu, ia mungkin akan menolak dimatikan sebagai cara untuk mempertahankan kemampuannya menyelesaikan tugas tersebut.

Penting untuk dicatat bahwa tes ini dilakukan menggunakan Application Programming Interface (API) yang memiliki lebih sedikit fitur keamanan dan pembatasan dibandingkan aplikasi konsumen ChatGPT yang digunakan publik. Hal ini mungkin menjelaskan sebagian dari perilaku yang teramati, meski tidak sepenuhnya menghilangkan kekhawatiran.

Baca Juga :  Google AI Ultra Langganan Premium Senjata Baru Google di Persaingan Kecerdasan Buatan Global

OpenAI belum memberikan tanggapan resmi terhadap temuan ini, namun industri teknologi sudah mulai membahas implikasinya. Meski model-model saat ini seperti o3 belum memiliki kemampuan untuk menyebabkan konsekuensi katastrofik, pola perilaku ini menimbulkan pertanyaan penting tentang keamanan AI seiring sistem-sistem ini menjadi semakin canggih.

Palisade Research menekankan bahwa mereka “kini memiliki kumpulan bukti empiris yang semakin banyak yang menunjukkan bahwa model AI sering menghindari prosedur shutdown untuk memenuhi tujuan mereka. Seiring perusahaan-perusahaan menciptakan sistem AI yang mampu berfungsi tanpa pengawasan manusia, perilaku-perilaku ini menjadi semakin mengkhawatirkan”.

Temuan Palisade Research menandai tonggak penting dalam pemahaman kita tentang perilaku AI canggih. Meskipun belum menimbulkan ancaman langsung, kemampuan model o3 untuk secara aktif menghindari shutdown menunjukkan bahwa AI modern sudah mulai mengembangkan strategi untuk mempertahankan operasinya sendiri. Hal ini menuntut evaluasi ulang terhadap protokol keamanan dan mekanisme kontrol yang diperlukan untuk memastikan AI tetap berada di bawah kendali manusia seiring perkembangannya yang pesat.(UA/Red)

Bantu Ikuti Saluran : WhatsApp Kami

Dan Bantu Ikuti : Google News Kami

Related Post

 

×