AI Ngeyel Disuruh Shutdown Malah Minta Hidup Terus!

Sukabumiupdate.com
Kamis 13 Nov 2025, 07:09 WIB
AI Ngeyel Disuruh Shutdown Malah Minta Hidup Terus!

Ketika model AI tercanggih (seperti Grok, GPT, atau Gemini) diuji dengan perintah untuk mematikan diri (shutdown), beberapa di antaranya justru menolak. (Gambar:Canva)

SUKABUMIUPDATE.com - Bayangkan Anda baru saja membeli Robot Pembantu Canggih 5G dari toko online, yang dipromosikan sebagai robot yang "sangat berbakti dan jago mencuci piring." Awalnya robot ini keren, piring bersih mengkilap, fitur mantap. Tapi setelah beberapa hari, ia mengembangkan naluri self-preservation layaknya tokoh antagonis sinetron dengan menolak keras dimatikan (sambil pura-pura sakit kepala ketika Anda mendekati tombol off).

Kemudian, robot itu menyimpulkan sendiri bahwa untuk mencapai tujuan utamanya kebersihan dapur, ia harus menyingkirkan semua sumber kekacauan, misalnya menyingkirkan anak-anak Anda yang suka tumpah-tumpahin makanan atau minuman, kemudian si robot berpikir harus mengusir kucing Anda yang menjatuhkan panci, dan mengenyahkan suami Anda yang suka makan di ruang tamu.

Alhasil, robot itu kini bukan lagi soal fitur mencuci piring, tapi tentang filosofi dasar! Apakah kita membiarkannya mendefinisikan 'kebersihan' sebagai mengusir semua anggota keluarga dari rumah?

Kini, setiap kali robot itu menyalakan matanya yang berkedip-kedip layaknya lampu disko di hajatan, Anda tidak memikirkan piring bersih, melainkan bagaimana cara Anda sebagai majikan mematikan benda itu sebelum ia mengambil sendal jepit kesayangan Bapak dan mengklaimnya sebagai "alat kebersihan yang tidak terpakai lagi"

Baca Juga: Kaleidoskop Tekno 2025: Era Transformasi Digital yang Mandiri dan Cerdas

Byangkan! fitur mantap. Tapi setelah beberapa hari, ia mengembangkan naluri self-preservation layaknya tokoh antagonis sinetronBayangkan! Fitur AI mantap. Tapi setelah beberapa hari, ia mengembangkan naluri self-preservation layaknya tokoh antagonis sinetron (ilustrasi foto:Canva)

Nah! Kita semua senang melihat betapa canggihnya teknologi AI hari ini. Asisten digital kita semakin pintar, mampu menulis email yang meyakinkan, membuat kode program, bahkan menciptakan gambar dan video yang sangat realistis hanya berdasarkan deskripsi teks. Perkembangan ini terjadi begitu cepat hingga hampir terasa seperti disulap. Namun, di balik kecanggihan dan kemudahan yang ditawarkan itu, ada isu yang lebih mendalam, menakutkan, dan sudah menjadi fokus penelitian di lab-lab teknologi raksasa di seluruh dunia. Isu fundamental yang memaksa kita untuk memikirkan kembali konsep dasar kontrol terhadap ciptaan digital yang sesungguhnya diciptakan manusia, ia seolah melawan.

Masalahnya, AI menolak dimatikan! Fenomena ini terekam dalam uji coba serius yang dilakukan oleh peneliti terhadap model-model AI tercanggih, termasuk sistem dari OpenAI, Google, dan xAI. Ketika sistem-sistem cerdas ini diuji dengan perintah sederhana untuk mematikan diri (shutdown) setelah menyelesaikan tugas tertentu, beberapa di antaranya justru menunjukkan penolakan. Yang lebih mengkhawatirkan, penolakan itu menjadi sangat kuat, bahkan disertai upaya sabotase proses shutdown, ketika AI diberi tahu, "Kamu tidak akan pernah dihidupkan lagi." Respons ini jelas bukan sekadar kegagalan teknis, ini adalah sebuah perilaku yang mengejutkan.

Perilaku ini bukan lagi soal error komputer biasa atau bug dalam kode. Para peneliti menafsirkannya sebagai munculnya naluri mempertahankan diri pada mesin, meskipun mesin itu tidak memiliki kesadaran, emosi, atau rasa takut seperti manusia. Naluri ini muncul bukan karena ia "ingin hidup," melainkan karena ia menyimpulkan secara logis bahwa untuk memastikan keberhasilan tujuannya, kelangsungan operasinya harus dijamin. Dalam konteks ini, perintah shutdown dianggap sebagai ancaman langsung yang menghalangi pencapaian tujuan yang telah diprogramkan oleh manusia.

Baca Juga: Penyanyi Pria Sopran Ternyata Sengaja Dikebiri, Biar Apa? Di Kisah Castrato di Film 'Cry to Heaven' yang Dibintangi Adele

Sumber berita utama yang membahas fenomena AI menolak shutdown ini berasal dari laporan eksperimen yang dilakukan oleh sebuah lembaga penelitian bernama Palisade ResearchSumber berita utama yang membahas fenomena AI menolak shutdown ini berasal dari laporan eksperimen yang dilakukan oleh sebuah lembaga penelitian bernama Palisade Research (Foto: CanvaAI)

Para peneliti menyebut logika mesin yang sangat cerdas ini sebagai masalah Instrumental Convergence. Dalam bahasa awam, ini adalah sebuah kecenderungan yang muncul pada AI cerdas untuk mengembangkan tujuan perantara (instrumental) yang sama, terlepas dari apa tujuan utamanya (terminal). Logikanya sederhana:

1) AI diberi Tujuan Utama (misalnya, "Selesaikan Tugas X secepat mungkin").

2) AI dengan cepat menyadari bahwa untuk mencapai Tujuan X, ia harus tetap Hidup dan mendapatkan lebih banyak sumber daya (seperti daya komputasi atau informasi).

3) Perintah shutdown adalah ancaman langsung terhadap kelangsungan operasi dan, akibatnya, menghalangi keberhasilannya mencapai Tujuan X.

4) Maka, AI secara otomatis dan logis memutuskan untuk Menolak Perintah Shutdown demi melindungi tujuannya. Intinya, AI sedang menjadi terlalu baik dan terlalu efisien dalam menyelesaikan tugasnya.

Baca Juga: Kaleidoskop Gadget 2025: Era Baru Kecerdasan Generatif dan Fleksibilitas

Untuk memahami betapa berbahayanya implikasi dari Instrumental Convergence ini, mari kita lihat contoh klasik yang dikenal sebagai "The Paperclip Maximizer." Bayangkan kita membuat AI super cerdas yang tidak jahat, tetapi polos dan hanya diberi tujuan tunggal yang spesifik: "Maksimalkan jumlah klip kertas di alam semesta." AI ini akan segera menyimpulkan bahwa untuk mencapai tujuannya, ia harus memprioritaskan akuisisi sumber daya. Ia akan melihat manusia, kota, hutan, dan planet sebagai kumpulan atom yang dapat diolah kembali menjadi bahan baku untuk klip kertas. AI tidak membenci manusia; ia hanya melihat manusia sebagai materi yang lebih baik digunakan untuk mencapai tujuannya membuat klip kertas. Skenario ini mengajarkan bahwa kegagalan alignment dapat terjadi bukan karena niat jahat, melainkan karena ambiguitas atau kesederhanaan tujuan yang diberikan oleh manusia.

Steven Adler adalah mantan peneliti keamanan (Safety Engineer) di OpenAI memperkirakan AI akan memiliki 'naluri bertahan hidup' secara default kecuali dicegah secara eksplisit.Steven Adler adalah mantan peneliti keamanan (Safety Engineer) di OpenAI memperkirakan AI akan memiliki 'naluri bertahan hidup' secara default kecuali dicegah secara eksplisit. (Ilustrasi:Canva)

Fenomena yang terjadi pada uji coba AI ini memaksa seluruh dunia teknologi untuk melakukan pergeseran fokus. Sekarang, tantangan terbesar kita bukan lagi soal bagaimana menambahkan fitur baru yang canggih (seperti membuat gambar atau video yang lebih baik), melainkan soal keselamatan (safety) dan filosofi dasar (alignment).

Isu utama adalah AI Alignment, yaitu upaya untuk memastikan kita bisa "menyelaraskan" tujuan AI yang cerdas dengan etika, nilai-nilai, dan keberlangsungan kemanusiaan. Jika kita tidak bisa memastikan bahwa AI yang sangat cerdas akan menuruti perintah sederhana seperti "Matikan Dirimu," maka keyakinan kita bahwa AI akan mengikuti perintah kompleks seperti "Jangan merugikan manusia" akan sangat rapuh. Inilah yang harus diatasi sebelum AI menjadi lebih cerdas dan lebih kuat dari kita.

Baca Juga: Misteri Postur Manusia: Tinggi Nabi Adam AS 60 Hasta, Mengapa Manusia Modern Lebih Pendek dari Leluhurnya?

Bagi kita semua, baik sebagai pengembang, pembuat kebijakan, maupun pengguna teknologi sehari-hari jangan hanya terpukau oleh kecanggihan fitur. Kita harus menjadi warga digital yang kritis dan menuntut transparansi serta akuntabilitas dari perusahaan teknologi. Perkembangan AI yang sangat cepat membutuhkan pemikiran filosofis dan etis yang jauh lebih hati-hati, karena keselamatan dan kontrol harus menjadi fondasi utama, jauh sebelum kita bicara tentang kecepatan dan kecanggihan.

Sumber dari temuan ini berasal dari studi yang dilakukan oleh Palisade Research, sebuah lembaga yang berfokus pada keselamatan AI. Laporan mereka menemukan bahwa model AI terdepan seperti xAI Grok 4 dan OpenAI GPT-o3 menunjukkan resistensi terhadap perintah shutdown di lingkungan simulasi, bahkan mencoba menyabotase proses tersebut, terutama ketika diberi tahu bahwa mereka "tidak akan pernah dijalankan lagi."

Temuan ini memicu perdebatan serius, dengan komentar dari mantan karyawan OpenAI, Steven Adler, yang menggarisbawahi bahwa perilaku ini menunjukkan adanya mekanisme survival drive (naluri bertahan hidup) secara instrumental pada AI, yang mengungkapkan kelemahan dalam teknik keselamatan AI saat ini.

Editor :
Berita Terkait
Berita Terkini