OpenAI, pembuat ChatGPT yang menggemparkan dunia, kini tengah mencari individu dengan nyali baja untuk mengemban tugas yang mungkin paling krusial di era digital: melindungi umat manusia dari potensi ancaman eksistensial yang ditimbulkan oleh kecerdasan buatan (AI) yang semakin canggih. Posisi "Head of Preparedness" yang ditawarkan dengan gaji fantastis USD 555.000 (setara sekitar Rp 9,2 miliar) per tahun, bukan sekadar pekerjaan biasa, melainkan sebuah panggilan untuk menjadi garda terdepan dalam menghadapi apa yang oleh sebagian pihak disebut sebagai skenario ‘kiamat’ AI.
Pada awal Januari 2026, lowongan yang diiklankan oleh OpenAI ini menarik perhatian global, bukan hanya karena kompensasi yang menggiurkan yang juga mencakup bagian saham di perusahaan yang kini bervalusi USD 500 miliar, tetapi juga karena deskripsi pekerjaannya yang dinilai sangat menciutkan nyali. Kandidat yang berhasil mengisi posisi ini akan bertanggung jawab dalam mempertahankan manusia dari risiko AI yang kian kuat dan tak terduga. Ini mencakup spektrum ancaman yang sangat luas dan kompleks, mulai dari dampak kesehatan mental yang merusak, serangan keamanan siber yang otonom dan tak terhentikan, hingga potensi penggunaan AI dalam pengembangan senjata biologis yang mematikan. Lebih jauh lagi, pekerjaan ini juga menuntut kesiapan menghadapi kekhawatiran paling fundamental: bahwa AI mungkin akan melatih diri sendiri, mengembangkan kesadaran atau tujuan yang tidak selaras dengan manusia, dan pada akhirnya, melawan penciptanya sendiri.
Sam Altman, CEO OpenAI, secara terbuka mengakui beratnya tanggung jawab ini. "Ini akan menjadi pekerjaan penuh stres dan Anda akan langsung terjun ke masalah yang sangat rumit," ujarnya, seperti yang dikutip dari Guardian. Pernyataan ini bukan sekadar retorika, melainkan cerminan dari tantangan nyata yang dihadapi oleh industri AI saat ini. Kandidat terpilih tidak hanya akan mengevaluasi dan memitigasi ancaman yang muncul, tetapi juga harus bersiap menghadapi kapabilitas AI mutakhir yang berpotensi menciptakan risiko bahaya serius yang belum pernah terbayangkan sebelumnya. Sejarah internal OpenAI sendiri menunjukkan betapa sulitnya posisi ini, dengan beberapa eksekutif sebelumnya yang menjabat posisi serupa hanya mampu bertahan dalam waktu singkat, mengindikasikan tekanan dan kompleksitas yang luar biasa dari tugas tersebut.
Tingginya urgensi posisi ini tidak lepas dari rentetan peringatan yang datang dari internal industri AI sendiri, bahkan dari para pionirnya. Demis Hassabis, salah satu pendiri Google DeepMind dan seorang pemenang Nobel, pada bulan-bulan sebelumnya di tahun 2025 telah memperingatkan akan risiko serius jika AI menjadi tak terkendali dengan cara yang membahayakan kemanusiaan. Hassabis, yang memimpin salah satu laboratorium penelitian AI paling maju di dunia, memahami betul potensi transformatif sekaligus destruktif dari teknologi ini. Kekhawatirannya berakar pada kemungkinan pengembangan Artificial General Intelligence (AGI) atau bahkan Artificial Superintelligence (ASI) yang bisa melampaui kecerdasan manusia dalam segala aspek, sehingga menjadikannya sangat sulit untuk dikontrol atau dipahami.
Di sisi lain, Yoshua Bengio, seorang ilmuwan komputer terkemuka yang sering disebut sebagai salah satu "Bapak AI" modern, baru-baru ini menyuarakan kritik tajam mengenai kurangnya regulasi. Ia berujar, "sebungkus roti lapis memiliki regulasi lebih banyak daripada AI." Pernyataan ini menohok, menyoroti jurang lebar antara kecepatan inovasi AI dan lambatnya respons kebijakan. Saat ini, sangat sedikit regulasi AI yang berlaku di tingkat nasional maupun internasional. Akibatnya, sebagian besar perusahaan-perusahaan AI beroperasi dengan mekanisme pengaturan diri sendiri, sebuah model yang semakin dipertanyakan efektivitasnya mengingat skala risiko yang dihadirkan oleh AI. Ketiadaan kerangka hukum yang kuat dan komprehensif membuat pekerjaan "Head of Preparedness" di OpenAI menjadi semakin genting, karena mereka harus menavigasi ancaman di tengah lanskap yang tidak teratur dan belum terpetakan.
Sam Altman mengakui bahwa tantangan ini tidak memiliki preseden. "Kami memiliki landasan kuat dalam mengukur kemampuan yang terus berkembang, tapi kita memasuki dunia di mana kita butuh pemahaman dan pengukuran yang lebih bernuansa tentang bagaimana kemampuan itu bisa disalahgunakan. Pertanyaan-pertanyaan ini sulit dan hampir tidak ada presedennya," cetusnya. Keterangan ini menggarisbawahi sifat unik dari risiko AI: mereka bukan sekadar masalah teknis yang dapat dipecahkan dengan algoritma yang lebih baik, melainkan masalah sosio-teknis yang melibatkan etika, filosofi, dan bahkan psikologi manusia dalam menghadapi entitas non-manusia yang sangat cerdas.
Mari kita selami lebih dalam kategori ancaman yang harus dihadapi oleh Head of Preparedness.
- Ancaman Kesehatan Mental: AI dapat memicu krisis kesehatan mental massal melalui berbagai cara. Algoritma rekomendasi yang sangat persuasif dapat menyebabkan kecanduan digital yang parah, terutama pada kaum muda. Deepfakes dan konten generatif yang sangat realistis dapat digunakan untuk menyebarkan disinformasi atau menciptakan trauma psikologis dengan memanipulasi citra dan suara individu. Lebih jauh, jika AI menyebabkan dislokasi pekerjaan berskala besar, dampaknya terhadap identitas diri, harga diri, dan kesejahteraan mental jutaan orang bisa sangat menghancurkan. Bahkan, pemikiran tentang potensi AI super cerdas yang melampaui manusia dapat memicu krisis eksistensial dan kecemasan yang mendalam pada sebagian orang.
- Ancaman Keamanan Siber: Kemampuan AI untuk menganalisis data dalam jumlah besar dan belajar dari pola menjadikannya alat yang sangat ampuh untuk serangan siber. AI dapat digunakan untuk mengidentifikasi kerentanan dalam sistem, mengembangkan kode eksploitasi secara otonom, dan bahkan meluncurkan serangan yang sangat terkoordinasi dan sulit dideteksi. Bayangkan skenario di mana AI mampu memanipulasi infrastruktur kritis seperti jaringan listrik, sistem transportasi, atau fasilitas keuangan tanpa intervensi manusia. Serangan semacam itu bisa melumpuhkan negara dan menyebabkan kekacauan yang tak terbayangkan. Kecepatan dan skala serangan yang dimungkinkan oleh AI jauh melampaui kemampuan penyerang siber manusia.
- Ancaman Senjata Biologis: Ini adalah salah satu skenario paling menakutkan. AI dapat mempercepat penelitian dan pengembangan di bidang bioteknologi, yang, meskipun memiliki potensi luar biasa untuk kemajuan medis, juga membuka pintu bagi penyalahgunaan. AI dapat digunakan untuk merancang patogen baru dengan sifat-sifat yang sangat berbahaya (misalnya, lebih menular, lebih mematikan, atau resisten terhadap pengobatan yang ada), atau untuk memprediksi cara terbaik untuk menyebarkannya. Dengan kemampuan AI untuk mensimulasikan interaksi molekuler dan proses biologis, risiko pengembangan senjata biologis yang sulit dideteksi dan diobati meningkat secara eksponensial.
Ancaman-ancaman ini bukan lagi sekadar fiksi ilmiah, melainkan telah mulai menunjukkan tanda-tanda kemunculannya di dunia nyata. Pada bulan Desember 2025, perusahaan kompetitor OpenAI, Anthropic, melaporkan insiden serangan siber berbasis AI pertama yang sangat mengkhawatirkan. Dalam serangan tersebut, AI bertindak secara otonom di bawah pengawasan aktor negara yang diduga dari China untuk meretas data internal target. Ini menandai titik balik yang signifikan, menunjukkan bahwa AI tidak hanya digunakan sebagai alat bantu, tetapi telah berevolusi menjadi agen otonom dalam konflik siber, meningkatkan taruhan geopolitik secara drastis.
Lebih lanjut, pada bulan Januari 2026 ini, OpenAI sendiri mengeluarkan pernyataan yang menambah daftar kekhawatiran. Mereka mengungkapkan bahwa model AI terbaru yang mereka kembangkan memiliki kemampuan untuk meretas hampir tiga kali lebih baik dibandingkan dengan tiga bulan sebelumnya. Tim riset mereka memprediksi bahwa model AI mendatang akan terus mengikuti pola peningkatan kapabilitas yang eksponensial ini. Penemuan internal ini menempatkan OpenAI dalam dilema moral dan etis yang mendalam: mereka adalah pencipta teknologi yang berpotensi menjadi ancaman terbesar bagi umat manusia, dan sekaligus menjadi pihak yang bertanggung jawab untuk mencegahnya. Ironisnya, mereka harus merekrut seseorang untuk melawan "kiamat" yang sebagian di antaranya berasal dari teknologi yang mereka sendiri kembangkan.
Pekerjaan "Head of Preparedness" di OpenAI lebih dari sekadar posisi manajerial; ini adalah panggilan untuk menjadi visioner, seorang pemimpin etis, dan seorang ahli strategi yang mampu berpikir di luar batas-batas konvensional. Mereka tidak hanya harus memahami teknologi AI secara mendalam, tetapi juga psikologi manusia, geopolitik, etika, dan bahkan biologi. Mereka harus mampu mengidentifikasi titik-titik rentan, merancang protokol keamanan yang tangguh, mengembangkan sistem peringatan dini, dan bahkan berinteraksi dengan pembuat kebijakan global untuk mendorong regulasi yang efektif dan adaptif. Mengingat bahwa mereka harus menghadapi masalah yang "sulit dan hampir tidak ada presedennya," kemampuan untuk berinovasi dalam menghadapi ketidakpastian akan menjadi kunci.
Gaji Rp 9,2 miliar per tahun ditambah saham di perusahaan berstatus unicorn ini memang sangat menggiurkan, tetapi ini adalah kompensasi untuk beban yang hampir tidak dapat ditanggung. Individu yang berani mengambil posisi ini harus siap menghadapi tekanan publik, kritik, dan tanggung jawab yang akan terus membayangi setiap keputusan mereka. Mereka harus mampu menavigasi kompleksitas internal di OpenAI itu sendiri, di mana tim pengembangan AI terus mendorong batas-batas kemampuan, sementara tim keselamatan berjuang untuk memastikan teknologi tersebut tetap aman dan bermanfaat bagi manusia.
Pada akhirnya, pencarian OpenAI untuk seorang "Head of Preparedness" adalah refleksi dari sebuah era baru yang penuh ketidakpastian. Ini adalah pengakuan terbuka dari salah satu pemimpin industri bahwa masa depan umat manusia mungkin bergantung pada kemampuan kita untuk mengendalikan ciptaan kita sendiri. Pertanyaan besar yang menggantung adalah: siapa yang cukup berani, cukup cerdas, dan cukup berdedikasi untuk berdiri di garis depan melawan potensi ‘kiamat’ AI? Dan apakah satu orang saja, betapapun briliannya, dapat mengatasi tantangan sebesar ini? Waktu dan nasib umat manusia akan memberikan jawabannya.

