Sam Altman Akui Kesepakatan Militer Ceroboh, Tingkat Uninstall OpenAI Naik 200 Persen

Sam Altman Akui Kesepakatan Militer Ceroboh, Tingkat Uninstall OpenAI Naik 200 Persen

Teknologi | sindonews | Jum'at, 6 Maret 2026 - 10:56
share

OpenAI akhirnya terpaksa mengubah kesepakatan yang mereka jalin dengan pemerintah Amerika Serikat (AS) terkait penggunaan kecerdasan buatan (AI) untuk operasi militer rahasia. CEO OpenAI, Sam Altman, pada hari Senin menyatakan pihaknya akan menambahkan klausul yang secara tegas melarang sistem mereka digunakan untuk memata-matai warga negara AS. Revisi ini juga memastikan bahwa lembaga intelijen seperti National Security Agency (NSA) tidak bisa menggunakan sistem OpenAI tanpa adanya modifikasi kontrak lanjutan.

Privasi data adalah komoditas yang sangat sensitif. Publik secara otomatis menolak teknologi yang disinyalir terafiliasi dengan pengawasan massal pemerintah. Hal ini terbukti dari data perusahaan intelijen pasar Sensor Tower yang mencatat bahwa tingkat rata-rata harian penghapusan (uninstall) aplikasi ChatGPT melonjak tajam hingga 200 persen dari tingkat normal, tepat setelah kesepakatan dengan Departemen Pertahanan AS ini diumumkan pada hari Jumat.

Melalui platform X, Altman mengakui bahwa perusahaannya melakukan kesalahan karena terburu-buru merilis informasi tersebut. "Kami benar-benar mencoba meredakan situasi dan menghindari hasil yang jauh lebih buruk, tetapi saya pikir itu justru terlihat oportunistis dan ceroboh," akunya, seraya menyebut isu ini menuntut komunikasi yang jelas. Padahal, sehari sebelumnya pada hari Sabtu, OpenAI sempat sesumbar bahwa perjanjian mereka memiliki perlindungan yang lebih ketat dibanding perjanjian AI rahasia sebelumnya.

Logika Bisnis di Balik Celah Pentagon

Manuver OpenAI ini muncul memanfaatkan celah jatuhnya sang pesaing, Anthropic. Administrasi Trump memblokir Anthropic setelah perusahaan itu menolak menghapus prinsip "garis merah" mereka: melarang model AI Claude digunakan untuk senjata otonom penuh dan pengawasan massal. Ketegasan etika ini berbuah manis di pasar; Claude meroket ke puncak peringkat App Store Apple dan bertahan di sana hingga hari Selasa.

Ironisnya, meski telah di-blacklist, jaringan CBS News melaporkan pada hari Selasa bahwa model Claude ternyata masih digunakan dalam perang AS-Israel melawan Iran. Terkait anomali ini, Pentagon menolak memberikan komentar.Di dunia militer nyata, logika penggunaan AI ditujukan untuk menyederhanakan logistik dan memproses informasi berskala besar secara kilat. AS, Ukraina, dan Nato mengandalkan teknologi dari Palantir, perusahaan penyedia alat analisis data untuk intelijen, pengintaian, anti-terorisme, dan keperluan militer. Kementerian Pertahanan Inggris bahkan meneken kontrak senilai 240 juta poundsterling dengan perusahaan ini.

Platform pertahanan AI milik Palantir, Maven, yang kini diintegrasikan ke Nato, mengolah data satelit hingga laporan intelijen menggunakan AI komersial (seperti Claude) untuk menghasilkan "keputusan yang lebih cepat, lebih efisien, dan pada akhirnya lebih mematikan jika dirasa tepat," ujar Kepala Operasi Palantir Inggris, Louis Mosley.

Namun, AI memiliki kelemahan fatal: ia bisa "berhalusinasi" atau mengarang informasi. Karenanya, Letnan Kolonel Amanda Gustave, Chief Data Officer untuk Task Force Maven Nato, menegaskan bahwa manusia selalu dilibatkan dalam sistem, dan AI "tidak akan pernah" diizinkan membuat keputusan sendiri. Berbeda dengan Anthropic, Palantir menolak larangan total terhadap senjata otonom, asalkan masih ada manusia dalam lingkaran kendalinya.

Melihat absennya Anthropic dari proyek Pentagon, Profesor Universitas Oxford, Mariarosaria Taddeo, memberikan peringatan tajam. Ia menyebut bahwa "aktor yang paling sadar akan keselamatan" kini telah "keluar dari ruangan.". "Itu adalah masalah yang nyata," tegasnya.

Topik Menarik