OpenAI kembali menjadi berita utama, kali ini karena dua masalah keamanan yang mengkhawatirkan. Masalah pertama berpusat pada aplikasi Mac untuk ChatGPT, sedangkan yang kedua mengarah pada masalah yang lebih luas tentang bagaimana perusahaan menangani keamanan sibernya.
Daftar Isi
Toggle2 Masalah Keamanan OpenAI

Awal pekan ini, insinyur dan pengembang Swift Pedro José Pereira Vieito menyelidiki aplikasi Mac ChatGPT dan menemukan bahwa aplikasi tersebut menyimpan percakapan pengguna secara lokal dalam teks biasa alih-alih dienkripsi.
Aplikasi ini hanya tersedia dari situs web OpenAI, dan karena tidak tersedia di App Store, maka aplikasi ini tidak perlu mengikuti persyaratan sandbox Apple.
Penemuan Vieito kemudian diliput oleh The Verge, dan setelah eksploit tersebut menarik perhatian, OpenAI merilis pembaruan yang menambahkan enkripsi ke obrolan yang disimpan secara lokal.
Bagi yang bukan pengembang, “sandboxing” adalah praktik keamanan yang mencegah potensi kerentanan dan kegagalan menyebar dari satu aplikasi ke aplikasi lain di mesin. Dan bagi yang bukan ahli keamanan, menyimpan file lokal dalam teks biasa berarti data yang berpotensi sensitif dapat dengan mudah dilihat oleh aplikasi lain atau malware.
Masalah kedua terjadi pada tahun 2023 dengan konsekuensi yang efek riaknya masih berlanjut hingga hari ini. Musim semi lalu, seorang peretas berhasil mendapatkan informasi tentang OpenAI setelah mengakses secara ilegal sistem pesan internal perusahaan.
The New York Times melaporkan bahwa manajer program teknis OpenAI, Leopold Aschenbrenner, menyampaikan kekhawatiran keamanan kepada dewan direksi perusahaan, dengan alasan bahwa peretasan tersebut menunjukkan kerentanan internal yang dapat dimanfaatkan oleh musuh asing.
Aschenbrenner sekarang mengatakan dia dipecat karena mengungkapkan informasi tentang OpenAI dan karena menyampaikan kekhawatiran tentang keamanan perusahaan.
Seorang perwakilan dari OpenAI mengatakan kepada The Times bahwa “sementara kami berbagi komitmennya untuk membangun AGI yang aman, kami tidak setuju dengan banyak klaim yang dia buat sejak saat itu tentang pekerjaan kami” dan menambahkan bahwa keluarnya dia bukan akibat dari pelaporan pelanggaran.
Kerentanan aplikasi adalah sesuatu yang dialami oleh setiap perusahaan teknologi. Pelanggaran oleh peretas juga sangat umum, begitu pula hubungan kontroversial antara whistleblower dan mantan pemberi kerja mereka.
Namun, antara seberapa luas ChatGPT telah diadopsi ke layanan pemain utama dan betapa kacau pengawasan, praktik, dan reputasi publik perusahaan selama ini, masalah terbaru ini mulai melukiskan gambaran yang lebih mengkhawatirkan tentang apakah OpenAI dapat mengelola datanya.
Diperlukan Pengembangan Keamanan Siber yang Lebih Kuat

Keberadaan OpenAI sangat besar dan memberikan kemajuan dalam dunia teknologi AI. Bisa dikatakan, bahwa perusahaan ini merupakan salah satu pionir AI dengan menerapkan kemampuan kecerdasan buatan dalam menjawab pertanyaan, membuat dokumen dan lain sebagainya yang membutuhkan informasi dalam bentuk tulisan.
Produk utama perusahaan ini adalah ChatGPT yang bisa diakses setiap orang secara gratis. Jika ingin mendapatkan fitur yang lebih lengkap maka diharuskan untuk membayar dengan tambahan akses akan Dall-E serta kemampuan AI lain yang cukup memukau.
Akan tetapi, 2 permasalahan yang muncul pada minggu ini membuat OpenAI harus berkomitmen dalam memperkuat keamanan cyber-nya. Tentunya tidak ada pengguna yang ingin history pencariannya diketahui oleh pihak ketiga.
Kemudian, dibutuhkan pembatas pada AI tersebut sehingga tidak bisa mengakses data internal perusahaan. Walaupun hal ini menjadi polemik dan masalah. Namun, jika dilihat dari sisi lain maka hal ini bisa menjadi cara untuk meningkatkan ChatGPT sehingga bisa berkembang lebih baik sesuai dengan kebutuhan para pengguna.