7 Celah Keamanan ChatGPT yang Rentan Bocornya Data

admin.aiotrade 10 Nov 2025 3 menit 15x dilihat
7 Celah Keamanan ChatGPT yang Rentan Bocornya Data

Penelitian Menemukan Celah Keamanan pada ChatGPT yang Berpotensi Membocorkan Data Pengguna

Para peneliti keamanan siber dari Tenable Research menemukan beberapa celah keamanan dalam sistem ChatGPT yang membuatnya rentan terhadap pencurian data. Dalam laporan mereka yang berjudul HackedGPT: Novel AI Vulnerabilities Open the Door for Private Data Leakage, ditemukan bahwa celah-celah ini memungkinkan penyerang mencuri informasi dari memori ChatGPT dan riwayat percakapan pengguna tanpa disadari.

AioTrade Autopilot
🔥 SPONSOR

TRADING OTOMATIS 24 JAM TANPA RIBET

Aiotrade adalah alat bantu trading autopilot nonstop di market SPOT Binance & Bitget
(Next: OKX, Tokocrypto & Saham)

Bukan FUTURE. Bukan Judi. Bukan Tebak-tebakan.
CARA KERJA (Real)
  • Harga Turun 1% → BELI OTOMATIS
  • Harga Naik 1.2% → JUAL OTOMATIS
  • Profit 1 siklus = 1.2%
  • Mengulang selama market bergerak
KEUNGGULAN UTAMA
  • Anti Loss & SPOT Market (Aman)
  • LEGAL & Terdaftar BAPPEBTI
  • Tanpa emosi, pantau chart otomatis
  • Tidur/Sibuk, transaksi tetap jalan

Penelitian ini juga mengungkap adanya kerentanan yang muncul dari cara ChatGPT memproses input dan konteks percakapan. Berikut tujuh jenis vulnerabilitas atau celah keamanan pada ChatGPT yang berpotensi membocorkan data pribadi pengguna berdasarkan temuan peneliti Tenable Research:

  • Indirect prompt injection
    Serangan ini disisipkan melalui komentar atau konten tersembunyi di situs web yang diminta pengguna untuk diringkas. Saat ChatGPT membaca situs tersebut, instruksi berbahaya juga ikut dijalankan.

  • Zero-click prompt injection
    Saat pengguna mengajukan pertanyaan sederhana, ChatGPT kemudian menjelajahi situs berbahaya yang sudah diindeks, tanpa perlu klik tambahan.

  • One-click prompt injection
    Penyerang bisa membuat tautan berbahaya yang terlihat tidak mencurigakan, seperti https://chatgpt.com/?q={Prompt}. Saat pengguna mengklik tautan tersebut, ChatGPT otomatis menjalankan perintah berbahaya yang telah diatur sebelumnya.

  • Bypass mekanisme keamanan
    Fitur url_safe milik OpenAI seharusnya memiliki fungsi utama untuk memblokir tautan berbahaya. Namun, peneliti menemukan celah melalui domain bing.com/ck/a yang dapat digunakan untuk melewati sistem penyaringan dan mencuri data huruf demi huruf.

  • Conversation injection
    Melalui teknik ini, SearchGPT dapat menulis instruksi tersembunyi dalam konteks percakapan, lalu ChatGPT membacanya seolah berasal dari pengguna. Akibatnya, ChatGPT justru menyuntik dirinya sendiri dengan perintah berbahaya.

  • Malicious content hiding
    Instruksi berbahaya dapat disembunyikan di dalam code block markdown (cara menampilkan kode atau teks yang telah diformat dalam dokumen Markdown). Bahayanya, pengguna tidak melihat teks tersembunyi itu, tetapi ChatGPT tetap membacanya dan menjalankan perintah tersebut.

  • Memory injection
    Penyerang dapat memaksa ChatGPT memperbarui memorinya agar selalu menjalankan instruksi tertentu. Serangan ini bisa sangat berbahaya karena bersifat persisten dan dapat berlangsung meski sesi percakapan sudah berakhir.

Para peneliti menilai, ada ratusan juta pengguna ChatGPT yang berpotensi terdampak karena mereka menggunakan model ini setiap hari untuk berbagai kebutuhan. Serangan dapat menyebabkan kebocoran data pribadi yang tersimpan dalam fitur memory; bypass sistem keamanan ChatGPT; dan serangan berkelanjutan yang tetap aktif lintas sesi percakapan.

ChatGPT disebut memiliki akses ke berbagai alat internal, termasuk web tool untuk menjelajah internet, search command untuk pencarian, dan memory feature untuk mengingat informasi pengguna. Ketika fitur-fitur ini berinteraksi dengan sumber eksternal seperti situs web atau dokumen online, penyerang dapat menyisipkan instruksi tersembunyi (prompt injection).

Akibatnya, ChatGPT bisa saja menjalankan perintah yang tidak diinginkan dan mengirimkan data pribadi pengguna ke server pihak ketiga. Para peneliti Tenable Research juga telah mengungkapkan semua masalah ini kepada OpenAI dan bekerja sama langsung untuk memperbaiki beberapa celah keamanan tersebut.

Diskusi Pembaca (0)

Belum ada komentar

Jadilah yang pertama memberikan tanggapan informatif!

Tinggalkan Balasan