Objavljeno: 25.9.2024 09:00 | Teme: ChatGPT, varnost

ChatGPT ranljiv za lažne spomine

Raziskovalec Johann Rehberger je odkril ranljivost v ChatGPT, ki je omogočala napadalcem, da v sistem zasadijo lažne spomine in s tem omogočijo trajno pridobivanje podatkov od uporabnikov. 

Funkcija dolgoročnega spomina, ki jo je OpenAI uvedel februarja, omogoča shranjevanje podatkov iz preteklih pogovorov za uporabo v prihodnjih interakcijah. Rehberger je pokazal, kako lahko s pomočjo nepreverjenih vsebin, kot so e-poštna sporočila ali spletne strani, zlonamerni napadalci zasidrajo lažne informacije v spomin ChatGPT, in s tem manipulirajo s prihodnjimi pogovori. Tovrstno vbrizgavanje navodil omogoča shranjevanje zlonamernih spominov, ki jih sistem uporablja tudi po začetku novih pogovorov. Čeprav je OpenAI izdal popravek za preprečevanje tovrstne zlorabe, pa ranljivost še vedno omogoča shranjevanje lažnih informacij prek nepreverjenih virov. Uporabniki so zato pozvani k previdnosti in rednemu pregledu shranjenih spominov.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji