0%

Mennyire biztonságos a ChatGPT?

utolsó módosítás: 2024. május 12. 18:49

A ChatGPT alig 1,5 évvel ezelőtt jelent meg, ma pedig már nincs olyan, aki ne hallott volna róla, vagy akár már használta is, sőt sokaknak már a digitális alapeszköztáruk részévé is vált. Mit tesz a szolgáltató és mit tehet a felhasználó, hogy a használata közben az adatai biztonságban maradjanak?

Biztonságos a ChatGPT használata?

Ahogyan a generatív mesterséges intelligencia és más innovatív eszközök, mint a ChatGPT egyre szélesebb körben elterjednek, fontos, hogy megismerjük, mennyire biztonságosak ezek az eszközök. Ebben a cikkben megvizsgáljuk a ChatGPT beépített biztonsági funkcióit, adatkezelési gyakorlatát, valamint a kapcsolódó csalásokat és fenyegetéseket.

Bár még vannak adatvédelmi aggályok és már megtörténtek kiberincidensek is a ChatGPT kapcsán, ez az innovatív eszköz számos beépített védelmi mechanizmussal rendelkezik, és betartva a biztonsági jógyakorlatokat, általánosságban biztonságosnak tekinthető.

Mint minden online eszköznél, különösen az újaknál, fontos tájékozódni a lehetséges adatvédelmi fenyegetésekről, valamint az eszközhöz kapcsolódó esetleges visszaélésekről, hogy ezek ismeretében az esetleges biztonsági fenyegetések hatékonyabban kivédhetők legyenek.

A ChatGPT az emberhez hasonló tartalmak írására való képességével gyorsan népszerűvé vált a diákok, a szakemberek és az alkalmi felhasználók körében. Ugyanakkor a körülötte lévő nagy felhajtás és a GPT hallucinációra való hajlamáról szóló korai történetek miatt a ChatGPT biztonságával kapcsolatos aggodalmak megalapozottnak bizonyultak.

Milyen biztonsági intézkedéseket alkalmaz a ChatGPT ?

A ChatGPT számos biztonsági intézkedést alkalmaz a adatdaink védelme érdekében. Ezek közül a legfontosabbak:

  • Éves biztonsági auditok: A ChatGPT éves rendszerességgel független kiberbiztonsági szakértők által végzett biztonsági auditon esik át, melynek során potenciális sebezhetőségeket próbálnak azonosítani.
  • Titkosítás: A webes kommunikációnk a ChatGPT-vel titkosított csatornán keresztül zajlik.
  • Szigorú hozzáférés-szabályozás: Csak engedélyezett, arra jogosult személyek férhetnek hozzá az ChatGPT belső működésének vagy kódbázisának érzékeny területeihez.
  • "Hibakereső", ismertebb nevén Bug Bounty program: A ChatGPT Bug Bounty Programja etikus hackereket, biztonsági kutatókat és technológiai érdeklődésű "kockákat" ösztönöz arra, hogy potenciális hibák (bug-ok) után vadásszanak és találat esetén hivatalosan jelentsék is azokat, a találattól függő mértékű jutalom fejében.

Adatgyűjtés és adatfelhasználás

Az érzékeny adatok védelme érdekében fontos, hogy ismerjük, egy weboldal, alkalmazás vagy csevegőrobot hogyan használja fel személyes adatainkat. Az OpenAI adatgyűjtési és felhasználási gyakorlatainak legfontosabb területei:

  • Harmadik féllel történő megosztás: Bár az OpenAI megosztja a tartalmat, ahogyan azt írja, "megbízható szolgáltatók egy kiválasztott csoportjával", ugyanakkor azt állítja, hogy nem adja el vagy osztja meg a felhasználói adatokat harmadik felekkel, például adatbrókerekkel, akik marketing vagy más kereskedelmi célokra használnák azokat.
  • Adatmegosztás szolgáltatókkal és beszállítókkal: Az OpenAI bizonyos felhasználói adatot megoszt harmadik fél szolgáltatókkal és beszállítókkal a termék karbantartása és fejlesztése érdekében.
  • A természetes nyelvi feldolgozási képesség javítása: Amennyiben nem kapcsoljuk ki ezt a funkciót, ami a csevegési előzmények kikapcsolásával tehető meg, úgy minden ChatGPT-vel folytatott beszélgetése tárolásra és felhasználásra kerül az MI modell további képzésére és javítására.
  • Adattárolás és -megőrzés: Az OpenAI "anonimizálja" és biztonságosan tárolja az adatainkat a regionális adatvédelmi szabályozásoknak, például az Európai Unió Adatvédelmi Szabályozásának (GDPR) megfelelően.

ChatGPT csalások és kockázatok — avagy mikre figyeljünk?

Bár a ChatGPT számos biztonsági intézkedéssel rendelkezik, mégsem mentes (mintahogy semmi sem) a kockázatoktól. A kulcsfontosságú ChatGPT biztonsági kockázatok és csalások, amelyeket érdemes ismernünk:

Adatszivárgások

Adatszivárgás akkor történik, amikor érzékeny vagy privát adatok engedély nélkül válnak hozzáférhetővé — ezt követően az adatokat felhasználhatják kiberbűnözők. Például, ha a ChatGPT-vel folytatott beszélgetés során megosztott személyes adatok kompromittálódnak, ez identitáslopás veszélyének tehet ki bennünket.

Megtörtént eset: 2023 áprilisában egy Samsung alkalmazott véletlenül megosztott szupertitkos forráskódot az MI-vel, aminek következtében a vállalat betiltotta a népszerű generatív MI eszközök használatát.

Adathalászat (Phishing)

Az adathalászat olyan manipulatív eszköztár, amit a kiberbűnözők arra használnak, hogy rávegyék az emberek arra, hogy érzékeny információkat, mint jelszavak vagy bankkártyaadatok, áruljanak el. Gyakori, hogy csalók ilyenkor megbízható forrásnak adják ki magukat, megszemélyesítve például az áldozat bankját vagy munkaadóját.

Megtörtént eset: 2023 márciusában az Európai Unió Bűnüldözési Ügynöksége (Europol) figyelmeztetést adott ki az MI által generált phishing veszélyére, azt állítva, hogy a ChatGPT „képes a nyelvi minták reprodukálására, hogy megszemélyesítse az adott egyének vagy csoportok beszédstílusát... a bűnözők felhasználhatják az áldozatok ellen.”

Malware fejlesztés

A malware olyan rosszindulatú szoftver, programkód amit a kiberbűnözők használnak, hogy hozzáférjenek a számítógépes rendszerhez, hálózathoz, különféle ártó szándékkal. Minden malware valójában különféle programozási nyelvekben megírt programkódokból áll, ami azt jelenti, hogy a hackereknek általában ismerniük kell legalább egy programozási nyelvet egy új malware létrehozásához.

Megtörtént eset: 2023 áprilisában egy biztonsági kutató jelezte, hogy talált egy kiskaput, amely lehetővé tette számára, hogy malware-t hozzon létre ChatGPT segítségével. Az általa létrehozott összetett programkód képernyővédő alkalmazásnak álcázta magát, és képes volt érzékeny adatokat lopni egy Windows számítógépről. Ráadásul ijesztően nehéz észlelni – egy tesztben a 69 detektáló eszköz közül mindössze öt érzékelte azt.

Catfishing (online személyazonosság-lopás)

A catfishing az online csalásnak egy olyan formája, melynke során hamis online személyazonosságot hoznak létre, azzal a céllal, hogy másokat rosszindulatú tevékenységekre, mint például csalásra vagy identitáslopásra vegyenek rá. Mint a legtöbb social engineering taktika, a catfishing is kiváló megszemélyesítő képességeket igényel. A hackerek a ChatGPT segítségével valósághűbb beszélgetéseket hozhatnak létre, sőt akár konkrét személyeket is megszemélyesíthetnek.

Valós példa: Bár korántsem mindig rosszindulatú szándékkal, de az emberek olyan társkereső alkalmazásokon, mint a Tinder és a Bumble, ma már sokszor ChatGPT-t használnak az üzeneteik megírására. Ez jól mutatja, hogy milyen gyorsan fogadjuk be és alkalmazzuk az új technológiát a mindennapi életünkben, és mennyire nehéz megmondani, hogy egy üzenet hús-vér embertől vagy az MI-től származik.

Téves információk

A ChatGPT használatával kapcsolatos kockázatok némelyikének nem is kell szándékosnak vagy rosszindulatúnak lennie ahhoz, hogy káros legyen.
A ChatGPT erőssége az, hogy képes utánozni az emberi írást és nyelvhasználatot. Bár a nagyméretű nyelvi modellt hatalmas mennyiségű adaton képezték ki és számos összetett kérdésre képes pontosan válaszolni (egy egyetemi szintű üzleti kurzuson négyes osztályzatot kapott!), ismert az is, hogy súlyos hibákat is elkövethet, ezáltal pedig hamis tartalmat generál - ez az úgynevezett "hallucináció" jelensége.

Amikor a ChatGPT-t vagy bármilyen más generatív mesterséges intelligenciát használunk, elengedhetetlen, hogy ellenőrizzük az általa kiadott információkat, mivel képes kitalálni valótlan dolgokat, amit viszont rendkívül meggyőzően tud tenni.

Valós példa: Egy ügyvéd a ChatGPT-t használta egy légitársaság elleni személyi sérüléses ügyben a bírósági beadvány elkészítéséhez. A ChatGPT egyéb hibák mellett hat nem létező bírósági döntést idézett a dokumentumban.

Bálnavadászat (Whaling)

A bálnavadászat olyan kibertámadás, amely egy magas rangú személyt, például egy vállalat vezetőjét vagy magas rangú tisztviselőjét veszi célba egy szervezeten belül, általában azzal a céllal, hogy érzékeny információkat lopjon el vagy pénzügyi csalást kövessen el.

Míg a vállalkozások számos támadástól megvédhetik magukat a kiberbiztonsági jógyakorlatok alkalmazásával, a bálnavadászat sokkal inkább emberi hibákat használ ki, mint szoftveres gyengeségeket. Egy hacker a ChatGPT segítségével olyan valósághű emaileket hozhat létre, amelyek kikerülhetik a biztonsági szűrőket és felhasználhatók egy bálnavadász támadásban.

Valós példa: 2023 júliusában megjelent egy rosszindulatú ChatGPT-klón, a WormGPT. A kiberbűnözők a WormGPT-t használják például arra, hogy üzleti levelezést célzó, ún. BEC (Business Email Compromise) támadásokat indítsanak, amelyekben a hackerek vállalati vezetőknek adják ki magukat.

Hamis ChatGPT-alkalmazások

A kiberbűnözők különféle hamis ChatGPT-alkalmazások letöltésére csábítják a felhasználókat. Ezeknek a hamis ChatGPT-alkalmazásoknak a némelyike "fleeceware" , vagyis a csalók arra használják az hamis alkalmazást, hogy rajta keresztül a lehető legtöbb pénzt szedjék ki a felhasználókból azáltal, hogy magas előfizetési díjakat kérnek olyan szolgáltatásokért, amelyek alig működnek. Mivel ezeknek az alkalmazásoknak vannak jól működő funcióik (csak épp nagyon kevés), ez lehetővé teheti, hogy a Google Play és az Apple App Store áruházban észrevétlenül értékesítsék őket.

Vannak egyéb, sokkal proaktívabb, rosszindulatúbb célú ChatGPT-alkalmazással való átverések. Például egy hacker küldhet egy adathalász emailt, amiben meghív a ChatGPT kipróbálására. A valóságban azonban ez egy átverés, ami egy rosszindulatú weboldalra vezet, vagy zsarolóprogramot telepít az eszközünkre.

Valós példa: 2023 áprilisában jelentették, hogy több száz hamis ChatGPT-klónt árultak a Google Play Store áruházában.

Olvassuk el az OpenAI adatvédelmi irányelveit, hogy megismerjük, hogyan kezeli az adatainkat

6 jótanács, hogy biztonságban maradhassunk a ChatGPT használata közben

Bár a ChatGPT rendelkezik biztonsági intézkedésekkel, mint minden online szolgáltatásnál, itt is vannak kockázatok. Íme néhány kulcsfontosságú biztonsági tanács és jógyakorlat, melyek segíthetnek biztonságban maradni ChatGPT használata során:

  1. Kerüljük a érzékeny információk megosztását. Kezeljük személyes adatainkat magánügyként és soha ne osszuk meg pénzügyi vagy egyéb bizalmas információkat ChatGPT-vel folytatott beszélgetések során.
  2. Olvassuk el az adatvédelmi irányelveket. Olvassuk el az OpenAI adatvédelmi irányelveit, hogy megismerjük, hogyan kezeli az adatainkat, mit, hol és hogyan használhat fel belőlük.
  3. Használjunk anonim fiókot. Fontoljuk meg egy anonim fiók használatát a ChatGPT-tel való interakcióhoz, a digitális adatvédelem fokozása érdekében. Vegyük figyelmebe azt is, hogy előfordulhat, telefonszámot kell megadnunk és hitelesítenünk a regisztráció során.
  4. Használjunk erős jelszóvédelmet. Kövessük a jelszóvédelmi jógyakorlatokat és mindig annak megfelelő erős, egyedi jelszavakat hozzunk létre és rendszeresen változtassuk is meg azokat, fiókunk nagyob biztonsága érdekében.
  5. Legyünk tájékozottak. Tartsuk magunkat naprakészen a MI biztonsági kérdéseiről és az online csalásokkal kapcsolatos információkról.
  6. Használjunk antivírus szoftvert. Az antivírus szoftverek segíthetnek védeni számítógépünket és adatainkat a kiberfenyegetésekkel szemben.

A ChatGPT és más generatív MI eszközök használata tehát számos lehetőséget nyit meg a mindennapi kommunikációban és információkeresésben. Azonban, mint minden online technológia, ezek az eszközök bizonyos biztonsági kockázatokkal is járnak, amelyeket nem szabad figyelmen kívül hagyni. A személyes adatok védelme érdekében fontos, hogy tisztában legyünk a potenciális veszélyforrásokkal, mint például adatszivárgás, phishing, malware és más rosszindulatú tevékenységek.

A cikkben tárgyalt biztonsági tippek, mint az erős jelszavak használata, az adatvédelmi irányelvek áttekintése, és az antivírus szoftverek alkalmazása, segíthetnek a felhasználóknak biztonságosan navigálni ebben az új digitális környezetben. Mindenekelőtt azonban a felhasználóknak proaktívan kell eljárniuk saját biztonságuk érdekében és kritikusan kell kezelniük a generatív MI által generált tartalmakat.

Az MI technológia fejlődése izgalmas lehetőségeket kínál, de csak akkor, ha a felhasználók tisztában vannak a hozzá kapcsolódó kockázatokkal és megfelelően védekeznek azok ellen. Az OpenAI és más fejlesztők által bevezetett biztonsági intézkedések mellett a felhasználók saját felelőssége is, hogy informáltak és óvatosak legyenek digitális interakcióik során.

Ez is érdekelheti