Egyre többen használják terápiára a ChatGPT-t – De komoly veszélyre figyelmeztet az OpenAI vezérigazgatója

an artificial intelligence illustration on the wall

Photo by Tara Winstead on Pexels.com

Bár a legtöbben még mindig egyszerűbb feladatokra használják a ChatGPT-t – például étkezési tervek készítésére vagy szövegek összefoglalására –, egyre nagyobb számban fordulnak hozzá emberek lelki vagy személyes problémáikkal is.

A jelenségre Sam Altman, az OpenAI vezérigazgatója hívta fel a figyelmet egy podcast-beszélgetésben. Mint elmondta, „egyre többen keresnek tanácsot egészségi, párkapcsolati vagy más személyes jellegű kérdésekben is” – és bár ez természetes fejlődési iránya a technológiának, komoly adatvédelmi aggályokat is felvet.

Jogilag védtelen vallomások

A hagyományos terápiás környezetben – legyen szó pszichológusról, orvosról vagy ügyvédről – az ügyfelek beszélgetései jogi védelmet élveznek. Ezeket nem lehet csak úgy bíróság elé vinni bizonyítékként, kivéve néhány törvényben szabályozott kivételt.

Ez azonban nem érvényes a ChatGPT-vel folytatott beszélgetésekre. Altman így fogalmazott Theo Von This Past Weekend című podcastjában, melyet a ladbible.com idézett:

„Ha beszélsz a ChatGPT-vel a legérzékenyebb dolgaidról, és aztán per vagy hasonló történik, minket akár kötelezhetnek arra, hogy kiadjuk ezeket az adatokat – és szerintem ez nagyon el van cseszve.”

Altman szerint ideje lenne jogilag is elismerni, hogy a mesterséges intelligenciával folytatott beszélgetések is hasonlóan érzékeny információkat tartalmazhatnak, mint egy pszichoterápiás ülés.

„A magánélethez való jog nem állhat meg az emberi kapcsolatoknál – ki kell terjeszteni a gépekkel folytatott párbeszédekre is”

– mondta.

Egy új kor kihívásai

A technológiai vezető szerint a kérdés nemcsak etikai, hanem törvényi szempontból is sürgős megoldást kíván.

„Senki nem gondolt még ilyesmire egy évvel ezelőtt. Most viszont hatalmas kérdés, hogyan fogjuk ezt jogilag kezelni”

– nyilatkozta.

A probléma különösen a fiatalokat érinti, akik gyakran a ChatGPT-t használják érzelmi támaszként, legyen szó szorongásról, iskolai stresszről vagy párkapcsolati kérdésekről. Ennek megfelelően egyre sürgetőbbé válik annak tisztázása, hogy ezek a digitális vallomások milyen jogi státuszt élveznek – vagy épp nem élveznek.

Törlés vagy illúzió?

Jelenleg az OpenAI – a vállalat hivatalos szabályzata szerint – hozzáférhet a ChatGPT-felhasználók beszélgetéseihez a szolgáltatás fejlesztése vagy a visszaélések kiszűrése érdekében. A törölt beszélgetéseket ugyan elvileg 30 napon belül végleg eltávolítják, ám a vállalat fenntartja magának a jogot, hogy „biztonsági vagy jogi okokból” megőrizze azokat.

Vagyis valójában „nem igazán törlődnek” ezek a csevegések.

Per a háttérben

Az adatvédelemmel kapcsolatos kérdések nem maradtak a filozófiai viták szintjén. Júliusban a New York Times és más felperesek pert indítottak az OpenAI ellen, azt követelve, hogy a cég „őrizze meg minden felhasználói adatnaplóját” a szerzői jogi eljárás részeként. A lap azt állítja, hogy az OpenAI az ő cikkeiket használta fel AI-modelljei képzésére, engedély nélkül.

A per is rávilágít arra, milyen komoly adatvédelmi és etikai dilemmákkal kell szembenéznie a mesterséges intelligenciát fejlesztő vállalatoknak – különösen, ha az eszközeik egyre inkább „személyes segítőként” kezdenek működni.

Merre tovább?

Altman egyértelműen sürgeti a változást. Szerinte meg kell teremteni azt a jogi és etikai keretrendszert, amely garantálja a felhasználók bizalmát és védelmét. Mert ha a jövőben a terápiás beszélgetéseink egy algoritmussal zajlanak le, akkor a magánélet védelme nem lehet kevesebb, mint ha egy valódi ember ül velünk szemben.

„A magánbeszélgetések védelme nem lehet technológiai kérdés – ez alapjog”

– zárta gondolatait az OpenAI vezérigazgatója.

forrás: Propeller.hu

Exit mobile version