Ce nu ar trebui să-i mărturisești niciodată lui ChatGPT: De ce nu e un confident 100% sigur și care sunt riscurile

 Ce nu ar trebui să-i mărturisești niciodată lui ChatGPT: De ce nu e un confident 100% sigur și care sunt riscurile
0Shares

Declarațiile recente ale lui Sam Altman, CEO-ul OpenAI, potrivit cărora nu există protecție juridică pentru conversațiile cu ChatGPT, au readus în discuție riscurile confidențialității în era AI. Mai multe voci din domenii diferite, etică, drept, educație, avertizează că utilizatorii proiectează asupra inteligenței artificiale atribute umane care pot deveni periculoase, scrie adevărul.ro.

Ana Ruxandra Badea, doctor în bioetică, atrage atenția asupra unei greșeli fundamentale de percepție: „Internetul este spațiu public, prin urmare declarațiile lui Sam Altman nu ar trebui să ne ia prin surprindere. Însă, spre deosebire de spațiile publice tradiționale (cum sunt, de pildă, parcurile, străzile, școlile), internetul este în mare măsură controlat de entități (companii) private, și, deci, individului nu ii mai este garantată siguranța pe care statul i-o conferă în mod uzual”.

În opinia sa, generațiile care au fost martore la apariția internetului, în speță așa numiții millennials, generația X și baby boomers, au marele avantaj de a privi cu reticență și un ochi critic utilizarea internetului, spre deosebire de generațiile mai tinere, în special generația Z, ajunse acum la maturitate, care nu au cunoscut lumea ante-internet și cărora le lipsesc instrumentele necesare unei atitudini obiective și circumspecte asupra mediului virtual.

Această lipsă de filtrare critică duce la o tendință periculoasă de antropomorfizare a AI-ului. „Aceste atitudini sunt acum inevitabil transferate asupra inteligenței artificiale. Una din marile probleme de ordin etic cu repercusiuni grave în plan practic este permanenta antropomorfizare a acestui instrument pe care îl numim AI generativ, tindem să proiectăm abilități umane asupra unui artifact. „Inteligența” unui sistem AI nu are nimic a face cu inteligența umană, așa cum acțiunea de „chatting” (a sta de vorbă) cu Chat GPT nu are nimic a face cu dialogul inter-uman”, explică doctorul în bioetică.

AI-ul nu e avocat sau terapeut

Ea explică prețul ascuns al acestor confesiuni digitale: „Pe de-o parte este firesc, inteligența artificială are nevoie de input ca să crească, deci aceste informații pe care i le furnizăm, pentru că primim, în multe cazuri, răspunsuri gratuite, au un preț. Dar nimic nu este cu adevărat gratuit în ziua de azi și cred că ăsta e prețul pe care îl plătim.”

Când pot deveni conversațiile cu ChatGPT probe legale

Zona gri a legislației

„Avem acum niște legislație europeană cu privire la AI, întâmplarea face că a trebuit să o studiez când mi-am dat doctoratul în drept, am avut o secțiune destul de serioasă în care am tratat inteligența artificială și felul în care ea ne impactează viețile de zi cu zi și am studiat legislația europeană. Cred că este făcută mai degrabă să ne sperie puțin și să ne atragă atenția, dar nu oferă soluții reale. (…) Cu alte cuvinte, tare mi-e că legea nu se va clarifica prea mult în următoarea perioadă. Și ce încerc să spun este să nu divulgi într-un chat cu AI ce n-ai vrea să afle nimeni altcineva. Adică poți lăsa întrebări generale, poate nu ne referim la propria persoană, poate nu ne referim la exemple mult mai concrete din viața de zi cu zi, lucruri care ar putea să ne inculpe, lucruri de care nu suntem mândri, dar care ar putea să fie ilegale. Și dacă punem aceste întrebări cu titlu general, nu cred că am putea să avem probleme din cauza lor și o să rămână doar o modalitate prin care inteligența artificială să fie hrănită, să spunem așa, ea să crească ca și platformă, pentru că este evident că are nevoie de asta”, adaugă co-fondatoarea R&R Partners.

„Cred că ar trebui să existe același concept de intimitate pentru conversațiile tale cu un AI, așa cum există cu un terapeut sau un avocat”

„Oamenii vorbesc cu ChatGPT despre cele mai personale lucuri din viața lor”, a spus Altman, citat de TechCrunch. „Tinerii, mai ales, îl folosesc ca terapeut sau coach de viață. Dar în prezent, dacă vorbești cu un specialist uman, ai confidențialitate legală. Cu ChatGPT… încă n-am rezolvat asta.”

OpenAI se află deja în mijlocul unui proces cu The New York Times, în care compania contestă un ordin judecătoresc ce ar obliga-o să salveze conversațiile a sute de milioane de utilizatori ChatGPT, cu excepția clienților Enterprise. Într-o declarație publică, OpenAI a numit această solicitare „un abuz de putere” și a anunțat că face apel.

Altman și-a încheiat intervenția cu un apel la claritate: „Cred că e logic să vrei o certitudine juridică înainte să folosești ChatGPT la scară largă.”

0Shares

Aura Mereuta

https://shok.md