Autoritatea Italiană pentru Protecția Datelor - OpenAI încalcă legile confidențialității
OpenAI a fost informată că este suspectată că încalcă regulile de confidențialitate ale Uniunii Europene, în urma unei investigații de mai multe luni asupra chatbotului său de inteligență artificială, ChatGPT, de către autoritatea italiană de protecție a datelor.
Detaliile constatărilor preliminare ale autorității italiene nu au fost dezvăluite. Cu toate acestea, Garantele a declarat astăzi că OpenAI a fost notificată și i s-au acordat 30 de zile pentru a răspunde cu o apărare împotriva acuzațiilor.
Încălcările confirmate ale regimului pan-european pot atrage amenzi de până la 20 de milioane de euro sau până la 4% din cifra de afaceri globală anuală. Mai incomod pentru o giganții AI precum OpenAI, autoritățile de protecție a datelor pot emite ordine care necesită modificări în modul în care datele sunt procesate pentru a pune capăt încălcărilor confirmate. Astfel, ar putea fi forțată să-și schimbe modul de operare sau să-și retragă serviciul din statele membre ale UE în care autoritățile de confidențialitate caută să impună modificări care nu îi convin.
OpenAI a fost contactată pentru a răspunde la notificarea de încălcare a Garantelelor. Vom actualiza acest raport dacă transmit o declarație.
Actualizare: OpenAI a declarat:
"Considerăm că practicile noastre sunt conforme cu GDPR și alte legi privind confidențialitatea, și luăm măsuri suplimentare pentru a proteja datele și confidențialitatea persoanelor. Vrem ca inteligența noastră artificială să învețe despre lume, nu despre persoane private. Lucrăm activ pentru a reduce datele personale în antrenarea sistemelor noastre precum ChatGPT, care respinge, de asemenea, solicitările de informații private sau sensibile despre persoane. Ne planificăm să continuăm să lucrăm în mod constructiv cu Garantele."
Legalitatea antrenării modelelor AI în contextul legii
Autoritatea italiană a ridicat preocupări cu privire la conformitatea OpenAI cu Regulamentul General privind Protecția Datelor (GDPR) anul trecut - când a ordonat o interdicție temporară asupra prelucrării locale a datelor ChatGPT, ceea ce a dus la suspendarea temporară a chatbotului AI pe piață.
Prevederea din 30 martie a Garantelelor către OpenAI, cunoscută și sub numele de "registru de măsuri", a evidențiat atât lipsa unei baze legale adecvate pentru colectarea și prelucrarea datelor personale în scopul antrenării algoritmilor din spatele ChatGPT, cât și tendința instrumentului AI de a "halucina" (adică potențialul său de a produce informații inexacte despre persoane) - ca fiind printre problemele de îngrijorare la acel moment. De asemenea, a evidențiat și problema siguranței copiilor.
În total, autoritatea a declarat că suspectează că ChatGPT încalcă articolele 5, 6, 8, 13 și 25 din GDPR.
Cu toate că a identificat această listă de încălcări suspectate, OpenAI a reușit să reia rapid serviciul ChatGPT în Italia anul trecut, după ce a luat măsuri pentru a aborda unele probleme ridicate de autoritatea de protecție a datelor. Cu toate acestea, autoritatea italiană a declarat că va continua să investigheze încălcările suspectate. A ajuns acum la concluzii preliminare că instrumentul încalcă legea UE.
În timp ce autoritatea italiană nu a spus încă care dintre încălcările ChatGPT suspectate anterior le-a confirmat în acest stadiu, baza legală pe care o pretinde OpenAI pentru prelucrarea datelor personale în scopul antrenării modelelor sale AI pare a fi o problemă crucială.
Acest lucru se datorează faptului că ChatGPT a fost dezvoltat folosind masive de date preluate de pe Internetul public - informații care includ datele personale ale indivizilor. 问题ul cu care se confruntă OpenAI în Uniunea Europeană este că prelucrarea datelor oamenilor din UE necesită o bază legală validă.
Pașii următori pentru OpenAI la nivel european
Având în vedere că gigantul AI nu a căutat niciodată să obțină consimțământul milioanelor sau chiar miliardelor de utilizatori web a căror informație a fost ingerată și procesată pentru construirea modelului AI, orice încercare de a pretinde că avea permisiunea europenilor pentru prelucrare pare sortită eșecului. Și când OpenAI și-a revizuit documentația după intervenția Garantelelor anul trecut, părea că încearcă să se bazeze pe un argument al intereselor legitime. Cu toate acestea, această bază legală necesită încă ca un procesator de date să permită subiecților de date să ridice o obiecție - și să oprească prelucrarea informațiilor lor.
De remarcat că Curtea de Justiție a UE a considerat anterior că interesele legitime nu sunt o bază adecvată pentru ca Meta să efectueze urmărirea și profilarea indivizilor pentru a-și desfășura afacerea de publicitate comportamentală pe rețelele sale sociale.
Așadar, există o mare întrebare cu privire la ideea ca un alt tip de gigant AI să încerce să justifice prelucrarea datelor oamenilor într-o scară vastă pentru a construi o afacere comercială AI generativă - mai ales când instrumentele în cauză generează tot felul de riscuri noi pentru indivizii numiți (de la dezinformare și defăimare la furt de identitate și fraudă, pentru a enumera câteva).