Baroul Alba

Baroul Alba este persoană juridică de interes public cu patrimoniu, buget propriu şi organizare de sine stătătoare, care este constituită şi funcţionează în baza Legii nr. 51/1995 privind organizarea şi exercitarea profesiei de avocat, cu modificările şi completările ulterioare, republicată în Monitorul Oficial, Partea I, nr. 98/07.02.2011 (în continuare Lege) şi a Statutului profesiei de avocat, adoptat de Congresul U.N.B.R. din 10 - 11 iunie 2011, publicat în Monitorul Oficial, Partea I, nr. 898 din 19 decembrie 2011.

Str. Teilor, nr. 15, Alba Iulia, jud. Alba

0258-812-905

office@barou-alba.ro

Graficã și dezvoltare website | artON MEDIA, webDesign

tel: 0258-812-905

fax: 0258-819-847

Lun - Vin: 08:00 - 16:00

Sâm - Dum: Închis

E-mail

office@barou-alba.ro

Anunțuri

Acasă / Știri de actualitate UNBR  / „Dialog UNBR”. Răspunsul #9: Limitele deontologice ale utilizării tehnologiei în formularea opiniilor juridice (întrebările au fost adresate de Av. Bogdan Dumitriu, Baroul București, Av. Cristina Lețu, Baroul Argeș și Av. Geanina Voroniuc, Baroul Suceava)

„Dialog UNBR”. Răspunsul #9: Limitele deontologice ale utilizării tehnologiei în formularea opiniilor juridice (întrebările au fost adresate de Av. Bogdan Dumitriu, Baroul București, Av. Cristina Lețu, Baroul Argeș și Av. Geanina Voroniuc, Baroul Suceava)

Limitele deontologice ale utilizării tehnologiei în formularea opiniilor juridice

● Care sunt limitele considerate acceptabile de UNBR, din perspectivă deontologică, ale utilizării tehnologiei în formularea opiniilor juridice? Bogdan Dumitriu, Baroul București

● Cum poate avocatul român folosi instrumente AI în activitatea sa fără a-și compromite obligațiile de confidențialitate și secretul profesional? Cristina Lețu, Baroul Argeș

● Cum se intenționează la nivel UNBR asigurarea controlului uman efectiv asupra soluțiilor generate prin intermediul tehnologiei, pentru a garanta respectarea principiilor fundamentale ale profesiei? Av. Bogdan Dumitriu, Baroul București

● Ar putea fi necesar ca astfel de platforme să sublinieze explicit faptul că inteligența artificială nu poate substitui consultanța juridică personalizată, răspunderea profesională, secretul profesional, discernământul uman și relația de încredere specifică avocatului? Av. Geanina Voroniuc, Baroul Suceava

● În ce măsură se analizează necesitatea protejării secretului profesional în contextul interacțiunii cu sisteme de inteligență artificială, inclusiv sub aspectul riscului ca datele confidențiale introduse de avocați să fie utilizate pentru antrenarea ulterioară a acestor sisteme? Av. Bogdan Dumitriu, Baroul București

 

Răspuns UNBR

Întrebările formulate de avocați în cadrul campaniei „Dialog UNBR” reflectă una dintre marile provocări ale profesiei: identificarea limitelor în care inteligența artificială și noile tehnologii pot fi utilizate ca instrumente de sprijin, fără afectarea independenței profesionale, a secretului profesional, a discernământului juridic și a garanțiilor specifice consultanței juridice.

Una dintre dificultățile majore ale acestei transformări este faptul că tehnologia evoluează mult mai rapid decât capacitatea sistemelor juridice și profesionale de a construi reguli clare de utilizare. Profesia de avocat se află astfel într-o perioadă de tranziție în care deontologia utilizării inteligenței artificiale este încă în curs de formare. Primele standarde se conturează progresiv prin reglementări europene, ghiduri profesionale, jurisprudență emergentă și prin reinterpretarea obligațiilor deontologice clasice în context digital.

În realitate, obligațiile fundamentale ale avocatului existau deja înainte de apariția inteligenței artificiale: competența profesională, verificarea informațiilor, independența profesională, secretul profesional și loialitatea față de client. Ceea ce se schimbă astăzi este modul în care aceste obligații trebuie respectate într-un mediu tehnologic tot mai complex.

În acest context, începe să se contureze ideea că obligația de competență profesională a avocatului va include tot mai mult și o componentă de competență tehnologică („AI literacy”). Avocatul nu va mai putea utiliza sisteme AI fără să înțeleagă, la un nivel rezonabil, limitele acestora, riscul de erori sau „halucinații”, modul de procesare a datelor și implicațiile privind confidențialitatea.

Totodată, una dintre marile provocări este evitarea transformării avocatului într-un simplu operator al unor soluții generate automatizat. Profesia juridică presupune analiză critică, interpretare contextuală și asumarea responsabilității pentru consecințele unei recomandări juridice. Există riscul ca viteza și aparenta eficiență a sistemelor AI să conducă la preluarea mecanică a unor soluții generate tehnologic, fără filtrul intelectual și etic specific profesiei de avocat.

De aceea, conceptul de control uman efectiv (human oversight) începe să devină central în toate dezbaterile europene privind utilizarea inteligenței artificiale în domeniul juridic. Nu este suficient ca avocatul să fie formal prezent în procesul decizional. Controlul uman trebuie să fie real: avocatul trebuie să înțeleagă soluția generată, să o poată verifica independent, să îi poată identifica eventualele erori și să își asume în mod efectiv responsabilitatea profesională pentru utilizarea acesteia.

Din această perspectivă, principiul care începe să se contureze tot mai clar la nivel european este acela că inteligența artificială poate funcționa exclusiv ca instrument de sprijin al avocatului, nu ca substitut al raționamentului juridic uman. Acest principiu rezultă atât din normele europene recente, cât și din primele cazuri judiciare și disciplinare generate de utilizarea necontrolată a sistemelor AI.

La nivel european, AI Act – Regulamentul european privind inteligența artificială consacră explicit obligația existenței unui control uman efectiv („human oversight”) asupra sistemelor AI cu impact ridicat și stabilește obligații de transparență pentru anumite categorii de sisteme automatizate. Regulamentul pornește de la ideea că tehnologia nu poate funcționa în afara responsabilității umane și că utilizatorul trebuie să poată înțelege natura interacțiunii cu un sistem AI.

În paralel, Ghidul CCBE privind utilizarea inteligenței artificiale generative de către avocați subliniază că avocatul rămâne integral responsabil pentru verificarea rezultatelor generate de AI și că utilizarea acestor instrumente nu poate afecta independența profesională, secretul profesional, obligația de competență și relația de încredere cu clientul.

Această idee începe să fie confirmată și în jurisprudență. Una dintre cele mai cunoscute spețe este cauza Mata v. Avianca, devenită simbolul riscurilor utilizării necontrolate a AI în activitatea juridică. În acel dosar, avocații au depus în instanță hotărâri și citări juridice inexistente generate de ChatGPT. Instanța federală americană a aplicat sancțiuni și a arătat explicit că utilizarea inteligenței artificiale nu exonerează avocatul de obligația verificării surselor și a exactității informațiilor.

În 2026, în cauza penală privind condamnarea lui Hannah Payne, Curtea Supremă a statului Georgia a sancționat o procuroare pentru utilizarea unor citări juridice fictive generate prin inteligență artificială și a dispus anularea hotărârii instanței inferioare, cauza fiind retrimisă spre rejudecare.

Aceste spețe confirmă o idee esențială pentru profesia de avocat și justiție în general: răspunderea profesională nu poate fi externalizată către tehnologie. Chiar dacă soluția este generată automatizat, responsabilitatea juridică și deontologică rămâne integral umană.

O altă problemă fundamentală privește protecția secretului profesional și a datelor confidențiale introduse în sistemele AI. În prezent, una dintre cele mai mari vulnerabilități ale utilizării unor platforme comerciale de inteligență artificială este lipsa de claritate privind circuitul datelor introduse de utilizatori. În anumite situații, informațiile încărcate pot fi stocate, procesate sau utilizate ulterior pentru antrenarea sistemelor. Din această perspectivă, secretul profesional devine și o problemă de securitate cibernetică și de guvernanță a datelor.

Devine astfel esențial ca avocatul să cunoască unde sunt stocate datele, cine are acces la ele, dacă sunt utilizate pentru antrenarea ulterioară a sistemului, ce măsuri de securitate există și dacă furnizorul oferă garanții reale privind confidențialitatea. În practică, acest lucru presupune măsuri concrete de prudență:

– anonimizarea datelor;
– evitarea introducerii în platforme publice a documentelor confidențiale;
– utilizarea unor soluții securizate dedicate profesiilor juridice;
– limitarea folosirii AI în activități care implică informații protejate de secret profesional.

În viitor, este posibil ca standardele profesionale să impună obligații suplimentare privind utilizarea AI, precum:

– utilizarea exclusivă a unor sisteme securizate;
– obligații de audit și verificare umană;
– obligații de transparență față de client privind utilizarea instrumentelor AI în anumite activități.

În același timp, apare tot mai clar necesitatea unor obligații de transparență pentru platformele și sistemele care oferă conținut cu aparență juridică. Inclusiv AI Act urmărește prevenirea situațiilor în care utilizatorul poate fi indus în eroare cu privire la natura interacțiunii sau la caracterul automatizat al răspunsului generat.

Din această perspectivă, devine legitimă ideea ca astfel de platforme să informeze explicit utilizatorii că:

– nu beneficiază de consultanță juridică personalizată;
– nu există răspundere profesională specifică avocatului;
– nu există garanțiile secretului profesional;
– soluția este generată automatizat și necesită verificare umană;
– inteligența artificială nu poate substitui relația de încredere avocat-client și discernământul juridic uman.

O asemenea obligație de transparență nu urmărește blocarea tehnologiei, ci prevenirea confuziei publicului și a aparenței înșelătoare că un sistem automatizat ar putea oferi aceleași garanții ca exercitarea profesiei de avocat.

În realitate, miza nu este opoziția dintre avocat și tehnologie, ci păstrarea caracterului uman al actului de justiție și al consultanței juridice. Inteligența artificială poate crește eficiența și capacitatea de procesare a informației, însă profesia de avocat presupune responsabilitate, independență, discernământ, etică și încredere – elemente care nu pot fi externalizate către un algoritm.

Răspunsul la următoarea întrebare va fi publicat la data de 15.05.2026

Răspunsuri anterioare:

04.05.2026: #1 Criteriile concrete de delimitare între simpla informare juridică și consultanța juridică propriu-zisă

05.05.2026: #2 Definirea consultanței juridice în raport cu inteligența artificială

06.05.2026: #3: Răspunderea pentru prejudicii produse de AI sau platforme neautorizate 

07.05.2026: # 4 Standarde profesionale obligatorii pentru utilizarea AI de către avocați

08.05.2026: #5 Calificarea răspunsurilor generate de AI ca posibilă consultanță juridică ilegală

11.05.2026: #6 Sancționarea practicii neautorizate a activităților juridice

12.05.2026: #7 Folosirea termenilor juridici și a denumirilor care sugerează calitatea de avocat

13.05.2026: #8 Publicitatea profesională a avocaților și necesitatea unei relaxări 

Articolul „Dialog UNBR”. Răspunsul #9: Limitele deontologice ale utilizării tehnologiei în formularea opiniilor juridice (întrebările au fost adresate de Av. Bogdan Dumitriu, Baroul București, Av. Cristina Lețu, Baroul Argeș și Av. Geanina Voroniuc, Baroul Suceava) apare prima dată în UNBR.