Baroul Alba

Baroul Alba este persoană juridică de interes public cu patrimoniu, buget propriu şi organizare de sine stătătoare, care este constituită şi funcţionează în baza Legii nr. 51/1995 privind organizarea şi exercitarea profesiei de avocat, cu modificările şi completările ulterioare, republicată în Monitorul Oficial, Partea I, nr. 98/07.02.2011 (în continuare Lege) şi a Statutului profesiei de avocat, adoptat de Congresul U.N.B.R. din 10 - 11 iunie 2011, publicat în Monitorul Oficial, Partea I, nr. 898 din 19 decembrie 2011.

Str. Teilor, nr. 15, Alba Iulia, jud. Alba

0258-812-905

office@barou-alba.ro

Graficã și dezvoltare website | artON MEDIA, webDesign

tel: 0258-812-905

fax: 0258-819-847

Lun - Vin: 08:00 - 16:00

Sâm - Dum: Închis

E-mail

office@barou-alba.ro

Anunțuri

Acasă / Știri de actualitate UNBR  / „Dialog UNBR”. Răspunsul #5: Calificarea răspunsurilor generate de AI ca posibilă consultanță juridică ilegală (întrebările au fost adresate de Av. Cristina Lețu, Baroul Argeș și Av. Vlad Iorgulescu, Baroul București)

„Dialog UNBR”. Răspunsul #5: Calificarea răspunsurilor generate de AI ca posibilă consultanță juridică ilegală (întrebările au fost adresate de Av. Cristina Lețu, Baroul Argeș și Av. Vlad Iorgulescu, Baroul București)

Răspuns nr. 5. Calificarea răspunsurilor generate de AI ca posibilă consultanță juridică ilegală

● Răspunsurile generate de platforme AI la întrebări juridice concrete constituie consultanță juridică ilegală? Dacă da, ce mecanism de sesizare există?
(Întrebare adresată de Cristina Lețu, Baroul Argeș)

● Cum se apreciază oferirea de servicii de consultanță juridică plătită de către terți non-avocați, față de faptul că entități de IA de tip ChatGPT, având un abonament lunar, primesc cereri și oferă în mod curent consultanță juridică și particularilor, și avocaților, fiind deja de notorietate și în România depunerea de acte procedurale în fața instanțelor întocmite în mod vădit cu ajutorul IA?
(Întrebare adresată de Vlad Iorgulescu, Baroul București)

 

Răspuns UNBR

Într-adevăr, platformele bazate pe AI oferă astăzi răspunsuri juridice, generează documente și asistă utilizatorii în luarea deciziilor. Însă, problema nu este existența acestor instrumente, ci calificarea răspunsurilor pe care le dau. Acestea pot fi simple instrumente de informare, de analiză a unor legi sau de generare de documente, cum ar fi modele de contracte sau de acțiuni în instanță,  care au existat chiar și înainte de apariția internetului, în volume scoase se edituri, de exemplu. Pe de altă parte,  un răspuns generat de AI poate fi calificat drept consultanță juridică în cazul în care aplică norma juridică la un caz concret și formulează o soluție individualizată.

Din această perspectivă, se conturează o tipologie a platformelor juridice bazate pe AI, fiecare categorie având un profil distinct de risc juridic.

Prima categorie este reprezentată de platformele care generează răspunsuri juridice pe baza AI. Acestea sunt cele mai sensibile din punct de vedere juridic. Ele funcționează prin preluarea unei situații concrete descrise de utilizator și generarea unui răspuns care include interpretare juridică aplicată. La nivel general, chiar și sisteme precum ChatGPT sau Gemini pot intra în această zonă atunci când sunt utilizate pentru întrebări juridice concrete. Problema apare atunci când aceste răspunsuri devin personalizate, sunt percepute ca soluții sigure și nu sunt asumate de un avocat. În aceste condiții, ele pot intra în sfera consultanței juridice neautorizate.

A doua categorie este cea a sistemelor de informare juridică și suport decizional. Aceste platforme nu oferă direct soluții juridice, ci agregă și structurează informații. La nivel internațional, platforme precum Lexis+ AI pot oferi sinteze și căutări avansate. Aceste sisteme sunt, în principiu, conforme, deoarece nu substituie consultanța juridică. Totuși, dacă încep să sugereze explicit ce trebuie făcut într-o situație concretă, depășesc zona informării și intră într-o zonă de risc juridic.

A treia categorie este cea a platformelor de tip „self-service legal”, care reprezintă forma clasică de automatizare juridică. Acestea permit generarea de documente standard pe baza unor șabloane. Exemple relevante sunt LegalZoom sau Rocket Lawyer, iar în Europa au existat modele precum Demanderjustice sau Smartlaw. Aceste platforme sunt, în principiu, acceptate, atât timp cât nu oferă analiză juridică personalizată, ci doar facilitează completarea unor formulare. Problema apare atunci când aceste instrumente încep să adapteze documentele în funcție de situația concretă a utilizatorului sau să sugereze strategii juridice, transformând automatizarea într-o formă de consultanță mascată.

A patra categorie este cea a sistemelor AI destinate profesioniștilor dreptului. Acestea nu interacționează direct cu publicul, ci sunt utilizate de avocați ca instrumente de lucru. Exemple relevante sunt Juridice AI, AI Libra, Harvey AI, CoCounsel sau Luminance. În aceste cazuri, inteligența artificială nu oferă consultanță în mod autonom, ci asistă avocatul, care rămâne titularul deciziei și al răspunderii. Din acest motiv, aceste sisteme nu ridică probleme de legalitate și reprezintă direcția legitimă de integrare a tehnologiei în profesie.

Această tipologie arată că problema nu este existența inteligenței artificiale în domeniul juridic, ci modul în care aceasta este utilizată. Diferența reală nu este între tehnologie permisă și interzisă, ci între instrumente care informează, instrumente care asistă și instrumente care, în fapt, înlocuiesc consultanța juridică.

În acest context, oferirea de servicii juridice contra cost de către terți non-avocați trebuie analizată în paralel cu utilizarea platformelor AI pe bază de abonament. Abonamentul nu transformă automat serviciul într-o consultanță juridică ilegală. Problema apare atunci când utilizatorul este determinat să creadă că primește o soluție juridică sigură, fără ca aceasta să fie asumată profesional. În astfel de situații, riscurile juridice se extind dincolo de exercitarea fără drept a profesiei și intră în zona protecției consumatorilor și a practicilor comerciale înșelătoare.

Concluzia este că riscul crește pe măsură ce sistemele trec de la informare la aplicarea legii într-un caz concret. Miza nu este și nu poate fi interzicerea acestor tehnologii, ci stabilirea unei limite clare: în momentul în care este oferită o soluție juridică individualizată, ne aflăm în sfera consultanței juridice propriu-zise. De altfel, nici răspunderea nu poate fi imputată „algoritmului”, ci entității care îl dezvoltă, îl operează și îl pune la dispoziția publicului.

Iar această consultanță nu este definită doar prin conținutul răspunsului, ci prin garanțiile care o însoțesc — independență, răspundere profesională, confidențialitate, loialitate față de client și posibilitatea de a identifica și a alege profesionistul care o oferă. Aceste garanții nu pot fi replicate tehnologic și nu pot fi asumate decât de avocat.

În lipsa acestor repere, utilizatorul nu mai poate distinge între informare și consiliere, iar această confuzie transformă problema dintr-una profesională într-una de siguranță juridică.

 

Răspunsul la următoarea întrebare va fi publicat la data de 11.05.2026

Răspunsuri anterioare:

04.05.2026: #1 Criteriile concrete de delimitare între simpla informare juridică și consultanța juridică propriu-zisă

05.05.2026: #2 Definirea consultanței juridice în raport cu inteligența artificială

06.05.2026: #3: Răspunderea pentru prejudicii produse de AI sau platforme neautorizate 

07.05.2026: # Standarde profesionale obligatorii pentru utilizarea AI de către avocați

Articolul „Dialog UNBR”. Răspunsul #5: Calificarea răspunsurilor generate de AI ca posibilă consultanță juridică ilegală (întrebările au fost adresate de Av. Cristina Lețu, Baroul Argeș și Av. Vlad Iorgulescu, Baroul București) apare prima dată în UNBR.