Sztuczna inteligencja coraz śmielej wchodzi do praktyki zawodów prawniczych – zarówno w kancelariach, jak i, coraz częściej, w sądach czy prokuraturze. Narzędzia oparte na dużych modelach językowych (LLM), jak np. ChatGPT, są wykorzystywane do redagowania pism procesowych, analizowania orzecznictwa czy porządkowania materiału dowodowego. Ich rosnąca popularność wynika z oczywistych zalet: oszczędności czasu, usprawnienia pracy i dostępu do wsparcia merytorycznego 24 godziny na dobę.
Jednak wraz z upowszechnieniem tej technologii pojawiają się także poważne pytania prawne i etyczne. Na świecie odnotowano już pierwsze przypadki, w których sądy kwestionowały dokumenty przygotowane z użyciem sztucznej inteligencji – czy to z powodu błędów merytorycznych, czy braku transparentności co do źródeł i autorstwa. To wywołuje reakcje środowisk prawniczych: samorządy adwokatów i radców prawnych w Polsce przygotowują rekomendacje, prowadzą szkolenia i organizują wykłady poświęcone odpowiedzialnemu korzystaniu z AI.
Wymiar sprawiedliwości pozostaje w tej kwestii bardziej zachowawczy – choć trwają szkolenia i planowane są dedykowane narzędzia dla sędziów czy prokuratorów, brakuje oficjalnych zaleceń czy procedur. Na razie więc korzystanie z AI przez przedstawicieli wymiaru sprawiedliwości odbywa się na ich własne ryzyko – co rodzi pytania o granice odpowiedzialności, dopuszczalność takiego wsparcia i jego wpływ na rzetelność procesu.

Prawo w obliczu nowych technologii: status AI w procesie sądowym
Wykorzystanie sztucznej inteligencji w tworzeniu dokumentów procesowych stawia istotne pytania o ich prawny status i dopuszczalność w postępowaniu sądowym. Choć przepisy proceduralne (np. kodeks postępowania cywilnego czy karnego) nie odnoszą się wprost do AI, to jednak nakładają obowiązki co do formy, treści i odpowiedzialności za pismo – a te mogą zostać naruszone, jeśli udział AI nie jest właściwie kontrolowany.
Podstawowa kwestia dotyczy autorstwa i odpowiedzialności za dokument: czy pismo wygenerowane z pomocą AI wciąż jest dokumentem „ludzkim”, jeśli jego treść nie została należycie zweryfikowana przez prawnika? Z punktu widzenia przepisów oraz zasad etyki zawodowej, to zawsze człowiek – adwokat, radca prawny lub sędzia – odpowiada za końcową treść dokumentu. AI może być wyłącznie narzędziem pomocniczym, a nie samodzielnym autorem. W przypadku błędu, np. fałszywego cytowania orzeczeń, odpowiedzialność dyscyplinarna lub nawet prawna nadal spoczywa na użytkowniku.
Drugim istotnym zagadnieniem jest rzetelność procesu. Jeżeli strona przedstawi pismo przygotowane z pomocą AI, które zawiera błędne informacje lub zmanipulowane dane, druga strona może próbować podważać jego wartość dowodową lub formalną. W niektórych jurysdykcjach zagranicznych sędziowie już zaczęli odrzucać takie dokumenty, gdy ujawniono, że zawierały nieistniejące cytaty lub błędne interpretacje prawa. To rodzi pytanie: czy w Polsce możliwe będzie uznanie pisma przygotowanego przez AI za wadliwe lub nieważne?
Na obecnym etapie brakuje precyzyjnych regulacji, które rozstrzygałyby te wątpliwości. Nie ma definicji prawnej udziału AI w tworzeniu dokumentu, nie określono też obowiązku ujawnienia, że dany tekst powstał z pomocą sztucznej inteligencji. W efekcie, odpowiedzialność za zgodność z prawem i jakość merytoryczną pisma pozostaje całkowicie po stronie człowieka – co wymaga od prawników wysokiej staranności i rozwagi przy korzystaniu z tych narzędzi.
Stanowisko polskich samorządów prawniczych
Polskie samorządy zawodowe prawników – adwokatów i radców prawnych – dostrzegają wyzwania, jakie niesie ze sobą wykorzystanie sztucznej inteligencji w praktyce zawodowej. Choć obecnie nie obowiązują przepisy zakazujące korzystania z AI, samorządy wyraźnie akcentują potrzebę ostrożności, odpowiedzialności i zachowania standardów etycznych.
Krajowa Rada Radców Prawnych oraz Naczelna Rada Adwokacka nie wydały dotychczas wiążących regulacji dotyczących AI, ale podejmują działania edukacyjne i prewencyjne. Pojawiają się rekomendacje i dobre praktyki – w tym zalecenia, by korzystanie z narzędzi opartych na AI zawsze wiązało się z pełną weryfikacją ich efektów oraz by nie powierzać AI zadań wymagających oceny prawnej, strategicznej czy etycznej. Podkreśla się także konieczność zachowania poufności i tajemnicy zawodowej, co w przypadku narzędzi opartych na chmurze danych może stanowić istotne ryzyko.
Coraz częściej organizowane są także szkolenia i konferencje dla prawników, poświęcone odpowiedzialnemu korzystaniu z AI – nie tylko w kontekście praktycznym, ale też prawnym i etycznym. W środowisku zawodowym trwa dyskusja nad koniecznością wypracowania bardziej szczegółowych wytycznych, a nawet aktualizacji kodeksów etyki zawodowej – tak, aby uwzględniały realia technologiczne, z jakimi mierzą się współcześni prawnicy.
W praktyce oznacza to, że choć nie ma formalnych zakazów, korzystanie z AI przez prawników powinno być rozważne i świadome. To użytkownik odpowiada za końcowy efekt – zarówno wobec klienta, jak i wobec sądu – i nie może uchylać się od tej odpowiedzialności, powołując się na „działanie algorytmu”. Właśnie dlatego samorządy zawodowe „dmuchają na zimne”, zanim pojawią się konkretne przypadki nadużyć czy błędów o poważnych konsekwencjach.
Wymiar sprawiedliwości i AI: gdzie jesteśmy?
W przeciwieństwie do środowisk prawniczych, które już dziś podejmują działania edukacyjne i prewencyjne w związku z wykorzystywaniem sztucznej inteligencji, polski wymiar sprawiedliwości znajduje się dopiero na początku tej drogi. Zarówno w sądach, jak i w prokuraturze brak jest obecnie oficjalnych wytycznych, które regulowałyby korzystanie z AI przez sędziów czy prokuratorów. Nie istnieją procedury, które wskazywałyby, kiedy, w jakim zakresie i na jakich zasadach dopuszczalne jest wsparcie się narzędziem AI w procesie orzekania czy prowadzenia postępowania przygotowawczego.
Pomimo tego, temat sztucznej inteligencji pojawia się coraz częściej na szkoleniach organizowanych przez Krajową Szkołę Sądownictwa i Prokuratury oraz wewnętrznych seminariach środowiskowych. Przedstawiciele wymiaru sprawiedliwości biorą udział w międzynarodowych konferencjach, projektach badawczych i pilotażach narzędzi wspierających pracę orzeczniczą. Pojawiają się również zapowiedzi wdrażania dedykowanych systemów AI – m.in. do kategoryzowania spraw, przeszukiwania orzecznictwa czy analizy materiałów dowodowych.
Na ten moment jednak sędziowie i prokuratorzy, którzy decydują się sięgnąć po AI w codziennej pracy, robią to wyłącznie na własną odpowiedzialność – bez oparcia w formalnych regulacjach ani wewnętrznych zaleceniach. To rodzi poważne ryzyka: zarówno w zakresie odpowiedzialności za błędne rozstrzygnięcia, jak i potencjalnych zarzutów o nierzetelność postępowania, jeśli okaże się, że decyzje procesowe były podejmowane przy niekontrolowanym wsparciu technologii.
W kontekście konstytucyjnego prawa do rzetelnego procesu oraz zasady niezawisłości sędziowskiej pojawia się pytanie, jak daleko może sięgać „cyfrowe wsparcie” dla wymiaru sprawiedliwości i gdzie kończy się dopuszczalna automatyzacja, a zaczyna ingerencja w niezależny proces decyzyjny. Brak ram prawnych oznacza, że każdy przypadek ewentualnego sporu – np. podważenia wyroku z powodu użycia AI – będzie musiał być rozstrzygany ad hoc, co w dłuższej perspektywie może podważać zaufanie do systemu.
Zagrożenia i kontrowersje
Choć wykorzystanie sztucznej inteligencji w praktyce prawniczej i sądowej niesie liczne korzyści, to równocześnie rodzi poważne zagrożenia – zarówno techniczne, jak i systemowe. Jednym z najczęściej podnoszonych problemów jest ryzyko tzw. „halucynacji” modeli językowych, czyli generowania pozornie wiarygodnych, ale nieprawdziwych informacji. AI może tworzyć fałszywe cytaty z orzeczeń, błędnie przywoływać przepisy czy mylić się w analizie stanu faktycznego – a jeśli takie błędy trafią do pisma procesowego lub uzasadnienia wyroku, konsekwencje mogą być poważne.
Drugim istotnym zagrożeniem jest brak transparentności działania modeli AI. Większość dostępnych narzędzi to tzw. „czarne skrzynki” – nie wiadomo dokładnie, na jakiej podstawie AI formułuje swoje odpowiedzi, jak waży poszczególne dane i czy kieruje się aktualnym stanem prawa. To może być nie do pogodzenia z wymogami przejrzystości i przewidywalności orzeczeń sądowych czy decyzji procesowych.
Pojawiają się również obawy o manipulacje treścią pism – zwłaszcza gdy AI wykorzystywana jest bez odpowiedniego nadzoru. Możliwe są scenariusze, w których AI podsuwa prawniczce argumentację pozornie trafną, lecz opartą na nieistniejących precedensach, albo generuje pisma, które powielają treści z innych spraw (ryzyko naruszenia tajemnicy zawodowej, danych osobowych czy praw autorskich).
W kontekście procesowym kontrowersyjne staje się także pytanie o prawo do rzetelnego procesu: jeśli jedna ze stron korzysta z zaawansowanego wsparcia AI, a druga nie ma do niego dostępu (np. z powodów finansowych), powstaje realna asymetria broni procesowej. Z kolei w przypadku sądów, które mogłyby wspierać się AI w tworzeniu uzasadnień lub analizie materiału dowodowego, pojawia się ryzyko, że człowiek przestaje być wyłącznym autorem decyzji, co podważa zasadę niezawisłości i osobistej odpowiedzialności orzeczniczej.
Wreszcie, kwestia ochrony danych osobowych – wiele modeli AI działa w oparciu o rozwiązania chmurowe, co niesie ryzyko nieuprawnionego przetwarzania danych wrażliwych. W kontekście postępowań karnych, rodzinnych czy cywilnych może to prowadzić do naruszeń przepisów RODO i odpowiedzialności zarówno cywilnej, jak i zawodowej.
Wszystkie te zagrożenia pokazują, że bez odpowiednich ram prawnych i etycznych AI może stać się nie tyle pomocą, co źródłem poważnych problemów systemowych.
Przypadki z zagranicy: co pokazują doświadczenia innych krajów?
W krajach anglosaskich i niektórych państwach Unii Europejskiej temat wykorzystania AI w pracy prawników i sądów jest już nie tylko przedmiotem debat, ale także konkretnych interwencji instytucjonalnych. Najgłośniejsze przypadki dotyczą przede wszystkim nadużyć związanych z halucynacjami modeli językowych, które doprowadziły do bezpośrednich sankcji wobec prawników.
Najbardziej znanym przykładem jest sprawa z Nowego Jorku (2023), w której dwóch amerykańskich adwokatów złożyło pismo procesowe zawierające fikcyjne orzeczenia, wygenerowane przez ChatGPT. Sąd odkrył nieprawidłowości i wszczął wobec nich postępowanie dyscyplinarne. Ostatecznie zostali oni ukarani grzywną, a sprawa stała się ostrzeżeniem dla środowisk prawniczych na całym świecie. To wydarzenie wywołało falę reakcji – wiele kancelarii w USA wprowadziło wewnętrzne regulaminy ograniczające lub warunkujące użycie AI.
W Kanadzie i Wielkiej Brytanii niektóre sądy i stowarzyszenia zawodowe zaczęły wydawać ostrzegawcze stanowiska. Na przykład Law Society of England and Wales wskazało, że korzystanie z AI w działalności prawniczej nie zwalnia z obowiązku profesjonalnej staranności, a wszystkie treści generowane przez AI muszą zostać zweryfikowane i zatwierdzone przez człowieka. Podkreślono też konieczność zachowania poufności i ochrony danych.
W Unii Europejskiej trwają intensywne prace regulacyjne – najważniejszym krokiem jest przyjęcie AI Act, czyli rozporządzenia o sztucznej inteligencji, które klasyfikuje systemy AI według poziomu ryzyka. Choć narzędzia wykorzystywane w sądownictwie nie zostały objęte całkowitym zakazem, to są traktowane jako systemy wysokiego ryzyka, wymagające ścisłych mechanizmów kontroli, przejrzystości i audytu.
W niektórych państwach (np. we Francji czy Holandii) podejmowane są również projekty pilotażowe dotyczące „sądów wspomaganych przez AI”, które mają służyć nie automatyzacji orzekania, ale poprawie zarządzania obiegiem spraw i dostępem do informacji prawnej.
Zagraniczne doświadczenia pokazują więc jasno: AI może być przydatna, ale tylko przy jasno określonych zasadach użycia, odpowiedzialności i nadzoru. Brak takiego podejścia prowadzi do błędów, ośmieszenia procedur i zagrożeń dla praw procesowych obywateli. Polska ma szansę wyciągnąć z tych przypadków wnioski zawczasu – zanim podobne incydenty pojawią się na salach naszych sądów.
Perspektywa na przyszłość: regulować czy obserwować?
Wobec dynamicznego rozwoju narzędzi opartych na sztucznej inteligencji oraz ich rosnącej obecności w zawodach prawniczych i wymiarze sprawiedliwości, pojawia się kluczowe pytanie: czy państwo i samorządy zawodowe powinny już teraz wdrożyć formalne regulacje dotyczące AI, czy raczej przyjąć strategię uważnego obserwowania i elastycznego reagowania?
Z jednej strony, brak regulacji może prowadzić do sytuacji, w których technologia wyprzedza prawo, a użytkownicy – zarówno prawnicy, jak i sędziowie – nie wiedzą, co im wolno, a co nie. Bez jasnych zasad odpowiedzialności, obowiązków weryfikacji czy wymogów transparentności, rośnie ryzyko nadużyć, błędów i konfliktów procesowych. Wprowadzenie podstawowych wytycznych, choćby w formie miękkiego prawa (soft law), może pomóc uporządkować praktykę i zbudować zaufanie do nowych narzędzi.
Z drugiej strony, nadmiernie sztywne lub przedwczesne regulacje mogą zdusić innowacyjność i odstraszyć prawników oraz instytucje publiczne od eksplorowania rozwiązań, które – stosowane odpowiedzialnie – mogą realnie poprawić efektywność pracy i dostęp do wymiaru sprawiedliwości. Ustawodawstwo zbyt szczegółowe może też szybko się zdezaktualizować w obliczu szybkiego rozwoju technologii.
Dlatego coraz częściej podkreśla się potrzebę zrównoważonego podejścia: regulować to, co niezbędne (np. obowiązki weryfikacji treści, ochrona danych osobowych, obowiązek ujawnienia użycia AI w niektórych sytuacjach), a jednocześnie inwestować w edukację, standardy branżowe i wewnętrzne procedury. Samorządy zawodowe mogą pełnić tu ważną rolę jako organizacje wyznaczające kierunki etyczne i praktyczne.
Ważnym wyzwaniem będzie również zapewnienie równego dostępu do nowoczesnych narzędzi – tak, aby strony procesowe miały podobne możliwości korzystania z AI, a sądy nie działały na podstawie „niewidocznych” algorytmów nieznanych uczestnikom postępowania.
Polska stoi dziś przed szansą: zamiast reagować na kryzysy post factum – jak miało to miejsce w innych krajach – może zawczasu przygotować środowisko prawne i instytucjonalne do odpowiedzialnego wdrażania AI. Warunkiem powodzenia tej strategii jest jednak otwarty dialog między prawnikami, sędziami, informatykami i ustawodawcą – oraz gotowość do wypracowania elastycznych, ale czytelnych reguł gry.
Sztuczna inteligencja przestaje być abstrakcyjną technologią przyszłości – na dobre weszła do codziennej praktyki zawodów prawniczych, a coraz śmielej zagląda także do sądów i prokuratur. Dla wielu jest szansą na zwiększenie efektywności, uporządkowanie informacji i skrócenie czasu pracy. Dla innych – źródłem niepewności, ryzyka i potencjalnych nadużyć.
Na razie w Polsce nie ma jednoznacznych przepisów czy standardów regulujących korzystanie z AI w wymiarze sprawiedliwości. Sędziowie i prokuratorzy używają tych narzędzi – jeśli w ogóle – wyłącznie na własną odpowiedzialność. Z kolei środowiska prawnicze, choć bardziej aktywne, także poruszają się w strefie miękkich zaleceń i etycznych apeli, a nie twardych reguł.
Tymczasem z zagranicy płyną jasne sygnały: bez nadzoru i odpowiedzialności, AI może stać się poważnym problemem dla jakości orzekania i równości stron w procesie. Fałszywe cytaty, brak przejrzystości, asymetria technologiczna – to nie hipotetyczne ryzyka, ale realne przypadki, które już się wydarzyły.
Dlatego pytanie nie brzmi już: czy sztuczna inteligencja będzie obecna w sądach i kancelariach – ale: na jakich warunkach. Ustawodawcy, samorządy prawnicze i administracja wymiaru sprawiedliwości powinni jak najszybciej zająć się tą kwestią – zanim to sądy będą musiały orzekać, czy pismo przygotowane przez AI jest „ważne”, a wyrok wydany z pomocą algorytmu – „sprawiedliwy”.
Równowaga między innowacją a odpowiedzialnością – to dziś kluczowe wyzwanie dla całego środowiska prawniczego.
W kancelarii Adwokaci Warszawa z dumą korzystamy z nowoczesnych narzędzi opartych na sztucznej inteligencji, aby zapewnić naszym klientom obsługę na najwyższym poziomie. Wykorzystujemy zaawansowane systemy wspomagające analizę prawną oraz weryfikację zgodności z obowiązującymi przepisami i orzecznictwem. Dzięki zautomatyzowanym mechanizmom kontroli przejrzystości i spójności treści, możemy działać szybciej, precyzyjniej i jeszcze skuteczniej, zachowując pełną odpowiedzialność zawodową. Zachęcamy do kontaktu z naszą kancelarią – chętnie opowiemy, jak technologia wspiera nasze doświadczenie w służbie Państwa spraw.
Autor: Bruno Antoni Ewertyński
Korekta: ChatGPT
Grafkia: ChatGPT