Sztuczna inteligencja (AI) staje się nieodłącznym elementem naszego życia – od rozpoznawania twarzy w smartfonach, przez systemy nawigacyjne, po autonomiczne pojazdy i zaawansowane narzędzia diagnostyczne w medycynie. Wraz z postępującą autonomizacją systemów AI pojawia się fundamentalne pytanie: kto ponosi odpowiedzialność prawną, gdy system AI podejmie błędną decyzję powodującą szkodę?
Problem ten nabiera szczególnego znaczenia w kontekście systemów, które charakteryzują się pewnymi unikalnymi cechami: autonomią działania, zdolnością uczenia się i adaptacji, a często także “czarnoskrzynkowym” charakterem podejmowania decyzji, gdzie nawet ich twórcy mogą mieć trudności z wyjaśnieniem konkretnego wyniku.
Cechy systemów AI utrudniające określenie odpowiedzialności
Złożoność przypisania odpowiedzialności za błędy systemów AI wynika z kilku kluczowych cech tych technologii.
Po pierwsze, autonomia – nowoczesne systemy AI podejmują decyzje bez bezpośredniego nadzoru człowieka, co komplikuje tradycyjne pojęcie kontroli i odpowiedzialności. Jak zauważono w raporcie Komisji Europejskiej o bezpieczeństwie i odpowiedzialności w kontekście AI, cecha autonomii może zmienić charakterystykę produktu w sposób, który mógł nie być przewidziany przez producenta w początkowej ocenie ryzyka.
Po drugie, nieprzejrzystość (tzw. “black box effect“) – zwłaszcza w przypadku systemów opartych na głębokim uczeniu maszynowym, gdzie proces decyzyjny może być niezwykle trudny do zrozumienia i wytłumaczenia. Jak stwierdza Biała Księga UE dotycząca AI, specyficzne cechy wielu technologii AI, w tym nieprzejrzystość, złożoność, nieprzewidywalność i częściowo autonomiczne zachowanie, mogą utrudniać weryfikację zgodności z obowiązującymi przepisami UE.
Po trzecie, zależność od danych – jakość i reprezentatywność danych treningowych ma kluczowy wpływ na działanie systemów AI. Wadliwe lub stronnicze dane mogą prowadzić do błędnych lub dyskryminujących decyzji.
Wreszcie, złożoność łańcucha wartości – w tworzenie i wdrażanie systemów AI zaangażowanych jest wiele niezależny od siebie podmiotów: programiści, dostawcy danych, producenci sprzętu, operatorzy itd. Ta wielopoziomowa struktura odpowiedzialności komplikuje identyfikację podmiotu odpowiedzialnego za szkodę.
Autonomia decyzyjna a granice kontroli człowieka
Nowoczesne systemy AI charakteryzują się zdolnością do samodzielnego uczenia się i adaptacji, co radykalnie zmienia tradycyjne paradygmaty odpowiedzialności. Artykuł 27 ust. 1 lit. E AI Act wprowadza obowiązek wdrożenia mechanizmów nadzoru przez człowieka dla systemów wysokiego ryzyka, jednak praktyczna implementacja tego wymogu napotyka na istotne bariery technologiczne. W przypadku systemów głębokiego uczenia maszynowego, nawet twórcy mogą mieć trudności z określeniem dokładnych ram decyzyjnych algorytmu. Jeśli decyzji podejmowanych przez system nie rozumiemy to trudno je też weryfikować.
Nie mniej istotne pozostaje zagadnienie czasu reakcji.
Eksperymentalne badania systemów autonomicznych w sektorze medycznym wykazały, że średni czas reakcji operatora na anomalie w działaniu AI wynosi 8.3 sekundy, co w sytuacjach krytycznych może przekraczać dopuszczalne normy bezpieczeństwa. Ta rozbieżność między wymogami prawnymi a realiami technologicznymi stanowi główne wyzwanie dla współczesnej jurysprudencji.
Efekt czarnej skrzynki a wymóg przejrzystości
Nieprzejrzystość procesów decyzyjnych w systemach głębokiego uczenia maszynowego podważa podstawowe zasady odpowiedzialności deliktowej. Biała Księga UE w sprawie AI wyraźnie wskazuje, że nieprzewidywalność i częściowa autonomia systemów wymagają nowych instrumentów dowodowych. W odpowiedzi na to, art. 13 AI Act wprowadza obowiązek dokumentowania procesów decyzyjnych w formie czytelnej dla audytorów zewnętrznych. Natomiast art. 14 wskazuje, że systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie ich wykorzystywania systemu AI mogły być skutecznie nadzorowane przez osoby fizyczne.
Jednakże praktyka sądowa wskazuje, że w sprawach dotyczących błędów AI, brak możliwości odtworzenia ścieżki decyzyjnej algorytmu uniemożliwia ustalenie związku przyczynowego. Ten paradoks technologiczno-prawny wymaga fundamentalnego przemyślenia standardów dowodowych w postępowaniach cywilnych. Zapisy AI Act są tu w istocie rzeczy pustą deklaracją zawartą w przepisie który nie wszedł jeszcze w życie i nie wiadomo jak dokładnie ma wyglądać implementacja tej deklaracji w praktyce.
Wielopodmiotowość łańcucha wartości AI
Złożoność ekosystemu AI, obejmującego dostawców danych, programistów, integratorów systemów i operatorów, komplikuje tradycyjne modele odpowiedzialności. Badania przypadku z sektora finansowego wskazują, że typowy system scoringowy AI angażuje kilkanaście różnych podmiotów prawnych.
W praktyce implementacyjnej obserwujemy jednak tendencję do zawierania kompleksowych umów cywilnoprawnych, które w większości przypadków przerzucają odpowiedzialność na operatora końcowego. Taka praktyka kontraktowa stoi w sprzeczności z założeniami zrównoważonego podziału ryzyka.
Istniejące ramy prawne odpowiedzialności w kontekście AI
Obecne ramy prawne w Unii Europejskiej opierają się na dwóch głównych filarach: odpowiedzialności za produkt niebezpieczny oraz odpowiedzialności deliktowej.
Dyrektywy o odpowiedzialności za produkty (85/374/EWG oraz 2024/2853)
Dyrektywa ta wprowadza zasadę odpowiedzialności obiektywnej producenta za szkody spowodowane przez wadliwe produkty. W przypadku AI, zastosowanie tej dyrektywy napotyka jednak na kilka wyzwań:
→ Niejasność co do klasyfikacji oprogramowania AI jako “produktu”.
→ Trudności w udowodnieniu “wady” w przypadku systemów samouczących się.
→ Problem z ustaleniem momentu “wprowadzenia do obrotu” w przypadku systemów, które ewoluują w czasie.
→ Wyzwania związane z udowodnieniem związku przyczynowego między wadą a szkodą.
Jak zauważa Komisja Europejska: “pojęcie ‘wprowadzenia do obrotu’, które jest obecnie stosowane w Dyrektywie o odpowiedzialności za produkty, mogłoby zostać zrewidowane, aby uwzględnić fakt, że produkty mogą się zmieniać i być modyfikowane”.
Warto zauważyć w tym kontekście, że przyjęcie nowej dyrektywy UE w sprawie odpowiedzialności za produkt 2024/2853 z dnia 23 października 2024 r. Zastąpi ona obowiązującą dyrektywę w sprawie odpowiedzialności za produkt 85/374/EWG sprzed prawie 40 lat. Choć dyrektywa UE 2024/2853 w sprawie odpowiedzialności za produkty wadliwe weszła w życie 8 grudnia 2024 r., państwa członkowskie mają do 9 grudnia 2026 r. na dostosowanie jej przepisów do prawa krajowego. Nawet jednak ta nowa dyrektora nie była planowana jako kompleksowe uregulowanie odpowiedzialności w kontekście AI, o czym piszę bardziej szczegółowo poniżej.
Nowelizacja dyrektywy wprowadza istotne zmiany dostosowujące prawo produktowe do realiów gospodarki cyfrowej. Zgodnie z tymi nowymi, mającymi wejść w życie przepisami, przy ocenie bezpieczeństwa produktu należy brać pod uwagę:
→ Jak produkt działa z innymi urządzeniami, np. w inteligentnym domu.
→ Jak produkt zmienia się przez uczenie się po zakupie.
→ Że oprogramowanie i algorytmy powinny być zaprojektowane tak, by produkt nie stał się niebezpieczny.
Producent, który tworzy produkt mogący rozwinąć nieoczekiwane zachowania, nadal odpowiada za szkody spowodowane przez ten produkt. Przy ocenie bezpieczeństwa ważne jest też ustalenie, kiedy produkt przestaje być pod kontrolą producenta.
Produkt może być uznany za wadliwy także z powodu luk w cyber bezpieczeństwie, jeśli nie spełnia istotnych wymogów bezpieczeństwa cyfrowego.
Producent nie ponosi odpowiedzialności, jeśli udowodni, że stan wiedzy naukowej i technicznej w czasie, gdy kontrolował produkt był taki, że nie można było wykryć wady produktu. Liczy się obiektywnie najwyższy poziom dostępnej wiedzy, a nie to, co wiedział sam producent.
Alternatywna podstawa odpowiedzialności – odpowiedzialność deliktowa
Jest to odpowiedzialność oparta na zasadzie winy, wymaga udowodnienia zaniedbania lub umyślnego działania. W kontekście AI istotne wyzwania to:
→ Trudności w wykazaniu winy w przypadku nieprzewidywalnych działań systemów AI.
→ Problemy z identyfikacją konkretnego podmiotu odpowiedzialnego w złożonym łańcuchu wartości.
→ Wysokie koszty ekspertyz technicznych niezbędnych do udowodnienia winy.
Podejścia do regulacji odpowiedzialności za AI
W odpowiedzi na te wyzwania, w Europie i na świecie rozważa się różne podejścia regulacyjne:
Podejście oparte na ryzyku
Komisja Europejska w Białej Księdze na temat AI proponuje podejście oparte na ryzyku, gdzie wymagania prawne są dostosowane do poziomu ryzyka związanego z konkretnym zastosowaniem AI:
→ Aplikacje wysokiego ryzyka (np. w ochronie zdrowia, transporcie, wymiarze sprawiedliwości) podlegałyby szczególnym wymaganiom dotyczącym testowania, danych i nadzoru ludzkiego.
→ Aplikacje niskiego ryzyka podlegałyby mniej rygorystycznym wymaganiom.
To podejście pozwala na zrównoważenie potrzeby ochrony konsumentów z promocją innowacji.
Odpowiedzialność obiektywna (strict liability)
Niektórzy eksperci proponują wprowadzenie odpowiedzialności obiektywnej (bez względu na winę) dla operatorów systemów AI wysokiego ryzyka, podobnie jak ma to miejsce w przypadku pojazdów mechanicznych czy energii jądrowej. Takie podejście zapewniłoby ochronę poszkodowanych, jednocześnie dając operatorom jasne zasady odpowiedzialności.
Rozwiązania w zakresie udowodnienia związku przyczynowego
Proponuje się także ułatwienia w zakresie ciężaru dowodu dla poszkodowanych, np.:
→ Domniemanie związku przyczynowego w określonych przypadkach.
→ Obowiązki dokumentacyjne dla producentów i operatorów AI.
→ Dostęp poszkodowanych do danych i algorytmów niezbędnych do udowodnienia roszczeń.
Najnowsze zmiany w podejściu UE do odpowiedzialności za AI
Kwestia regulacji odpowiedzialności za szkody spowodowane przez systemy AI przechodzi w Unii Europejskiej istotne przeobrażenia. W lutym 2025 roku Komisja Europejska podjęła zaskakującą decyzję o wycofaniu z procesu legislacyjnego projektu Dyrektywy o odpowiedzialności za AI (AI Liability Directive). Projekt ten, pierwotnie przedstawiony w 2022 roku, miał na celu harmonizację przepisów dotyczących odpowiedzialności cywilnej za szkody spowodowane przez systemy AI w całej Unii.
W uzasadnieniu tej decyzji Komisja wskazała na brak perspektyw osiągnięcia porozumienia w sprawie projektu, zapowiadając jednocześnie ocenę, czy należy przedstawić nową propozycję, czy też wybrać inne podejście. Decyzja ta wpisuje się w szerszy kontekst dążenia do uproszczenia ram regulacyjnych UE, zmniejszenia obciążeń administracyjnych dla przedsiębiorstw i wspierania innowacji w sektorze AI.
Obecne działania Komisji sugerują potencjalną zmianę kursu w podejściu do regulacji AI, ukierunkowaną na stworzenie bardziej przyjaznego otoczenia dla rozwoju tej technologii w Europie. Komisja zapowiada koncentrację na jednym zestawie zasad bezpieczeństwa w całej UE, zamiast 27 różnych regulacji krajowych, co ma ułatwić funkcjonowanie przedsiębiorstw i jednocześnie zapewnić bezpieczeństwo konsumentów.
Ta zmiana podejścia wywołuje mieszane reakcje. Z jednej strony, branża technologiczna z zadowoleniem przyjmuje dążenie do deregulacji i uproszczenia przepisów, widząc w tym szansę na szybszy rozwój i innowacje. Z drugiej strony, niektórzy eurodeputowani i eksperci w dziedzinie prawa wyrażają obawy, że rezygnacja z dyrektywy o odpowiedzialności za AI może osłabić ochronę konsumentów i utrudnić dochodzenie roszczeń w przypadku szkód spowodowanych przez systemy AI.
Podsumowanie i perspektywy
Odpowiedzialność za błędy systemów AI pozostaje obszarem dynamicznego rozwoju prawa. Obecne ramy prawne nie są w pełni przystosowane do specyfiki sztucznej inteligencji, szczególnie systemów autonomicznych i samouczących się. Unia Europejska, mimo wycofania projektu Dyrektywy o odpowiedzialności za AI, nadal dąży do stworzenia zrównoważonych ram regulacyjnych.
Najnowsze zmiany w podejściu UE sugerują przesunięcie akcentu z tworzenia nowych, dedykowanych przepisów w kierunku uproszczenia istniejących ram prawnych i ograniczenia obciążeń administracyjnych. Nie oznacza to jednak całkowitego porzucenia regulacji, lecz raczej poszukiwanie bardziej zrównoważonego podejścia, które będzie wspierać zarówno innowacje, jak i bezpieczeństwo.
Przyszłość regulacji odpowiedzialności za AI w Europie będzie prawdopodobnie zależeć od wielu czynników, w tym od doświadczeń z wdrażaniem Aktu o sztucznej inteligencji, rozwoju samej technologii AI oraz reakcji rynku i społeczeństwa na pojawiające się wyzwania. Niezależnie od przyjętych rozwiązań prawnych, kluczowe znaczenie będzie miało zapewnienie, że systemy AI są projektowane i wdrażane w sposób bezpieczny, przejrzysty i zgodny z wartościami etycznymi.
Autor: Robert Nogacki, radca prawny, partner zarządzający, Kancelaria Prawna Skarbiec
Kontakt: +48 22 586 40 00, sekretariat@kancelaria-skarbiec.pl
Robert Nogacki, radca prawny, założyciel i partner zarządzający Kancelarią Prawną Skarbiec. Jest prawnikiem dedykowanym i odnoszącym sukcesy przedsiębiorcą. Doskonale rozumie biznes i jego otoczenie. Doradza, a przede wszystkim szuka rozwiązań. Specjalizuje się w prawie podatkowym, w tym międzynarodowym oraz prawie nowych technologii min. regulacjach dotyczących AI czy kryptowalut.
Obsługę prawną i podatkową powierzają mu zarówno przedsiębiorcy uwzględniani w rankingach magazynu Forbes jak i ambitni założyciele start-up’ów. To jeden z najczęściej przywoływanych w polskiej prasie specjalistów z zakresu prawa gospodarczego, podatkowego i nowych technologii.
Laureat wielu prestiżowych polskich i zagranicznych rankingów prawniczych i podatkowych.