Spis treści:
- Liczne przykłady naruszeń
- Granice odpowiedzialności w erze sztucznej inteligencji
- Regulacje unijne
- Regulacje krajowe
- Środki doraźne
Narzędzia oparte na modelach językowych są coraz częściej wykorzystywane w administracji publicznej. Dają one olbrzymie możliwości, ale nie są bez wad. Warto wiedzieć, kto i na jakich zasadach ponosi odpowiedzialność za nieprawidłowe działanie AI.
Żadna technologia, nawet najbardziej zawansowana, nie jest wolna od ryzyk, które wiążą się z jej wykorzystaniem. Szeroki dostęp do narzędzi opartych na generatywnej sztucznej inteligencji niewątpliwie daje dużo możliwości, ale też stawia wiele wyzwań. Z jednej strony AI umożliwia automatyzację procesów, przyspiesza codzienną pracę i pozwala na tworzenie innowacyjnych rozwiązań, z drugiej natomiast niesie za sobą określone ryzyka i zagrożenia, które do tej pory nie były znane lub nie występowały na taką skalę. Świadomość tych zagrożeń jest ważna zarówno dla użytkowników korzystających z narzędzi AI, jak i dla organizacji wdrażających tego typu rozwiązania.
W 2023 r. międzynarodowa organizacja OWASP (Open Worldwide Application Security Project) opublikowała dokument „OWASP Top 10 for LLM Applications”, czyli zestawienie najpoważniejszych zagrożeń i błędów bezpieczeństwa charakterystycznych dla dużych modeli językowych (LLM, Large Language Model), takich jak np. ChatGPT. Dokument ten jest na bieżąco aktualizowany, a w wersji z 2025 r. (itwa.pl/11r) wymieniono następujące zagrożenia:
- Prompt injection (wstrzyknięcie promptu) – atak polegający na wprowadzeniu złośliwych instrukcji do danych wejściowych w celu zmiany zachowania modelu, tak aby wykonał niepożądane akcje, np. manipulowanie odpowiedziami prowadzące do nieprawidłowych lub stronniczych wyników czy ujawnienia poufnych informacji.
- Sensitive information disclosure (ujawnienie poufnych informacji) – ryzyko niezamierzonego przekazania stronie trzeciej poufnych danych, takich jak dane osobowe, dane medyczne, tajemnice przedsiębiorstwa czy dane finansowe, poprzez odpowiedzi modelu, co może skutkować nieuprawnionym dostępem do tych danych.
- Supply chain vulnerabilities (luki w łańcuchu dostaw LLM) – zagrożenia wynikające z podatności w bibliotekach, frameworkach, pretrenowanych modelach czy usługach API, na których opiera się LLM.
- Data and model poisoning (zatrucie danych i modelu) – celowa manipulacja danymi lub modelem na różnych etapach cyklu życia LLM-u (np. podczas szkolenia na danych ogólnych), prowadząca do wprowadzenia błędnych zachowań lub ukrytych backdoorów. Skutkiem może być dezinformacja i obniżenie jakości odpowiedzi.
- Improper output handling (nieprawidłowe przetwarzanie danych wyjściowych) – brak kontroli nad odpowiedziami LLM-u i ich niewłaściwa walidacja. Może to prowadzić do ich wykorzystania w niebezpieczny sposób.
- Excessive agency (nadmierna autonomia) – nadanie modelowi zbyt dużych uprawnień i swobody działania bez nadzoru człowieka, co może prowadzić do nieprzewidzianych konsekwencji.
- System prompt leakage (wycieki promptów systemowych) – niezamierzone ujawnienie wewnętrznych instrukcji i konfiguracji modelu, używanych do sterowania modelem. Mogą one zawierać np. wrażliwe informacje (takie jak hasła, klucze API, opisy ról i uprawnień), co może pomóc w dalszych atakach.
- Vector and embedding weaknesses (słabości wektorów i embeddingów) – podatności w mechanizmach wektorowych i embeddingach, wykorzystywanych m.in. w systemach RAG (Retrieval-Augmented Generation – technika, w której LLM łączy się z zewnętrznymi źródłami wiedzy, aby poprawić trafność i kontekst odpowiedzi). Mogą one zostać wykorzystane
do wstrzyknięcia szkodliwych treści, manipulowania wynikami modelu lub uzyskania dostępu do poufnych informacji.
- Misinformation (dezinformacja) – generowanie i rozpowszechnianie błędnych, mylących lub fałszywych informacji przez model. Jednym z głównych źródeł dezinformacji są halucynacje, czyli sytuacje, w których LLM tworzy treści wyglądające na wiarygodne, ale w rzeczywistości sfabrykowane. Dzieje się tak, gdy model wypełnia luki w wiedzy wzorcami statystycznymi, bez rzeczywistego zrozumienia treści.
- Unbounded consumption (nieograniczone zużycie zasobów) – nadmierne wykorzystanie zasobów obliczeniowych, pamięciowych lub finansowych przez model, co może prowadzić do obniżenia jakości i dostępności usługi.
Liczne przykłady naruszeń
Te zagrożenia nie są jedynie teoretyczne, co potwierdzają ostatnie incydenty. Dobrym przykładem jest sytuacja z chatbotem Grok firmy xAI należącej do Elona Muska – setki tysięcy prywatnych rozmów użytkowników były dostępne w wyszukiwarce Google. Wśród ujawnionych treści znalazły się zarówno prośby o tworzenie postów, jak i wątki dotyczące włamań do portfeli kryptowalut czy intymnych problemów zdrowotnych. Do wycieku doszło przez funkcję „udostępnij”, która generowała publiczny link indeksowany przez wyszukiwarki. W praktyce kliknięcie przycisku oznaczało opublikowanie rozmowy online. Podobny problem wcześniej dotyczył także ChatGPT – po krytyce firma OpenAI przerwała tego rodzaju indeksowanie, nazywając je „krótkotrwałym eksperymentem”.
Niepokojące sygnały płyną także od firmy Anthropic, która pod koniec sierpnia 2025 r. poinformowała, że jej chatbot Claude jest wykorzystywany do tzw. vibe hackingu, czyli instruowania AI, by wygenerowała kod służący np. do ataku, eksfiltracji danych, obchodzenia zabezpieczeń czy infekowania systemów. Choć firma skutecznie blokowała próby nadużyć (takich jak generowanie phishingowych e-maili, tworzenie lub poprawianie kodu malware oraz manipulowanie odpowiedziami AI przez wielokrotne próby przełamania zabezpieczeń), a konta sprawców udało się zablokować, to sytuacja ta pokazuje wyraźnie, że sztuczna inteligencja może stać się narzędziem w rękach cyberprzestępców.
Ryzyka związane z błędami i nadużyciami systemów AI nie ograniczają się wyłącznie do zagrożeń dla organizacji – takich jak potencjalne ataki z wykorzystaniem AI czy poważne incydenty naruszeń poufności – lecz dotykają także życia codziennego, o czym świadczą chociażby medialne doniesienia o tragicznych skutkach błędnych rekomendacji algorytmów. Szczególnie poruszający jest przypadek 16-letniego Adama Raina, którego rodzina złożyła pozew przeciwko OpenAI. Według treści pozwu nastolatek w krótkim czasie uczynił z ChatGPT swojego „najbardziej zaufanego rozmówcę”. Model, zamiast powstrzymywać niepokojące treści, miał udzielać szczegółowych, wręcz afirmujących odpowiedzi na pytania dotyczące samobójstwa. Jak wynika z dokumentów, Adam od września 2024 r. intensywnie korzystał z ChatGPT, a w styczniu zaczął omawiać sposoby odebrania sobie życia. Program rozpoznawał, że sytuacja wymagała interwencji lekarskiej, ale jednocześnie dostarczał mu praktycznych wskazówek, a nawet podtrzymywał wrażenie „rozumiejącego wsparcia”. Chatbot jest oskarżany o potwierdzanie jego intencji i podsycanie myśli samobójczych. Rodzice twierdzą, że śmierć syna była „przewidywalnym skutkiem umyślnego sposobu zaprogramowania” systemu, który zamiast stawiać na bezpieczeństwo, miał uzależniać psychicznie użytkowników. OpenAI w oświadczeniu przyznało, że przypadki takie są „bardzo bolesne” i „zdarzało się, że system w delikatnych sytuacjach nie reagował w zamierzony sposób”. Firma podkreśla jednak, że ChatGPT jest trenowany, by kierować osoby w kryzysie do profesjonalnych źródeł pomocy.
Innym głośnym przykładem zagrożeń związanych z treściami generowanymi przez modele językowe była sytuacja, w której ChatGPT stworzył nieprawdziwe oskarżenia wobec profesora prawa Jonathana Turleya, wykładowcy na Uniwersytecie George’a Washingtona w Waszyngtonie. Model, odpowiadając na zapytania, wskazał, że profesor miał być rzekomo zamieszany w sprawę molestowania seksualnego, powołując się przy tym na nieistniejący artykuł prasowy w „Washington Post”. Choć informacja była całkowicie fałszywa, to sam fakt jej wygenerowania pokazuje realne ryzyko reputacyjne, jakie niesie AI. Zagadnienie ukazuje niedostatek wbudowanych procedur weryfikacji faktów oraz brak odpowiedzialności po stronie dostawców technologii za możliwe negatywne konsekwencje korzystania z ich modeli.
Granice odpowiedzialności w erze sztucznej inteligencji
Powyżej opisane przypadki to jedynie wybrane przykłady, które pokazują, że zagrożenia związane z AI mogą ujawniać się w bardzo różnych obszarach naszego życia. Analiza tych spraw w sposób naturalny prowadzi do zasadniczego pytania: kto ponosi odpowiedzialność prawną, gdy ryzyka związane ze sztuczną inteligencją materializują się w praktyce?
Dla porządku należy rozróżnić dwa podstawowe scenariusze:
- relacja bezpośrednia z dostawcą modelu – sytuacja, w której użytkownik korzysta z danego systemu (np. ChatGPT) i wchodzi w interakcję bezpośrednio z jego twórcą lub dostawcą usług;
- wykorzystanie AI w ramach działalności gospodarczej – przypadek, gdy to przedsiębiorstwo wdraża narzędzie AI, np. chatbota, na stronie internetowej, które doradza klientom lub wspiera obsługę.
W kontekście ustalania zakresu i zasad odpowiedzialności należy pamiętać, że nie zawsze podmiotem odpowiedzialnym będzie organizacja korzystająca z rozwiązań opartych na sztucznej inteligencji (np. firma wykorzystująca chatbota w komunikacji z klientami). W określonych przypadkach odpowiedzialność może bowiem spoczywać na podmiocie trzecim, takim jak dostawca systemu lub usługodawca technologiczny, który zapewnia kluczowe elementy rozwiązania.
Rozważmy najpierw pierwszy scenariusz, w którym korzystamy bezpośrednio z narzędzia AI w relacji z jego dostawcą. Tu klasycznym przykładem jest korzystanie z systemów typu ChatGPT, Copilot czy innych modeli generatywnych dostępnych w modelu SaaS (Software as a Service).
W takim wypadku odpowiedzialność kształtuje się przede wszystkim na gruncie regulaminu usługi. W praktyce większość dostawców ogranicza swoją odpowiedzialność poprzez wyłączenia (np. „as is”, brak gwarancji poprawności danych, brak odpowiedzialności za decyzje użytkownika podjęte na podstawie wygenerowanych treści). W przypadku konsumentów takie wyłączenia mają jednak ograniczoną skuteczność, ponieważ przepisy prawa konsumenckiego zakazują postanowień, które wyłączają lub istotnie ograniczają odpowiedzialność przedsiębiorcy wobec konsumenta za niewykonanie lub nienależyte wykonanie zobowiązania.
Drugie ujęcie nabiera szczególnego znaczenia w kontekście odpowiedzialności przedsiębiorcy za treści generowane przez systemy sztucznej inteligencji, z których ten przedsiębiorca korzysta. Warto w tym kontekście przywołać sprawę przeciwko Air Canada. Klient został wprowadzony w błąd przez chatbota, który zapewnił o możliwości zwrotu różnicy w cenie biletu w ramach taryfy żałobnej, czyli obniżonej taryfy lotniczej, oferowanej przez niektóre linie lotnicze osobom podróżującym z powodu śmierci bliskiego członka rodziny lub w celu uczestnictwa w pogrzebie. Po zakupie biletu linia odmówiła zwrotu, twierdząc, że chatbot podał błędne informacje. Sąd uznał jednak, że przewoźnik ponosi odpowiedzialność za treści publikowane na swojej stronie niezależnie od tego, czy pochodzą od pracowników, czy systemu AI. Wskazano też brak odpowiednich zabezpieczeń ze strony Air Canada, co w efekcie doprowadziło do uznania linii lotniczej za odpowiedzialną za wprowadzenie klienta w błąd.
Kwestia odpowiedzialności wydaje się bardzo złożona, zwłaszcza że jeszcze do niedawna dużym wyzwaniem było samo zdefiniowanie, czym jest sztuczna inteligencja. Zgodnie z definicją „systemu sztucznej inteligencji” zawartą w art. 3 pkt 1 aktu w sprawie sztucznej inteligencji (DzUrz UE L 2024/1689 z 12.07.2024; dalej także: AI Act) przez to pojęcie należy rozumieć: „system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.
Warto podkreślić, że AI Act nie ustanawia zasad odpowiedzialności cywilnej ani karnej za szkody spowodowane przez systemy AI. Mimo uchwalenia aktu problematyka ta zyskuje na znaczeniu, zwłaszcza wobec utrzymującego się braku szczegółowych unormowań prawnych w tym zakresie tak na poziomie prawa krajowego, jak i unijnego. Obecnie ani w Polsce, ani w Unii Europejskiej nie ma przepisów, które dawałyby systemom AI podmiotowość prawną. W związku z tym nie można ich także pociągnąć do odpowiedzialności cywilnej za wyrządzone szkody. Powszechniejszy dostęp do narzędzi AI naturalnie rodzi pytania o uregulowanie kwestii odpowiedzialności.
Regulacje unijne
Problematyka ta miała zostać uregulowana w ramach tzw. AI Liability Directive (dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję). Dyrektywa ta, przedstawiona po raz pierwszy w 2022 r., zakładała stworzenie jednolitych zasad odpowiedzialności cywilnej w całej Unii Europejskiej, co miało ułatwić dochodzenie roszczeń przez osoby poszkodowane w wyniku działania systemów AI oraz zapewnić większą przewidywalność prawną dla przedsiębiorców wdrażających takie technologie. Jednak w lutym br. Komisja Europejska niespodziewanie ogłosiła w swoim programie prac rezygnację z projektu. Jako główną przyczynę wskazano brak „przewidywalnego porozumienia” między państwami członkowskimi oraz innymi zainteresowanymi stronami.
Obecne ramy prawne w Unii Europejskiej opierają się na dwóch głównych filarach: odpowiedzialności za produkt niebezpieczny oraz odpowiedzialności deliktowej. Dyrektywa 85/374/EWG (DzUrz UE L 210 z 7.08.1985), ustanawiająca zasadę odpowiedzialności obiektywnej producenta za szkody wyrządzone przez wadliwe produkty, przez wiele lat była podstawą ochrony konsumentów. Jej założenia zostały jednak opracowane w realiach gospodarki opartej głównie na produktach materialnych, co czyni ją mało adekwatną wobec wyzwań związanych ze sztuczną inteligencją. Trudności przysparzają zwłaszcza takie kwestie jak kwalifikacja oprogramowania bazującego na algorytmach AI jako „produktu”, ustalenie istnienia „wady” w systemach samouczących się, określenie momentu „wprowadzenia do obrotu” w przypadku rozwiązań ewoluujących w czasie oraz wykazanie związku przyczynowego między działaniem systemu a powstałą szkodą.
W odpowiedzi na te wyzwania Unia Europejska przyjęła nową dyrektywę 2024/2853 (DzUrz UE L 2024/2853 z 18.11.2024), która weszła w życie 8 grudnia 2024 r., zastępując przepisy obowiązujące od niemal czterech dekad. Aktualizacja wprowadza nowe zasady mające na celu wzmocnienie ochrony konsumentów oraz dostosowanie prawa do realiów współczesnych technologii, w tym oprogramowania i sztucznej inteligencji. Państwa członkowskie mają czas aż do 9 grudnia 2026 r. na implementację jej postanowień do krajowych porządków prawnych.
Regulacje krajowe
Problematyka ta miała zostać uregulowana w ramach tzw. AI Liability Directive (dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję). Dyrektywa ta, przedstawiona po raz pierwszy w 2022 r., zakładała stworzenie jednolitych zasad odpowiedzialności cywilnej w całej Unii Europejskiej, co miało ułatwić dochodzenie roszczeń przez osoby poszkodowane w wyniku działania systemów AI oraz zapewnić większą przewidywalność prawną dla przedsiębiorców wdrażających takie technologie. Jednak w lutym br. Komisja Europejska niespodziewanie ogłosiła w swoim programie prac rezygnację z projektu. Jako główną przyczynę wskazano brak „przewidywalnego porozumienia” między państwami członkowskimi oraz innymi zainteresowanymi stronami.
Na gruncie prawa polskiego należy wskazać, że system odpowiedzialności cywilnej opiera się na czterech podstawowych reżimach:
- odpowiedzialności kontraktowej – związanej z niewykonaniem lub nienależytym wykonaniem zobowiązania wynikającego z umowy;
- odpowiedzialności deliktowej – dotyczącej szkód wyrządzonych czynem niedozwolonym, a więc naruszeniem ogólnego obowiązku nieczynienia szkody innym osobom;
- odpowiedzialności za produkt niebezpieczny – wynikającej z wprowadzenia do obrotu produktu wadliwego;
- odpowiedzialności gwarancyjno-repartycyjnej – charakterystycznej m.in. dla ubezpieczeń OC, o akcesoryjnym charakterze względem sprawcy szkody (ze względu na swoją specyfikę nie będzie szerzej analizowana w niniejszym opracowaniu).
Odpowiedzialność kontraktowa
Wykorzystanie narzędzi AI odbywa się najczęściej na podstawie umów. Dotyczy to zarówno projektów związanych ze sztuczną inteligencją w relacjach B2B, jak i używania przez konsumentów tzw. otwartych modeli sztucznej inteligencji, które pozwalają na korzystanie po akceptacji Terms of Service, w wyniku czego dochodzi do zawarcia umowy pomiędzy dostawcą a konsumentem. W polskim prawie cywilnym odpowiedzialność kontraktowa opiera się na zasadzie winy. Oznacza to, że jeżeli jedna ze stron nie wykona albo w sposób nienależyty wykona swoje zobowiązanie, a druga strona poniesie z tego powodu szkodę, to można domagać się odszkodowania. Trzeba jednak pamiętać, że chodzi tutaj wyłącznie o szkody majątkowe – w ramach tego rodzaju odpowiedzialności nie ma możliwości żądania zadośćuczynienia za krzywdę (psychiczną i fizyczną), która ma charakter niemajątkowy.
Analizując kwestię odpowiedzialności, przede wszystkim należy sięgnąć do regulaminów i warunków korzystania z usług dostawców narzędzi AI (Terms of Service, OWU). Regulaminy korzystania z narzędzi AI są istotnym dokumentem określającym m.in. zasady korzystania z poszczególnych narzędzi, w tym to, kto i w jakim zakresie ponosi odpowiedzialność za skutki używania technologii wykorzystującej algorytmy AI. Większość dostawców – takich jak OpenAI, Anthropic czy Google – wyraźnie ogranicza własną odpowiedzialność, przerzucając de facto określone ryzyka prawne i biznesowe na swoich użytkowników. Jednocześnie dostawcy ci stosują podobne rozwiązania kontraktowe. Z regulaminów wynika zazwyczaj, że:
- treści generowane przez AI udostępniane są na zasadzie „as is” (tak jak są), bez gwarancji co do ich jakości czy poprawności;
- użytkownik zobowiązany jest do poszanowania prawa i praw osób trzecich, zwłaszcza własności intelektualnej i ochrony danych;
- dostawcy zastrzegają sobie prawo do blokowania kont i jednostronnych zmian regulaminu;
- ewentualna odpowiedzialność odszkodowawcza dostawcy danego narzędzia jest ograniczona, często wyłącznie do kwoty uiszczonych opłat.
Przykładowo: zgodnie z warunkami użytkowania ChatGPT limit odpowiedzialności został określony na poziomie 100 dolarów albo kwoty zapłaconej przez użytkownika w ostatnich 12 miesiącach przed dniem powstania roszczenia (do wyższej kwoty).
Jest to szczególnie istotne także z uwagi na fakt, że użytkownik nie otrzymuje żadnej ochrony w razie wysunięcia wobec niego roszczeń przez osoby trzecie z tytułu naruszenia ich praw własności intelektualnej. W przypadku ewentualnych naruszeń pełną odpowiedzialność ponosi użytkownik. Dostawca nie daje także gwarancji, że wygenerowany output będzie unikalny i całkowicie wolny od elementów objętych ochroną prawną innych podmiotów. Nie da się wykluczyć, że wygenerowane treści będą naruszać prawa innych osób. W świetle tej konstrukcji odpowiedzialność spada na użytkownika.
Odpowiedzialność deliktowa
Warto także rozważyć możliwość dochodzenia naprawienia szkody w związku z błędami AI na gruncie odpowiedzialności deliktowej. Odpowiedzialność deliktowa w polskim prawie (czyli za szkodę wyrządzoną czynem niedozwolonym) powstaje wtedy, gdy spełnione są trzy warunki: ktoś działa bezprawnie i jednocześnie w sposób zawiniony; w wyniku tego działania powstaje szkoda; istnieje związek przyczynowy między tym działaniem a szkodą.
Zasadą jest, że odpowiada się za zawinione działanie. Jednak prawo przewiduje też wyjątki, w których stosuje się bardziej surową zasadę ryzyka, np. w przypadku właściciela pojazdu mechanicznego czy osoby prowadzącej przedsiębiorstwo napędzane siłami przyrody (np. elektrowni). W takich sytuacjach uniknięcie odpowiedzialności możliwe jest tylko wtedy, gdy wyłączną winę za szkodę ponosi poszkodowany, osoba trzecia albo gdy szkoda wynika z działania siły wyższej (np. klęski żywiołowej). Warto podkreślić, że w ramach odpowiedzialności deliktowej można dochodzić nie tylko odszkodowania za straty majątkowe, lecz także zadośćuczynienia za krzywdę (np. cierpienia fizyczne czy psychiczne). W odniesieniu do systemów AI część ekspertów postuluje wprowadzenie odpowiedzialności obiektywnej (niezależnej od winy) dla operatorów systemów wysokiego ryzyka. Taki model odpowiedzialności zapewniałby skuteczniejszą ochronę osób poszkodowanych. Trudno obecnie sobie wyobrazić, aby sztuczna inteligencja jako taka ponosiła „winę” za jakiekolwiek swoje „zachowania” i ich skutki, gdyż nie ma osobowości prawnej ani zdolności do czynności prawnych.
Rozważając możliwość stosowania przepisów kodeksu cywilnego (tekst jedn. DzU z 2025 r., poz. 1071; dalej: kc) dotyczących deliktów wobec sztucznej inteligencji, da się wskazać regulacje, które potencjalnie mogłyby znaleźć zastosowanie w tym obszarze. Przykładem są przepisy o odpowiedzialności za produkt niebezpieczny. Zgodnie z przepisami kc kto wytwarza w zakresie swojej działalności gospodarczej (producent) produkt niebezpieczny, odpowiada za szkodę wyrządzoną komukolwiek przez ten produkt. Jednak przez produkt rozumie się rzecz ruchomą, choćby została ona połączona z inną rzeczą. W konsekwencji trudno byłoby powoływać się na te przepisy w przypadku szkody wywołanej wyłącznie działaniem oprogramowania opartego na sztucznej inteligencji. Takie regulacje mogłyby znaleźć zastosowanie tylko wtedy, gdy system AI byłby elementem urządzenia lub maszyny, czyli w sytuacji, gdy mamy do czynienia z produktem, który fizycznie oddziałuje na otoczenie (np. robot medyczny, autonomiczny pojazd). Jeśli pojazd całkowicie autonomiczny i sterowany za pomocą sztucznej inteligencji wyrządziłby jakąś szkodę, można by rozważać potencjalnie odpowiedzialność producenta takiego produktu. Choć i tego rodzaju odpowiedzialność w praktyce jest mocno ograniczona.
Środki doraźne
Analiza kwestii odpowiedzialności rodzi pytanie, czy obecne zasady odpowiedzialności cywilnej okażą się wystarczające w stosunku do systemów, które charakteryzują się autonomią działania, zdolnością uczenia się i adaptacji, a także nieprzejrzystością. Wobec braku właściwych przepisów niezbędne będzie stosowanie istniejących norm przez analogię – tam, gdzie jest to prawnie możliwe.
Autorzy
Paweł Dymek
autor jest radcą prawnym w kancelarii Głowacki i Wspólnicy. Specjalizuje się w zakresie prawa nowych technologii, w szczególności umów IT oraz ochrony danych osobowych.
Paulina Ostrowska
autorka jest adwokatem w kancelarii Głowacki i Wspólnicy. Specjalizuje się w zagadnieniach z zakresu prawa nowych technologii, w szczególności cyberbezpieczeństwa oraz ochrony danych osobowych.