Wdrażanie w urzędach sztucznej inteligencji zgodnie z zasadami, które mają zapewnić sprawiedliwe, transparentne i odpowiedzialne wykorzystywanie tej technologii, staje się kluczowym wyzwaniem w administracji publicznej.
W ostatnich latach sztuczna inteligencja (dalej także: AI) przestała być wyłącznie domeną laboratoriów badawczych i gigantów technologicznych, stając się narzędziem szeroko wykorzystywanym w administracji publicznej. Wdrażanie AI do codziennych procesów administracyjnych ma potencjał transformacyjny – może usprawnić procedury, zwiększyć efektywność i poprawić jakość usług świadczonych obywatelom. Z tym ogromnym potencjałem wiąże się również wielka odpowiedzialność.
Od nadziei do standardu
Etyczne pytania zadawane od wieków przez filozofów i filozofki nabrały szczególnego znaczenia w momencie pojawienia się sztucznej inteligencji. W XVIII w. Immanuel Kant, pisząc o zasadach moralności w „Krytyce praktycznego rozumu” [1], podkreślał znaczenie uniwersalizmu i autonomii jednostki, co dziś można odnieść do koncepcji równości i przejrzystości w działaniu algorytmów. Z kolei John Stuart Mill w swojej teorii utylitaryzmu [2] wskazywał na potrzebę maksymalizacji dobra dla jak największej liczby osób, co w kontekście AI oznacza projektowanie systemów wspierających dobro wspólne, a nie jedynie interesy wąskich grup.
Wdrażanie sztucznej inteligencji w administracji budzi ogromne nadzieje. W Estonii – uważanej za wzór cyfryzacji administracji publicznej – AI wspiera urzędników w analizie wniosków podatkowych, redukując czas ich przetwarzania z tygodni do minut [3]. W Finlandii zaś systemy AI pomagają w optymalizacji procesów budżetowych, pozwalając lepiej alokować zasoby publiczne [4]. Te przykłady pokazują, że sztuczna inteligencja może nie tylko przyspieszać procesy, ale również eliminować błędy ludzkie i wpływać na zwiększenie obiektywności podejmowanych decyzji.
Jednak obok tych korzyści pojawiają się także wyzwania. Przykładem może być skandal związany z systemem Robodebt w Australii, który błędnie klasyfikował beneficjentów świadczeń socjalnych, co prowadziło do niesprawiedliwego nakładania długów [5]. Ten przypadek unaocznia, jak brak transparentności algorytmów oraz niewłaściwe wdrożenie AI mogą prowadzić do realnych szkód społecznych.
Etyczne wykorzystanie AI wymaga przejrzystości – obywatele powinni rozumieć, w jaki sposób działają algorytmy i jakie dane są przez nie przetwarzane. Google, wprowadzając zasady odpowiedzialnego stosowania AI, podkreśla wagę wyjaśnialności (ang. explainability), czyli zdolności algorytmu do wyjaśnienia swojej logiki działania. Ta praktyka, już popularna w sektorze prywatnym, powinna stać się również standardem w administracji publicznej.
Kluczowe zasady etycznej AI,
Etyka AI odnosi się do zbioru reguł, które mają kierować projektowaniem i stosowaniem systemów sztucznej inteligencji w sposób respektujący prawa człowieka oraz wartości demokratyczne. W praktyce oznacza to uwzględnienie zarówno technicznych wymagań, jak i społecznych konsekwencji działania sztucznej inteligencji. Przy projektowaniu algorytmów ważne jest, aby unikać uprzedzeń, respektować prywatność użytkowników i działać zgodnie z zasadą równości.
Administracja publiczna, która wdraża systemy AI, jest obciążona szczególną odpowiedzialnością. Algorytmy stosowane w tej sferze mogą wpływać na decyzje o dostępie do świadczeń, usług społecznych czy edukacji – a więc ważne aspekty życia milionów obywateli. Z tego względu etyka AI musi być integralną częścią całego cyklu życia takich systemów, od projektowania po użytkowanie. Wiąże się z tym szereg wymogów.
Jednym z fundamentów etyki AI jest wspomniana wyżej przejrzystość, czyli zdolność do zrozumienia, jak działa dany system AI i jakie decyzje podejmuje. W kontekście administracji publicznej oznacza to, że obywatele muszą mieć prawo wiedzieć, jakie kryteria były brane pod uwagę przez algorytm w procesie decyzyjnym. Przykładem mogą być systemy punktujące wnioski o kredyty socjalne czy przydziały mieszkań komunalnych. Bez przejrzystości obywatele tracą możliwość kontrolowania i kwestionowania decyzji, co podważa zaufanie do instytucji publicznych.
Należy także określić, kto jest odpowiedzialny za decyzje podjęte przez system AI. Czy jest to programista, który stworzył algorytm, czy urzędnik, który go wdrożył? W administracji publicznej kluczowe jest, aby decyzje o istotnym wpływie na życie obywateli pozostawały pod kontrolą człowieka. Przykładem są systemy predykcyjne, które mogą sugerować decyzje, ale nie mogą ich automatycznie narzucać.
Kolejny wymóg to dbałość o równość, co w kontekście AI oznacza eliminowanie algorytmicznych uprzedzeń, które mogą prowadzić do dyskryminacji ze względu na płeć, rasę, status społeczny czy inne cechy. Systemy AI, które są szkolone na nierównych danych, mogą reprodukować i wzmacniać istniejące nierówności. W administracji publicznej ważne jest, aby decyzje podejmowane przez sztuczną inteligencję były zgodne z zasadą niedyskryminacji, np. w systemach oceny kandydatów na stanowiska publiczne czy przy przyznawaniu świadczeń socjalnych.
Jednym z najważniejszych wyzwań etyki AI jest prywatność danych obywateli. Administracja publiczna dysponuje ogromnymi zasobami danych osobowych, które mogą być wykorzystywane przez sztuczną inteligencję. Niezbędne jest wdrożenie mechanizmów ochrony tych danych, zgodnie z regulacjami, takimi jak rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (DzUrz UE L 119 z 4.05.2016; dalej: rodo). Przykładem dobrej praktyki jest stosowanie anonimizacji danych w systemach predykcyjnych, które analizują trendy, ale nie przechowują informacji pozwalających na identyfikację obywateli.
Ostatnim z kluczowych wymogów jest bezpieczeństwo systemów AI. Obejmuje ono ochronę przed cyberatakami, które mogą prowadzić do nieautoryzowanego dostępu do danych lub manipulacji algorytmami. W administracji publicznej konsekwencje takich ataków mogą być szczególnie poważne, dlatego kluczowe jest stosowanie nowoczesnych technologii zabezpieczających oraz regularny audyt systemów.
Kompleksowe podejście
Administracja publiczna pełni podwójną rolę w kontekście etyki AI. Z jednej strony jest użytkownikiem tych technologii, z drugiej – ich regulatorem. W roli użytkownika administracja musi wdrażać systemy AI w sposób odpowiedzialny, bazujący na etycznych zasadach i najlepszych praktykach. Jednocześnie, jako regulator, ma za zadanie tworzenie odpowiednich ram prawnych, które zapewnią etyczne wykorzystanie AI zarówno w sektorze publicznym, jak i prywatnym. Przykładem lidera w tym obszarze jest Unia Europejska, która pracuje nad rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/ UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (DzUrz UE L 2024/1689 z 12.07.2024). Regulacja ta określa wytyczne wykorzystania sztucznej inteligencji w różnych sektorach, w tym administracji, oraz podkreśla znaczenie analizy ryzyka i zgodności systemów AI z wartościami demokratycznymi.
Administracja publiczna ma także wyjątkową możliwość kształtowania przyszłości etycznego wykorzystania sztucznej inteligencji poprzez współpracę z sektorem prywatnym, organizacjami społecznymi i środowiskiem akademickim. Tylko takie holistyczne podejście może zapewnić, że AI będzie służyła dobru wspólnemu, a nie jedynie interesom technologicznym czy politycznym.
Filozoficzne tło rozważań
Wykorzystanie sztucznej inteligencji w administracji publicznej wiąże się z szeregiem etycznych wyzwań, które dotykają fundamentalnych pytań filozoficznych o sprawiedliwość, definicję dobra wspólnego, odpowiedzialność i granice technologii. Wiele z tych problemów można rozpatrywać przez pryzmat klasycznych dzieł filozoficznych, które – mimo że powstały w innych czasach – tworzą ponadczasowe ramy do analizy nowych wyzwań związanych z AI.
Sygnalizowana wyżej algorytmiczna stronniczość może prowadzić do dyskryminacji określonych grup społecznych, ponieważ systemy AI są trenowane na danych historycznych. Zasoby te mogą odzwierciedlać istniejące uprzedzenia społeczne. W efekcie istnieje ryzyko, że decyzje podejmowane przez sztuczną inteligencję – takie jak przydział mieszkań komunalnych czy ocena wniosków o świadczenia socjalne – będą powielać te uprzedzenia. John Rawls w swojej teorii sprawiedliwości [6] proponuje zasadę maksymalizacji korzyści dla najsłabszych członków społeczeństwa. W kontekście AI oznacza to, że algorytmy powinny być projektowane w sposób zapewniający równość szans, a ich działanie powinno być weryfikowane pod kątem potencjalnych dyskryminujących wzorców. Rozwiązaniem może być „etyczny audyt algorytmów”, który polega na regularnym sprawdzaniu, czy systemy AI działają w sposób zgodny z zasadami niedyskryminacji. Przykładem dobrej praktyki jest zastosowanie „różnorodności danych” w procesie trenowania sztucznej inteligencji, co pozwala unikać powielania uprzedzeń. Wiele systemów AI działa jak tzw. czarna skrzynka – ich wewnętrzne mechanizmy są niezrozumiałe zarówno dla użytkowników, jak i dla twórców.
Hannah Arendt w „Kondycji ludzkiej” [7] ostrzegała przed dehumanizacją procesów decyzyjnych, gdy działania technologii stają się nieprzejrzyste i trudne do zrozumienia dla człowieka. Jej refleksje są przestrogą przed automatyzacją procesów administracyjnych bez odpowiednich mechanizmów kontroli i wyjaśnialności. Praktycznym rozwiązaniem tego problemu jest wprowadzenie zasad wspomnianej wyżej wyjaśnialności. Algorytmy stosowane w jednostkach publicznych powinny być zaprojektowane tak, aby ich decyzje można było łatwo wytłumaczyć i uzasadnić. Dzięki temu obywatele będą mogli lepiej zrozumieć, w jaki sposób sztuczna inteligencja wpływa na ich życie.
Administracja publiczna dysponuje ogromnymi zasobami danych osobowych, które są niezbędne do funkcjonowania systemów AI. Jednak wykorzystanie tych informacji wiąże się z ryzykiem naruszenia prywatności obywateli. Michel Foucault w książce „Nadzorować i karać”8 wskazywał na niebezpieczeństwa związane z koncentracją wiedzy i władzy w rękach instytucji. Jego analiza panoptyzmu – modelu, w którym każdy jest potencjalnie obserwowany – może być dziś odniesiona do problemu masowego gromadzenia danych przez administrację. Aby zminimalizować ryzyko naruszeń prywatności, trzeba stosować takie narzędzia jak anonimizacja danych, a także wdrażać odpowiednie regulacje, takie jak europejskie rodo. Przykładem dobrej praktyki jest mechanizm opracowany przez estońską administrację, który umożliwia obywatelom kontrolę nad ich danymi, w tym sprawdzanie, kto i w jakim celu je przetwarzał.
Kwestia autonomii maszyn i odpowiedzialności ludzkiej to jedno z najbardziej kontrowersyjnych wyzwań związanych z wykorzystywaniem sztucznej inteligencji w administracji. Czy system AI może samodzielnie podejmować decyzje, które mają wpływ na życie obywateli? Jeśli tak, kto ponosi odpowiedzialność za te decyzje? W kontekście AI administracja publiczna powinna zachować „autonomię moralną” poprzez utrzymanie człowieka w roli ostatecznego decydenta. Przykładem praktycznego podejścia do tego wyzwania jest tzw. zasada człowieka w pętli (ang. human-in-the-loop), która zakłada, że kluczowe decyzje podejmowane przez sztuczną inteligencję muszą być zawsze weryfikowane przez człowieka. Dzięki temu można uniknąć sytuacji, w których AI działa autonomicznie w sposób niezgodny z wartościami etycznymi.
Między innowacyjnością a odpowiedzialnością
Wdrażanie sztucznej inteligencji w administracji publicznej wymaga znalezienia balansu między innowacyjnością a odpowiedzialnością. Nowe technologie mogą znacznie usprawnić działanie instytucji publicznych, ale ich wprowadzanie nie może odbywać się kosztem praw obywateli ani podstawowych zasad etycznych.
Pierwszym wyzwaniem jest pogodzenie szybkości innowacji z czasochłonnymi procedurami testowania i oceny etycznej. Administracje muszą wypracować ramy prawne, które umożliwią rozwój technologii, jednocześnie zapewniając ochronę obywateli przed potencjalnymi negatywnymi skutkami wprowadzenia nowoczesnych rozwiązań do urzędów. Kluczowe jest wdrożenie mechanizmów odpowiedzialności, takich jak audyty etyczne i testy zgodności z normami prawnymi.
Drugim istotnym problemem są zasoby i kompetencje. Wiele krajów, szczególnie tych mniej rozwiniętych, boryka się z ograniczeniami w zakresie funduszy i wiedzy technicznej, które są niezbędne do implementacji etycznych systemów AI. W takich przypadkach rozwiązaniem może być współpraca międzynarodowa, umożliwiająca wymianę wiedzy i doświadczeń, lub korzystanie z platform opensource’owych, które zapewniają dostęp do sprawdzonych technologii bez dodatkowych kosztów licencyjnych.
Nie mniej ważnym wyzwaniem jest budowanie zaufania społecznego do AI. Estonia, w której obywatele mają wgląd w to, kto i kiedy miał dostęp do ich danych, jest doskonałym przykładem, jak transparentne zarządzanie danymi, edukacja i otwartość mogą przeciwdziałać nieufności. Obywatele muszą czuć, że technologie wykorzystywane przez administrację są nie tylko skuteczne, ale także bezpieczne i zgodne z ich wartościami.
Ostatnim, lecz równie istotnym aspektem, jest rozwój regulacji. Europejski akt w sprawie sztucznej inteligencji może stać się wzorem dla innych regionów, ponieważ wprowadza klasyfikację ryzyka w kontekście różnych zastosowań AI oraz wymóg przeprowadzania analizy ryzyka dla każdego projektu. Tego typu regulacje pomagają zrównoważyć potrzebę innowacyjności z koniecznością ochrony praw obywateli i przestrzegania standardów etycznych.
Łączenie innowacji z etyką w praktyce wymaga holistycznego podejścia, które uwzględnia zarówno techniczne możliwości, jak i potrzeby społeczne oraz normy moralne. Administracje publiczne, korzystając z najlepszych praktyk i regulacji, mogą skutecznie wdrażać sztuczną inteligencję w sposób zgodny z wartościami społecznymi.
Rekomendacje dla polskiej administracji
Aby skutecznie wdrażać sztuczną inteligencję w administracji publicznej, konieczne jest przyjęcie kompleksowego podejścia, które łączy aspekty technologiczne z etycznymi i społecznymi. Kluczowym krokiem jest stworzenie krajowych wytycznych dotyczących etycznego użycia AI. Powinny one uwzględniać najlepsze praktyki międzynarodowe, ale także specyficzne potrzeby i uwarunkowania polskiej administracji. Wytyczne te mogłyby obejmować zasady dotyczące przejrzystości algorytmów, ochrony prywatności i odpowiedzialności za decyzje podejmowane przez AI.
Równie istotne jest regularne szkolenie urzędników, którzy będą korzystać z systemów AI. Wprowadzenie nowych technologii wymaga od administracji nie tylko zaplecza technicznego, ale przede wszystkim świadomego personelu, który będzie rozumiał potencjał i ograniczenia tych narzędzi. Szkolenia powinny obejmować zarówno aspekty techniczne, jak i etyczne, takie jak rozpoznawanie algorytmicznej stronniczości czy zasady odpowiedzialnego zarządzania danymi.
Ważną rolę odgrywa również współpraca międzysektorowa. Administracja publiczna powinna aktywnie współpracować z sektorem prywatnym, który ma tzw. know-how w zakresie AI, oraz z instytucjami akademickimi, które mogą dostarczać niezależnych analiz i badań nad skutkami wdrożenia sztucznej inteligencji. Tego typu współpraca może przyspieszyć rozwój odpowiednich narzędzi, a jednocześnie zapewnić ich zgodność z wartościami społecznymi.
Ostatnim, ale kluczowym elementem jest budowanie zaufania obywateli do systemów AI wykorzystywanych w administracji. Aby to osiągnąć, konieczna jest edukacja publiczna, która wyjaśni działanie sztucznej inteligencji i sposób jej wykorzystywania w administracji publicznej. Przejrzystość w zakresie stosowania AI, np. poprzez publikowanie raportów na temat jej wpływu na decyzje administracyjne, może skutecznie zmniejszyć obawy obywateli związane z nowymi technologiami i zwiększyć ich akceptację.
Realizacja tych działań pozwoli polskiej administracji publicznej na odpowiedzialne i efektywne wdrażanie sztucznej inteligencji z jednoczesnym budowaniem zaufania obywateli i wzmacnianiem demokratycznych zasad funkcjonowania państwa.
Przypisy:
- I. Kant, Krytyka czystego rozumu, Warszawa 1957.
- J. S. Mill, Utylitaryzm, Warszawa 1901/1959.
- Więcej na ten temat na stronach: itwa.pl/zp, itwa.pl/zq [dostęp: 12.12.2024].
- Więcej na ten temat na stronach: itwa.pl/zr, itwa.pl/zs, itwa.pl/zt [dostęp: 12.12.2024].
- Więcej na ten temat na stronie: itwa.pl/zu [dostęp: 12.12.2024].
- J. Rawls, Teoria sprawiedliwości, Warszawa 1994.
- H. Arendt, Kondycja ludzka, Warszawa 2000.
- M. Foucault, Nadzorować i karać: Narodziny więzienia, Warszawa 1998.
Autor
Dota Szymborska
Autorka jest doktorą etyki, filozofką i socjolożką, mówczynią TEDx (2019), laureatką TOP 10 Women in Data Science in Poland (2024) oraz TOP 100 Women in AI (2022). Zajmuje się etyką nowych technologii, estetyką VR. Prowadzi szkolenia dla biznesu i organizacji z zakresu etycznego wdrażania nowych technologii. Od lutego 2024 r. jest członkinią GRAI przy Ministerstwie Cyfryzacji, gdzie zajmuje się etycznym wprowadzaniem zmian związanych z rozwojem i wykorzystaniem sztucznej inteligencji.