Artykuł pochodzi z wydania: Kwiecień 2026
Sztuczna inteligencja staje się narzędziem transformacji sektora publicznego. Instytucje mierzą się jednak z fundamentalnym wyzwaniem: jak testować oraz odbierać od dostawców systemy, które nie poddają się tradycyjnym scenariuszom testowym?
Polska administracja, podążając drogą instytucji w całej Unii Europejskiej i za ogólnoświatowym trendem, rozpoczyna masowe wdrażanie systemów opartych na sztucznej inteligencji (AI). W tym kontekście pojęcie to oznacza dziedzinę informatyki zajmującą się tworzeniem systemów i algorytmów zdolnych do symulowania ludzkich funkcji poznawczych, takich jak uczenie się, rozumowanie, rozwiązywanie problemów czy percepcja, ale w kontekście tworzenia konkretnych systemów dla nowoczesnego państwa i usług obywatelskich – od chatbotów obsługujących mieszkańców, przez automatyzację dokumentów, po inteligentne systemy wspomagające decyzje urzędników. Perspektywa tych wdrożeń jest obiecująca: według badania „Możliwości AI dla e-administracji w Polsce” przeprowadzonego w 2025 r. przez Implement Consulting Group na zlecenie Google w partnerstwie ze Szkołą Główną Handlową w Warszawie generatywna AI może przynieść polskiej administracji publicznej nawet 8 mld zł wartości dodanej rocznie. Jednocześnie jednak sztuczna inteligencja wymaga od instytucji nowego podejścia do testowania i odbierania tego rodzaju rozwiązań od dostawców.
Tradycyjny proces testowania IT – oparty na weryfikacji sprecyzowanych wymagań funkcjonalnych i procedur (art. 83, art. 96, art. 89 ust. 1 pkt 2 Prawa zamówień publicznych) – okazuje się niewystarczający dla systemów AI. Modele uczenia maszynowego i duże modele językowe operują w przestrzeni probabilistycznej, a ich zachowanie zależy od jakości danych treningowych, procesów walidacji i mechanizmów nadzoru człowieka. Bez właściwego podejścia metodologicznego kierownik IT w administracji publicznej ryzykuje wdrożenie systemu, który, mimo że poprawnie „się uczy”, w środowisku produkcyjnym działa inaczej niż w środowisku testowym: podejmuje dyskryminujące decyzje, generuje fałszywe informacje albo okazuje się podatny na manipulację. Klasyczne podejście do testowania będzie również niewystarczające pomimo zastosowania zwinnych metod podejścia do zarządzania projektem. Agile przyspieszy cykl wytwarzania, ale specyfika AI pozostaje. Przykładowo: jeśli chatbot AI – testowany zgodnie z tradycyjnymi metodami takimi jak testy jednostkowe, testy integracji czy regresji – będzie halucynować (wymyślać odpowiedzi), to tradycyjne testy tego nie wykryją. Niezależnie od tego, czy mamy do czynienia z projektem Agile (szybkie sprinty) czy z Waterfall (standardowe fazy), tradycyjne testowanie (sprawdzanie, czy kod robi to, co ma robić) nie wystarczy w przypadku systemów AI. Problem nie leży w sposobie zarządzania projektem, ale w samej naturze AI. Modele bowiem „uczą się” z danych i działają probabilistycznie, a nie deterministycznie jak w tradycyjnych rozwiązaniach IT.
Jakimi wytycznymi powinni się więc sugerować kierownicy projektów IT, specjaliści do spraw jakości rozwiązań IT oraz decydenci w administracji publicznej? Z uwagi na ograniczone doświadczenia światowych i polskich organizacji oraz dużą zmienność rynku AI odpowiedź na to pytanie nie jest łatwa. Opisane tutaj podejście zostało skonstruowane jedynie jako propozycja procesu testowania AI, najbardziej adekwatna według autora na dzień pisania tego artykułu, czyli kwiecień 2026. Wskazuję w niej na typowe pułapki oraz to, jak wdrażać rozwiązania AI w zgodzie z wymogami regulacyjnymi, biorąc pod uwagę szybki rozwój tej dziedziny.
Kontekst regulacyjny
Od 2 lutego 2025 r. w Unii Europejskiej obowiązuje rozporządzenie (UE) 2024/1689 w sprawie sztucznej inteligencji (DzUrz L 1689 z 12.07.2024; dalej: AI Act) – kompleksowy akt prawny regulujący AI, ale co warto zaznaczyć, dotyczący wyłącznie rynku Unii Europejskiej i podmiotów spoza UE, jeśli ich systemy AI są używane w UE. Polski system administracji publicznej funkcjonuje już w tym nowym otoczeniu prawnym, co nie oznacza, że nie jest „narażony” na pojawienie się rozwiązań AI spoza UE, czyli takich, które działają niezgodnie z wytycznymi AI Act. I nie chodzi tu o sytuację, w której administracja sama wdroży coś niezgodnego z tym rozporządzeniem, ale będzie używać pośrednio narzędzia AI w kontakcie z dostawcami lub mieszkańcami, czyli bez świadomości pracowników, jak i bez formalnego ich wdrożenia przez administrację.
AI Act klasyfikuje systemy sztucznej inteligencji według poziomu ryzyka: minimalne, ograniczone i wysokie. W administracji publicznej większość wdrożeń AI wpada w kategorię systemów wysokiego ryzyka, zwłaszcza te wpływające na dostęp do usług publicznych, infrastrukturę krytyczną czy procesy decyzyjne dotyczące praw obywateli. Warto zaznaczyć, że dla takich systemów AI Act wymaga (w skrócie):
- oceny ryzyka – początkowej i ciągłej;
- pełnej dokumentacji technicznej z opisem architektury, danych treningowych i wyników testów;
- testowania bezpieczeństwa przed wdrożeniem produkcyjnym;
- mechanizmów nadzoru człowieka przy podejmowaniu istotnych decyzji;
- monitorowania po wdrożeniu i procedur raportowania incydentów.
Dodatkowo w rozporządzeniu określono precyzyjnie termin, od kiedy te wymagania muszą być przestrzegane. Do 2 sierpnia 2026 r. wszystkie systemy AI wysokiego ryzyka muszą być w pełni zgodne z wymogami. To oznacza, że urząd przystępujący do testowania rozwiązania dostawcy musi już dziś przyjąć rygorystyczne standardy wynikające z AI Act.
Potencjał AI dla Administracji
Jak wspomniałem we wstępie, badanie „Możliwości AI dla e-administracji w Polsce” wskazuje, że wdrożenie generatywnej AI w polskiej administracji publicznej może generować 8 mld zł brutto wartości dodanej rocznie – bez konieczności zwiększania zasobów kadrowych. Oznacza to teoretycznie znaczący potencjał wzrostu efektywności funkcjonowania urzędów i instytucji publicznych przy jednoczesnym zachowaniu obecnego poziomu zatrudnienia. Potencjał ten jest niestety blokowany przez lukę kompetencyjną w sektorze publicznym, dotyczącą wiedzy na temat metod wdrażania rozwiązań AI. Pracownicy administracji, owszem, korzystają z AI, ale za pomocą gotowych narzędzi – jako konsumenci końcowi. Sami zazwyczaj nie budują i nie wdrażają narzędzi sztucznej inteligencji. W omawianym raporcie wskazano też, że ponad 80 procent pracowników sektora publicznego uważa, że w zakresie AI nie ma nawet kompetencji użytkowników końcowych, co jest istotną barierą dla wdrażania nowoczesnych rozwiązań cyfrowych. A jak wygląda dojrzałość rynku IT w tym obszarze? Implementacja generatywnej AI w administracji to wyzwanie również dla przedsiębiorców.
Ryzyka użycia AI
Problem nieprawidłowego działania AI występuje już teraz i będziemy go spotykać coraz częściej w praktyce zawodowej. Jakie konsekwencje może nieść za sobą błąd sztucznej inteligencji? Problem nieprawidłowego działania AI ujawnia się zarówno w postaci błędów technicznych (takich jak niepoprawne decyzje czy nieprzewidywalne generowane wyniki), jak i w postaci poważnych dylematów etycznych i braku wiarygodności narzędzi cyfrowych. AI potrafi generować fałszywe informacje, błędnie klasyfikować osoby czy prowadzić do niezamierzonych naruszeń procedur, co w praktyce zawodowej może prowadzić do kosztownych pomyłek, utraty reputacji lub zagrożenia praw obywateli. Kilka poniższych przykładów ilustruje skalę i złożoność tych wyzwań, dając wiele do myślenia, co niesie nowoczesna technologia w obszarze administracji.
W Polsce jedna z firm złożyła ofertę do przetargu, wykorzystując AI, ale nie zweryfikowała wyniku odpowiedzi AI. Złożyła dokumenty zawierające błędy i zmyślone informacje. W konsekwencji Krajowa Izba Odwoławcza wykluczyła firmę z przetargu (wyrok KIO z dnia 17 października 2025 r., sygn. KIO 3335/25). To jedno z pierwszych takich orzeczeń w naszym kraju. Jest to precedens dla przyszłych zamówień publicznych.
W 2024 r. szwajcarski system opierający się na AI błędnie zidentyfikował niewinnego człowieka jako sprawcę dwóch kradzieży w Lugano i Ascona. Mężczyźnie zagrażała ekstradycja na podstawie wyniku działania algorytmu. Prawie doszło do procesu karnego. Problemem okazał się fakt, że nikt nie zweryfikował wyniku działania AI. Ludzie potraktowali wyniki z systemu AI jako niezaprzeczalny dowód.
[…]
Tadeusz Kifner
Autor ma zawodowe doświadczenie w sektorze finansowym i publicznym na stanowiskach technicznych oraz menedżerskich związanych z rozwojem oprogramowania, architekturą korporacyjną, ładem organizacyjnym IT, architekturą rozwiązań IT, a także audytem IT. Obecnie pracuje w Interdyscyplinarnym Pomorskim Centrum Medycyny Cyfrowej przy Gdańskim Uniwersytecie Medycznym oraz jako wykładowca na Uniwersytecie WSB MERITO. Ponadto pełni funkcję rzeczoznawcy Polskiego Towarzystwa Informatycznego.





