Artykuł pochodzi z wydania: Wrzesień 2019
Sztuczna inteligencja to już nie tylko temat pojawiający się w powieściach i filmach science fiction. To namacalny element rewolucji technologicznej, który wywiera wpływ nie tylko na sektor prywatny, ale coraz częściej na instytucje publiczne i relacje władza–obywatel.
Wpływ sztucznej inteligencji (AI) na działalność podmiotów publicznych nie ogranicza się wyłącznie do kwestii czysto technologicznych. Wyzwania, które niesie za sobą rozwój AI, stają się widoczne również w obszarach regulacji czy etyki. Czy władze są przygotowane do zmierzenia się z szansami i wyzwaniami związanymi ze sztuczną inteligencją i czy mają odpowiednie narzędzia do ich oceny?
Wyzwania dla władz
Gdy w 1956 r. amerykański informatyk John McCarthy ogłaszał definicję sztucznej inteligencji, stwierdził przy okazji, że na jej wprowadzenie do powszechnego użytku trzeba będzie poczekać od 5 do 500 lat. Wydawało się więc, że to przyszłe pokolenia będą musiały mierzyć się z wyzwaniami, które stoją przed społeczeństwem w związku z powierzeniem maszynom umiejętności, które do tej pory zarezerwowane były wyłącznie dla ludzkiego umysłu. Wydaje się, że żyjemy w momencie, w którym sztuczna inteligencja nie tylko rozpala umysły fanów futurologii, ale staje się kolejnym tworem ludzkiego umysłu, który zafunkcjonował w życiu milionów ludzi, a jego wpływ będzie się zwiększał z roku na rok.
W zasadzie każdy z przykładów zastosowania AI zawiera w sobie wiele poziomów zagadnień, które stanowią wyzwanie dla władz. Dotyczą one m.in. opracowania skutecznych regulacji dotyczących przetwarzania ogromnych zasobów danych, ustalenia odpowiedzialności za wyniki pracy algorytmów czy określenia zakresu przejrzystości narzędzi wykorzystujących sztuczną inteligencję. Zgodzić się należy z Loreną Jaume-Palasí z niemieckiej organizacji AlgorithmWatch (por. itwa.pl/fv), według której „nie powinniśmy wyłącznie się skupiać nad regulowaniem sztucznej inteligencji jako technologii, ale przede wszystkim na aspekcie kontroli tego, jakie skutki niesie ona dla społeczeństwa”. Z kolei zdaniem Megan Rose Dickey, dziennikarki Tech Crunch (por. itwa.pl/fw), internetowego pisma specjalizującego się w dziedzinie nowych technologii, „algorytmy nie znikną i (…) wszyscy możemy się zgodzić, że staną się bardziej powszechne i potężne. Ale dopóki naukowcy, technolodzy i inni interesariusze nie ustalą konkretnego procesu, aby algorytmy i firmy technologiczne stały się bardziej przejrzyste, wszyscy jesteśmy zagrożeni”.
Fundacja ePaństwo przeprowadziła w maju 2019 r. badanie otoczenia regulacyjnego wykorzystywania algorytmów w narzędziach używanych przez władze kilku europejskich krajów (itwa.pl/fx) i niestety nasze obawy i wstępne obserwacje się potwierdziły. Podczas gdy chętnie roztacza się wizję używania AI i wskazuje nawet na potencjalne zagrożenia z tym związane, nie istnieją żadne regulacje, które nas do tego przygotują. Nie znaczy jednak, że brakuje pozytywnych przykładów prób rozwiązania licznych dylematów wpływu AI w szerokim kontekście. Tyle tylko że należy ich szukać głównie za oceanem. Jedynym wyjątkiem w Europie jest Francja, która opracowała nie tylko regulacje odnoszące się do przejrzystości algorytmów używanych przez władze, ale przygotowała całą metodologię ich tworzenia.
Definicje sztucznej inteligencji
Podstawowym wyzwaniem, z którym należy zmierzyć się w kontekście tematu artykułu, jest ustalenie odpowiedniej terminologii. Przywołany na wstępie John McCarthy wskazał, że sztuczna inteligencja to gałąź informatyki, która ma ułatwiać opracowywanie i rozwój komputerów zdolnych do wykonywania czynności będących zazwyczaj domeną ludzi, szczególnie tych wymagających użycia ludzkiej inteligencji (por. itwa.pl/fy). Obserwując jednak debatę na temat sztucznej inteligencji w Polsce i poza jej granicami, zauważyć można, że używa się również pojęć takich jak nauczanie maszynowe, algorytmy czy automatyczne podejmowanie decyzji.
Najbardziej odpowiednim pojęciem, którym powinniśmy posługiwać się w kontekście zaawansowanych narzędzi technologicznych używanych w administracji publicznej, jest algorytm. Simon Chignard i Soizic Penicaud z francuskiej jednostki zajmującej się wdrażaniem nowych technologii we francuskiej administracji wyróżnili trzy generacje algorytmów wykorzystywanych przez urzędników (por. itwa.pl/fz). Pierwsza generacja to podstawowe algorytmy kalkulujące, np. wymiar emerytury. Druga generacja, już bardziej skomplikowana, będzie dotyczyć tych algorytmów, które, wykorzystując ogromne ilości danych, są w stanie automatycznie ustalić określony stan faktyczny, np. jak ma to miejsce w przypadku polskiego systemu CANARD. Łączy on ze sobą dane pobierane z kamer mierzących prędkość z danymi z Centralnej Ewidencji Pojazdów i Kierowców. Wreszcie, trzecia generacja algorytmów wykorzystuje techniki nauczania maszynowego i najbliżej jest jej do pojęcia sztucznej inteligencji. Będą to te algorytmy, które na podstawie dostarczonych do systemu danych same uczą się pewnych prawidłowości i są w stanie np. przewidzieć na podstawie informacji ze sprawozdań finansowych spółek, jakie jest prawdopodobieństwo ich bankructwa. Bardziej obrazowym przykładem w kontekście potencjalnych zagrożeń dla obywateli są rozwijane m.in. w Stanach Zjednoczonych systemy przewidujące prawdopodobieństwo ponownego popełnienia przestępstwa.
Narzędzia wykorzystujące nauczanie maszynowe nie zawsze są i będą stosowane do przewidywania określonych zjawisk. Są już wykorzystywane do rozpoznawania twarzy (facial recognition) czy są elementem oprogramowania samochodów autonomicznych. Obydwa przykłady już teraz stanowią ogromne wyzwanie w kontekście regulacyjnym. „Decyzje” podejmowane przez samochody zrewolucjonizują nie tylko sposób poruszania się, ale również przepisy kodeksu drogowego czy kodeksu cywilnego w kontekście odpowiedzialności kierowcy za spowodowane szkody. W polskiej administracji nie mamy na razie do czynienia z algorytmami trzeciej generacji. Znajdujemy natomiast liczne przykłady tych, które zostały zaliczone do generacji drugiej. Na potrzeby badania Fundacji ePaństwo takie algorytmy zdefiniowano jako zautomatyzowane procesy używane przez władze publiczne w pośrednim lub bezpośrednim podejmowaniu decyzji, których wyniki mają wpływ na sytuację obywateli.
[…]
Krzysztof Izdebski
Autor jest dyrektorem programowym Fundacji ePaństwo.