Wiadomości | 10 kwietnia 2024 r.

Sztuczna inteligencja w partycypacji – wybrane zagadnienia

Czasami mówicie nam, że liczba sesji na Forum Praktyków Partycypacji jest przytłaczająca i nie da się wybrać wszystkiego, co Was interesuje. W odpowiedzi na to, przez ostatnie kilka miesięcy zamieszczamy na naszej stronie artykuły na tematy poruszane na sesjach lub nawet napisane przez osoby je prowadzące. Tym razem chcemy Wam przybliżyć temat sztucznej inteligencji w partycypacji. Autorami tekstu są Marta Siemińska i Damian Wojciech Dudała z Fundacji SOC TECH LAB.


Od listopada 2022 roku o sztucznej inteligencji nie przestaje się mówić. A wszystko za sprawą narzędzia OpenAI – ChatGPT, który w niespełna dwa miesiące osiągnął 100 milionów użytkowników. A rok 2023 stał się po prostu rokiem sztucznej inteligencji. Nastąpił bowiem niesamowity w skali światowej boom tworzonych narzędzi, których liczba w listopadzie 2023 przekroczyła już 10000.

Temat sztucznej inteligencji zaczął się także pojawiać w kontekście partycypacji. Choć wiele rozwiązań cyfrowych, np. rozszerzonej rzeczywistości (AR), wirtualnej rzeczywistości (VR) czy Internetu rzeczy (IoT) stosowanych od dłuższego czasu – na długo przed ChatGPT – wykorzystuje sztuczną inteligencję. Narzędzia sztucznej inteligencji wspierają partycypację społeczności lokalnych w różnych częściach świata. Najczęściej ułatwiają komunikację, współpracę i podejmowanie decyzji opartych na danych. Często udostępniane są na zasadzie open source, czyli każdy może korzystać z nich bezpłatnie i zmieniać je według swoich potrzeb.

Jednak popularność jaką zyskał tematsztucznej inteligencji powodował, że coraz częściej staje się nieodłącznym elementem dyskusji i działań w praktyce partycypacyjnej. Niejednokrotnie też budzi skrajne emocje i stawia szereg pytań.

  • Czym w ogóle jest sztuczna inteligencja?
  • Jakie znaczenie może mieć sztuczna inteligencja dla partycypacji i demokracji lokalnej?
  • Jaki to może mieć wpływ na działania partycypacyjne? Czy to szansa dla osób zajmujących się partycypacją, czy raczej zagrożenie?
  • W jaki sposób wykorzystywać nowe technologie w sposób odpowiedzialny?

Podstawy sztucznej inteligencji

Po raz pierwszy termin „sztuczna inteligencja” sformułowano na konferencji w Dartmouth College w 1956 roku. Postawiono wówczas cel opracowania metod sztucznej inteligencji, które będą robiły to, co w pewnych zakresach robi człowiek. Był to początek prac, które przez kolejne dziesięciolecia ewoluowały na różne sposoby.

Według aktualnej definicji Parlamentu Europejskiego, termin „sztuczna inteligencja”, inaczej SI, należy rozumieć jako „zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność.”

Sztuczna inteligencja umożliwia systemom technicznym postrzeganie ich otoczenia, radzenie sobie z tym, co postrzegają i rozwiązywanie problemów, działając w kierunku osiągnięcia określonego celu. Komputer odbiera dane (już przygotowane lub zebrane za pomocą jego czujników, np. kamery), przetwarza je i reaguje. Systemy sztucznej inteligencji są w stanie do pewnego stopnia dostosować swoje zachowanie, analizując skutki wcześniejszych działań i działające autonomicznie.1

Sztuczna inteligencja ma szereg zastosowań w codziennym życiu

Wielu zastosowań sztucznej inteligencji możemy nie być świadomi, tymczasem wyszukiwarki internetowe uczą się na podstawie ogromnych ilości danych dostarczanych przez użytkowników, aby zapewnić trafne wyniki wyszukiwania. SI wykorzystuje oprogramowanie do tłumaczenia tekstów pisanych lub mówionych. Jest stosowana do dostarczania spersonalizowanych rekomendacji podczas zakupów online, np. na podstawie historii wyszukiwań i zakupów lub innych zachowań online. Stosowana jest także w działaniach wykrywających fałszywe wiadomości i dezinformację, sprawdzając informacje z mediów społecznościowych, szukając niepokojących słów oraz identyfikując wiarygodne źródła online.

Znaczenie dla partycypacji i demokracji lokalnej

Doświadczenia wykorzystywania narzędzi sztucznej inteligencji w działaniach obywatelskich, demokratycznych, partycypacyjnych, wyraźnie pokazują, że stają się one codziennością. SI można wykorzystać na przykład do tworzenia planu ramowego procesu partycypacyjnego, ankiety z pytaniami dla mieszkańców czy analizy i streszczenia dokumentów z konsultacji społecznych. Można też mapować problemy miejskie i tworzyć
rekomendacje, zaprezentować clue z danej metodologii, przeprowadzić analizę sentymentu, stworzyć digital twins (wirtualną kopia) dla miast z użyciem rzeczywistości rozszerzonej (AR) czy rzeczywistości wirtualnej (VR). SI można wykorzystać w platformach internetowych do zbierania opinii mieszkańców, w systemach rekomendacyjnych dla inicjatyw partycypacyjnych, systemach analizy danych dla zrozumienia potrzeb mieszkańców czy platformach obsługujących budżety partycypacyjne. To także takie narzędzia jak: chatboty, wirtualni asystenci, systemy wizualizacji danych, systemy predykcyjne dla oceny wpływu decyzji czy systemy modelowania dla symulacji partycypacyjnych. Nie ulega zatem wątpliwości, że SI ma ogromne znaczenie dla praktyki partycypacyjnej i demokracji lokalnej.

Przykładami zaawansowanego zastosowania SI w praktyce partycypacyjnej może być platforma BuildingVR (https://buildingvr.co), która wykorzystuje wirtualną rzeczywistość i sztuczną inteligencję do tworzenia wirtualnych elementów architektonicznych w wybranych miejscach miasta. Oferuje też formy wirtualnych wycieczek czy gier edukacyjnych. Nieco innym przykładem jest narzędzie PaKOMM (https://pakomm.de), które bada możliwości cyfrowego projektowania urbanistycznego z różnymi interesariuszami, korzystając z mediów mieszanych. Celem tego rozwiązania jest umożliwienie ludziom doświadczania, omawiania i zmiany własnych wyników współtworzenia – zarówno w miejscu planowania, jak i z dowolnej innej lokalizacji. Kolejnym przykładem zastosowania SI jest CityScope FindingPlaces – platforma umożliwiająca udział społeczeństwa w procesie zakwaterowania uchodźców
w Hamburgu (DE). W reakcji na nagłe przybycie dziesiątek tysięcy uchodźców do Hamburga Miejskie Laboratorium Naukowe Uniwersytetu Hafen City stworzyło proces udziału społeczeństwa i podejmowania decyzji w sprawie zakwaterowania dla uchodźców w dzielnicach Hamburga. Platformę interakcji człowiek-komputer „CityScope FindingPlaces” zaprojektowano i wdrożono w celu ułatwienia dziesiątek spotkań społeczności z udziałem około 500 uczestników, w wyniku czego mieszkańcy Hamburga zaakceptowali 160 lokalizacji do przeznaczenia na mieszkania dla uchodźców.

Wpływ na działania partycypacyjne – szanse i zagrożenia

Jak twierdzą autorki artykułu pt.: „How generative AI impacts democratic engagement” – S. Kreps i D. Kriner, „duże modele językowe mogą zakłócić znacznie więcej niż tylko gospodarkę, ale też gotowi rzucić wyzwanie demokracji. Chodzi nie tylko o ryzyko zautomatyzowanych kampanii dezinformacyjnych, ale o zagrożenie dla tradycyjnych form demokratycznego zaangażowania. (…) Modele językowe zdolne do automatyzacji np. unikalnych zgłoszeń na dużą skalę mogą być trudne do odkrycia.”2 S. Kreps i D. Kriner przeprowadziły eksperyment dotyczący wpływu modeli językowych na skuteczność korespondencji Kongresu, aby ocenić skalę problemu. Inaczej ujmując, zweryfikowały czy SI może zniekształcać proces legislacyjny. Wyniki pokazały, że członkowie Kongresu są podatni na niewłaściwe wykorzystanie tego typu technologii. Uznawali oni bowiem tekst wygenerowany przez sztuczną inteligencję za prawie tak samo wiarygodny jak wiadomości napisane przez ludzi.

Z kolei dyskusja pn.: „ChatGPT can’t decide: is generative AI good for democracy?”, która odbyła się w ramach cyklu Good Web Network w Londynie (UK), pokazała, że modele językowe, takie jak ChatGPT mogą zarówno wspierać, jak i osłabiać demokrację, w zależności od sposobu ich użycia i kontekstu, w jakim są stosowane. SI może zarówno wspierać lepszy dostęp do informacji i ułatwiać dialog między różnymi interesariuszami w mieście, jak i utrwalać uprzedzenia, zostać wykorzystana do rozpowszechniania propagandy czy wzmacniania polaryzacji w danej społeczności lokalnej.
Ciekawe spostrzeżenia na temat SI ma Xabier E. Barandiaran, były dyrektor ds. innowacji demokratycznych w Radzie Miejskiej Barcelony, a także jeden z członków założycieli popularnej, bezpłatnej platformy typu open source – Decidim, umożliwiającej partycypację obywateli. Jak wskazuje w wywiadzie3 udzielonym dla portalu Democracy & Technologies, „W przypadku platformy Decidim możemy się spodziewać zmiany interfejsów. W tej chwili interfejs Decidim jest interfejsem typu platforma internetowa. Po implementacji SI będzie można np. powiedzieć „Hej Decidim, chcę stworzyć propozycję poprawy oświetlenia ulicznego w okolicy”. Można zatem powiedzieć komputerowi czego oczekujemy, a on zrobi to za nas. Xabier E. Barandiaran wskazuje także, że bardzo mocno rozwija się SI typu open source. Wynika to chociażby z raportu Google, który wyciekł do sieci. Istnieje ogromna rodzina oprogramowania SI o otwartym kodzie źródłowym, a społeczność szybko się rozwija. Niektóre z udanych, bezpłatnych systemów SI typu open source działają w chmurze i korzystają z infrastruktury dużych korporacji. Wydaje się, że w kontekście tworzenia narzędzi partycypacyjnych, to bardzo dobry kierunek. Jak to się będzie jednak miało do podejmowania decyzji w polskich samorządach? Czy urzędnicy będą brali w ogóle pod uwagę głosy mieszkańców prezentowanych na takich platformach?

Etyczne aspekty SI w partycypacji

Niemalże od początku „boomu na SI” wskazuje się, że sztuczna inteligencję należy w jakiś sposób uregulować. Że niekontrolowana może stać się chociażby narzędziem ludzi o niekoniecznie dobrych zamiarach. Takie regulacje wprowadziły Stany Zjednoczone i Unia Europejska. Warto jednak przyjrzeć się propozycji etyka Bernda Carstena Stahl’a z University of Nottingham, który definiuje tzw. Grzechy główne SI:

  • problemy związane z uczeniem maszynowym (m.in.: dyskryminacja będąca efektem skrzywienia algorytmicznego (bias);
  • tzw. „czarne skrzynki”, czyli nieprzejrzystość działania SI;
  • zdolność odkrywania zależności pomiędzy pozornie neutralnymi danymi (tzw. korelacja);
  • społeczne i polityczne kwestie dotyczące życia w scyfryzowanym świecie (m.in.: oddziaływania systemów SI na różne sfery życia społecznego czy politycznego – monopol usług cyfrowych, manipulacja, inwigilacja, wpływ na ślad węglowy, pytania metafizyczne o naturę człowieka i status maszyn).

Dobrze też spojrzeć na zasady etyczne leżące u podstaw unijnej koncepcji godnej zaufania SI, które wywodzą się z praw podstawowych: poszanowania godności ludzkiej, wolności jednostki, poszanowania demokracji, sprawiedliwości i praworządności, równości, braku dyskryminacji i solidarności oraz poszanowania praw obywatelskich.

Pytanie jakie się nasuwa – Czy w Polsce także powinniśmy wprowadzić jakieś regulacje w kontekście praktyki partycypacyjnej? Lektura doświadczeń z różnych działań, w których wykorzystywano sztuczną inteligencję w kontekście partycypacji, demokracji lokalnej, działań obywatelskich, pokazuje, że tak. 

1Źródło: https://www.europarl.europa.eu/news/pl/headlines/society/20200827STO85804/sztuczna inteligencja-co-to-jest-i-jakie-ma-zastosowania z dnia 10.06.2023 r.
2Źródło: https://www.brookings.edu/articles/how-generative-ai-impacts-democratic-engagement/ z dnia 12.06.2023 r. Zobacz też: https://www.brennancenter.org/our-work/research-reports/artificial-intelligence participatory-democracy-and-responsive-government z dnia 20.11.2023 r.
3Źródło: https://democracy-technologies.org/participation/artificial-collective-intelligence-and-the-future-of participation/ z dnia 16.09.2023 r.

Tekst powstał w ramach projektu „Przestrzeń Praktyków Partycypacji” realizowanego z dotacji programu Aktywni Obywatele – Fundusz Krajowy finansowanego przez Islandię, Liechtenstein i Norwegię w ramach Funduszy EOG.


Informacja o plikach cookies

Ta strona używa plików cookies i podobnych technologii. Kontynuując jej przeglądanie, wyrażasz zgodę na ich wykorzystywanie zgodnie z Twoimi ustawieniami przeglądarki.

Powrót do góry strony