Przełomowe rozwiązania technologiczne z racji swej rewolucyjnej natury zwykle są o krok przed normami prawnymi i kodeksami etycznymi, odmieniają obraz świata i każą zadawać pytania o jego przyszły kształt oraz o miejsce i rolę człowieka w nowej rzeczywistości.

Nie inaczej jest w przypadku sztucznej inteligencji. Wprawdzie futurolodzy i pisarze science fiction, tacy jak Stanisław Lem czy Isaac Asimov (który sformułował zasady nazwane prawami robotów), już dziesiątki lat temu zastanawiali się nad konsekwencjami powstania autonomicznej i niebiologicznej inteligencji, która potencjalnie mogłaby przewyższyć ludzką, rozważania te znacznie wyprzedzały technologiczne możliwości realizacji opisywanych koncepcji. Dopiero dynamiczny rozwój dziedziny uczenia maszynowego, jaki nastąpił w ciągu ostatnich dekad, otworzył nam oczy na tempo, w jakim możemy być zmuszeni do zmierzenia się z nowymi realiami.

 

Czym jest etyka sztucznej inteligencji?

 

Jest to gałąź etyki – niektórzy dodają, że stosowanej – skupiająca się na opracowywaniu norm i zasad, jakimi powinien się kierować rozwój sztucznej inteligencji oraz ona sama, aby zapewnić harmonijny, bezpieczny, humanitarny i spójny z ludzkimi wartościami proces jej wdrażania w różnych dziedzinach życia. Dynamika zmian zachodzących w dziedzinie sztucznej inteligencji sprawiła, że dyskusje o związanych z nią kwestiach etycznych wyszły poza niszę środowisk akademickich i zaczęły przedostawać się do masowej świadomości. Obecnie etyka AI funkcjonuje na styku różnych grup interesariuszy – od przedsiębiorstw high-tech, przez ciała ustawodawcze i komisje rządowe, aż po zwykłych użytkowników – i stara się uczestniczyć w kształtowaniu tak zwanej godnej zaufania sztucznej inteligencji. Zakres poruszanych przez nią zagadnień jest bardzo szeroki, można w nim jednak wyróżnić kilka zasadniczych wątków, które stają się coraz istotniejsze w miarę popularyzacji sztucznej inteligencji i jej wkraczania w różne dziedziny życia.

 

Nurty w etyce AI

 

1. Uprzedzenia i dyskryminacja algorytmiczna

 

Stosowane obecnie algorytmy uczenia maszynowego wykorzystują wielkie zbiory danych gromadzonych z różnych źródeł. Innymi słowy, systemy AI uczą się na podstawie tego, czym je karmimy – w tym na uprzedzeniach i stereotypach. Choć jest tutaj mowa o bytach nieożywionych, trudno o lepszy przykład prawdziwości powiedzenia „jesteś tym, co jesz”. Dane źródłowe mogą być nacechowane uprzedzeniami rasowymi, płciowymi lub społecznymi, które następnie rzutują na treści generowane przez algorytmy i na podejmowane przez nie decyzje. To z kolei może pogłębiać istniejące nierówności społeczne i zaburzać bezstronność osądów. Przykład? W 2014 roku firma Amazon eksperymentowała z rozwiązaniem mającym na celu częściowe zautomatyzowanie i uproszczenie procedur rekrutacyjnych. Opracowano algorytm selekcjonujący, który bazował na zbiorze danych pracowników przedsiębiorstwa zatrudnionych na stanowiskach inżynieryjnych. A ponieważ lwią część owych pracowników stanowili wówczas mężczyźni, algorytm zdecydowanie faworyzował kandydatów płci męskiej, kierując się słowami kluczowymi, które występowały w zbiorze danych treningowych i w nadsyłanych życiorysach. Podobnie stronnicze decyzje mogą być podejmowane w każdym innym obszarze zastosowań sztucznej inteligencji – na przykład w sądownictwie czy w systemach scoringowych, decydujących o przyznawaniu kredytów. Stąd wziął się postulat etyczny, by wszelkie przejawy uprzedzeń eliminować już na etapie gromadzenia danych. Niekiedy bywa to niezwykle trudne, algorytm może bowiem kierować się danymi rzetelnymi, lecz oddającymi istniejące nierówności społeczne i te nierówności pogłębiać. Nawet jeśli usunąć z danych osobowych informacje o pochodzeniu etnicznym, algorytm może je wywnioskować z innych informacji, takich jak wykształcenie – te zaś mogą stanowić odzwierciedlenie istniejących dysproporcji w dostępie do edukacji dla różnych grup etnicznych.

 

2. Granice autonomii

 

Rozwój algorytmów AI projektowanych pod kątem podejmowania decyzji budzi wątpliwości dotyczące zakresu samodzielności maszyn. Jak powinien postąpić algorytm odpowiadający za prowadzenie pojazdu autonomicznego w przypadku nieoczekiwanej sytuacji drogowej, która zmusi go do wyboru między dwiema decyzjami mającymi równie negatywne konsekwencje? Ma narazić na szwank innego nieostrożnego uczestnika ruchu, czy „własnego” kierowcę i pasażerów? Optymiści twierdzą wprawdzie, że masowe wdrożenie autonomicznych pojazdów mogłoby zdecydowanie zmniejszyć liczbę tragicznych wypadków drogowych, które bezpośrednio i wskutek odniesionych przez ich uczestników obrażeń każdego roku pochłaniają setki tysięcy istnień, tylko czy maszyna powinna ponosić tego rodzaju odpowiedzialność za ludzkie życie? Etyka AI już dziś staje w obliczu takich dylematów, co rodzi pytania o rolę człowieka w procesie decyzyjnym i kryteria postępowania w niejednoznacznych etycznie sytuacjach.

 

3. Prywatność, transparentność i odpowiedzialność

 

Prywatność naszych poczynań już od pewnego czasu stoi pod znakiem zapytania. Gigantyczne systemy monitorują zachowania użytkowników w internecie, zwyczaje zakupowe, preferencje i poglądy, by potem dopasować do nich określone reklamy czy też – co budzi jeszcze większe kontrowersje – odpowiednio spreparowane i dostosowane do profilu psychologicznego odbiorcy materiały, wpływające choćby na jego decyzje polityczne. (Czy ktoś powiedział: „Brexit”?). Nietrudno sobie wyobrazić, że w świecie coraz bardziej rozbudowanych elektronicznych asystentów, wspomaganych algorytmami AI, do baz danych będą mogły trafiać jeszcze wrażliwsze niż obecnie dane osobiste, dotyczące na przykład naszego stanu zdrowia. Stąd zaś już tylko krok do manipulacji na wielu płaszczyznach, choćby w zakresie ubezpieczeń zdrowotnych, których ceny – znów za sprawą algorytmów sztucznej inteligencji – mogą być w niewidoczny dla użytkownika sposób korygowane na podstawie informacji o historiach chorób czy przepisywanych lekarstwach. Dlatego tak ważne są działania na rzecz zabezpieczania naszych danych oraz starania o przejrzystość mechanizmów AI, które w wielu przypadkach trapi problem „czarnej skrzynki”: niekiedy nawet sami autorzy algorytmu nie w pełni rozumieją, jak sztuczna inteligencja zrealizowała postawione przed nią zadanie. Problem ten rodzi pytanie o to, kto powinien ponosić odpowiedzialność za podejmowane przez nią decyzje: twórcy algorytmu, firma, użytkownik, czy ktoś jeszcze inny?

 

4. Etyczne aspekty automatyzacji pracy

 

I wreszcie jedno z najczęściej powtarzających się pytań: czy sztuczna inteligencja zabierze nam pracę? Zdania na ten temat są bardzo podzielone. Jedni wieszczą zagładę całych zawodów i spekulują, że dojdzie do globalnej zapaści na rynku pracy i jego dalszej polaryzacji – stanowiska wymagające wysokich kwalifikacji staną się jeszcze bardziej pożądane, a pracownicy mniej wykwalifikowani będą z niepokojem wypatrywać jutra. Inni sugerują, by nie dramatyzować, bo każdy przełom technologiczny skutkuje pojawieniem się tego rodzaju złowróżbnych niekiedy, lecz nieziszczających się prognoz. (Blisko sto lat temu ekonomista John Maynard Keynes przewidywał, że między innymi ze względu na automatyzację zadań do 2030 roku będziemy pracować po 15 godzin tygodniowo). Dodają, że nawet jeśli automatyzacja rutynowych i powtarzalnych zadań doprowadzi do redukcji zatrudnienia, pojawią się nowe miejsca pracy, związane choćby z rozwojem i utrzymaniem samej AI (analitycy danych, eksperci od etyki AI i osoby odpowiedzialne za jej „trening”) oraz innowacyjne kierunki rozwoju, które dadzą początek nowym rodzajom aktywności zawodowej. Niemniej, możliwości sztucznej inteligencji budzą obawy nie tylko w kwestii wyręczenia nas w prostych zadaniach. Wyrastające jak grzyby po deszczu narzędzia do generowania treści, obrazów, muzyki i animacji stawiają w niepewnej sytuacji także artystów i twórców, którzy zwracają uwagę na dyskusyjne etycznie zjawisko szkolenia tego rodzaju aplikacji na oryginalnych pracach wykonanych przez ludzi.

 

5. Sztuczna inteligencja a ekologia

 

Rosnące zbiory danych oraz wymagania dotyczące prędkości ich przetwarzania skutkują powstawaniem coraz potężniejszych centrów obliczeniowych, te zaś pochłaniają więcej i więcej energii. W świetle narastającego kryzysu klimatycznego i poszukiwania metod pozwalających zażegnać globalne niebezpieczeństwa energetyczne, temat ten budzi zrozumiałe kontrowersje. Według danych opublikowanych niedawno przez „Forbesa”, Nvidia – firma dominująca na rynku układów obliczeniowych do centrów danych – w 2023 roku sprzedała 3,76 miliona takich jednostek. Obliczono, że ich sumaryczne roczne zapotrzebowanie na energię może przekroczyć 14 TWh. Czy to dużo? Autorzy publikacji szacują, że odpowiada to rocznym potrzebom energetycznym ponad 1,3 miliona amerykańskich gospodarstw domowych. Pod koniec ubiegłego roku francuska firma Schneider Electric oceniła całkowite zapotrzebowanie centrów danych obsługujących sztuczną inteligencję na 4,3 GW. To niewiele mniej niż wynosiły potrzeby całego Cypru dwa lata wcześniej (4,7 GW). Pesymiści przewidują, że utrzymanie obecnego tempa rozwoju AI, przy założeniu dotychczasowej pazerności na energię, jest nierealne w dłuższej perspektywie, pomimo podejmowanych przez niektóre firmy działań na rzecz zwiększania udziału źródeł odnawialnych i usprawniania stosowanych algorytmów pod względem energochłonności. Na osłodę warto też wspomnieć o głosach optymistów, którzy upatrują w AI narzędzia służącego do optymalizowania szeroko pojętej efektywności infrastruktury energetycznej, co powinno przełożyć się na oszczędniejsze gospodarowanie zasobami.

 

Truizmem będzie stwierdzenie, że rozwój sztucznej inteligencji niesie ze sobą ogromny potencjał do zmiany świata na lepsze, lecz - jak głosi popularne motto Spider-Mana – z wielką mocą wiąże się wielka odpowiedzialność. Z pytaniami o tę odpowiedzialność, o przyszły kształt świata, wartości i zasady, na jakich będziemy budować społeczeństwo, zmaga się dziś raczkująca wciąż dziedzina etyki sztucznej inteligencji. Niewykluczone, że od odpowiedzi, jakie dziś udzielimy, będzie zależeć rola AI w naszym jutrzejszym życiu.