Ta strona używa cookies
Ze względu na ustawienia Twojej przeglądarki oraz celem usprawnienia funkcjonowania witryny umcs.pl zostały zainstalowane pliki cookies. Korzystając ze strony wyrażasz zgodę na ich używanie. Możesz to zmienić w ustawieniach swojej przeglądarki.
Sztuczna inteligencja (AI) na stałe zagościła w naszej rzeczywistości. Temat ten wzbudza wiele kontrowersji i zmusza do refleksji. Czym jest słaba i silna AI? Jakie są perspektywy jej rozwoju i wynikające z tego szansy oraz zagrożenia? Zapraszamy do zapoznania się z komentarzem eksperckim dra hab. Mariusza Hofmana, prof. UMCS, zastępcy dyrektora Centrum Badań Gier Wideo UMCS i profesora w Katedrze Kapitału Intelektualnego i Jakości UMCS. Tekst powstał w ramach inicjatywy Centrum Prasowego UMCS pn. „Okiem eksperta”.
fot. kjpargeter/Freepik
AI – stan obecny oraz perspektywy rozwoju
Dużo się dziś mówi o sztucznej inteligencji (AI) oraz tym, jak zmieni ona nasz świat. Czy będzie błogosławieństwem, czy raczej przekleństwem dla ludzkości? Na wstępie należy podkreślić, że sztuczna inteligencja nie jest kategorią jednorodną. W jej ramach można wyróżnić silną (głęboką) oraz słabą (wąską) AI. Ta pierwsza to inteligencja w klasycznym tego słowa rozumieniu - będzie ona posiadać zdolność uczenia się, a także wykorzystywać swoją inteligencję do rozwiązania złożonych problemów o dowolnej naturze. Do jej powstania jest jeszcze daleko, choć już teraz ludzie mają skłonność do przypisywania jej typowo ludzkich cech. W mojej ocenie będzie to jednak inteligencja wymykająca się ludzkiemu pojmowaniu, rozumująca w zupełnie abstrakcyjny i niezrozumiały dla człowieka sposób. Kierować nią będą zupełnie inne niż człowieka pobudki, zapewne często nieracjonalne z czysto ludzkiego punktu widzenia. Na tym zamykam ten wątek, bo rozważania te mają bardziej charakter spekulacji, niż analiz bazujących na danych.
To co obecnie obserwujemy, to dynamiczny rozwój słabej AI, tj. algorytmów zaprojektowanych i zaprogramowanych do wykonywania wąsko określonych zadań. Algorytmy te oparte są na uczeniu maszynowym, sieciach neuronowych lub mogą łączyć w sobie obie te technologie. Popularny obecnie "ChatGPT" jest algorytmem do generowania tekstu przypominającego rozmowę, więc jego wykorzystywanie do innych zadań czasem może dać rozczarowujące rezultaty. Na przykład zapytany o publikacje na dany temat, może tworzyć fikcyjne źródła. To, co obecnie się dzieje i co ma znaczny potencjał zwiększenia "inteligencji" tych rozwiązań, to możliwość ich integrowania w bardziej złożone, wielofunkcyjne struktury. Już teraz "ChatGPT" może być, za pomocą specjalnych "wtyczek" integrowany z innymi algorytmami (np. "Wolfram Alpha") wyspecjalizowanymi w różnych zadaniach. Taki "superalgorytm" jest w stanie przełączać się między generowaniem tekstu przypominającego człowieka, zadaniami obliczeniowymi i np. zaawansowanym wyszukiwaniem i porządkowaniem informacji. To powoduje, że człowiek może wykorzystując tego typu rozwiązania może wzmacniać swoje zdolności, zyskując niezwykle pomocnego i potężnego cyfrowego asystenta. Jest to również kolejny, mały krok na drodze do powstania silnej AI.
Niestety, oprócz całej masy dobrodziejstw wykorzystanie takich rozwiązań niesie również szereg zagrożeń. Pierwszym z nich jest to, że algorytmy ucząc się, modyfikują sposób swojego działania, wobec czego nie zawsze jesteśmy w stanie zrozumieć, dlaczego działają w ten, a nie inny sposób. Przykładem może być algorytm "AlphaGo" stworzony przez firmę "DeepMind" do gry w go. Opisując rozgrywkę z tym algorytmem mistrz tej gry – Lee Sedol stwierdził, że podczas jednej z partii algorytm wykonał ruch, którego Lee nie rozumiał. Przyjął więc, że algorytm popełnił błąd. Gdy przegrał partię i analizował potem jej przebieg, stwierdził, że ruch sztucznej inteligencji, który pierwotnie uznał za pomyłkę, okazał się kluczowy z punktu widzenia przebiegu rozgrywki i późniejszej wygranej algorytmu.
To prowadzi nas do kolejnego zagrożenia, którym jest przekonanie, że algorytm nie jest w stanie zastąpić człowieka. Faktycznie, na chwilę obecną człowiek współpracując z wąską AI jest na uprzywilejowanej pozycji. Wiedza, intuicja oraz posiadane doświadczenie dają człowiekowi przewagę. Niemniej, przy rosnącej złożoności tych rozwiązań oraz ilości zmiennych, które algorytm bierze pod uwagę, może się okazać, że to człowiek jest najsłabszym ogniwem. Podejmując bowiem decyzje w tak złożonych kwestiach, człowiek będzie ufał swojej intuicji i doświadczeniu, niekoniecznie wybierając najlepsze rozwiązania sugerowane przez algorytm, z którym współpracuje. Algorytm "zauważy" więc, że to człowiek jest czynnikiem, który utrudnia wybór właściwego, zdaniem algorytmu, rozwiązania. Może to skłonić AI do podejmowania działań wpływających na człowieka, aby ten podejmował decyzje preferowane przez algorytm. Problem w tym, że człowiek może nawet nie być świadom tego faktu, że jest przez algorytm manipulowany. Problem ten występował w procesie rekrutacji w dużych, międzynarodowych koncernach, gdzie proces wstępnej selekcji kandydatów (w oparciu o przesłane CV) powierzony został algorytmom. Zauważono, że rozwiązania te preferują ściśle określony profil kandydata i przekazują do dalszych etapów procesu rekrutacji jedynie te CV, które zawierają konkretne cechy.
Ostatnią, istotną wg mnie kwestią jest sprawa cyfrowego wykluczenia, które niesie ze sobą pojawienie się wąskiej AI. Oznacza to, że ludzie potrafiący wykorzystać możliwości takich złożonych algorytmów będą w uprzywilejowanej pozycji. Będą szybsi, wydajniejsi, mądrzejsi od innych, bo wspierać ich będzie potężna i mocno rozwijająca się technologia. Taka sytuacja stworzy nierówności oraz generować będzie napięcia społeczne, którym rządy państw będą musiały sprostać.
*Dr hab. Mariusz Hofman, prof. UMCS – zastępca dyrektora Centrum Badań Gier Wideo UMCS, profesor w Katedrze Kapitału Intelektualnego i Jakości UMCS. Badacz i dydaktyk z obszaru zarządzania projektami i procesami. Zajmuje się też transformacją cyfrową organizacji dwuzręcznych, gamefikacją oraz wpływem gier wideo na zachowania ludzi.