Sztuczna inteligencja rozwija się niesłychanie dynamicznie i coraz częściej nas zaskakuje. Co więcej w całej dyskusji o AI panuje wyraźne zamieszanie pojęciowe i duży szum informacyjny w zakresie wszystkiego, co jej dotyczy.
Maciej Mróz zajmuję się projektowaniem i wdrażaniem systemów do przetwarzania dużych zbiorów danych i systemów uczenia maszynowego. W Franklin Templeton obejmuje stanowisko Senior Software Engineer. Oprócz tego jest doktorantem w Szkole Doktorskiej Nauk Humanistycznych Uniwersytetu im. Adama Mickiewicza w Poznaniu w dyscyplinie nauki teologiczne. Przygotowuje rozprawę doktorską z obszaru etyki sztucznej inteligencji.
W jakich obszarach wykorzystuje Pan sztuczną inteligencję w pracy?
Maciej Mróz, Senior Software Engineer w Frankin Templeton: Właściwie AI towarzyszy mi w wielu sytuacjach, bo przecież także wtedy, gdy korzystam z tłumaczenia maszynowego. Sztuczna inteligencja jest technologią ogólnego zastosowania, podobnie jak np. prąd elektryczny. Stąd wiele osób wykorzystuje jej algorytmy, nie zawsze zdając sobie z tego sprawę. W kontekście pracy zespołu, do którego należę, zajmuję się w nim przetwarzaniem i analizowaniem dużych zbiorów danych w obszarze zarządzania portfelem inwestycyjnym.
Skąd Pana zainteresowanie zarówno AI, jak i samą etyką?
Z wykształcenia jestem magistrem informatyki i magistrem teologii. Nie spodziewałem się jednak, że te obszary mogą się kiedykolwiek jakoś łączyć – aż do 2019 roku. Wówczas w Watykanie zorganizowano warsztaty na temat etyki sztucznej inteligencji i przygotowano dokument The Rome Call for AI Ethics. Był to rzymski apel o to, by rozwijać sztuczną inteligencję w sposób, który uwzględniałby interesy ludzi i środowiska – w sposób optymalny.
Okazało się, że narzędzia, które daje nam filozofia, rzeczywiście mogą pomóc w kwestii etycznego rozwoju sztucznej inteligencji.
Podczas rozmowy warto zdefiniować pewne kluczowe pojęcia. Czy może Pan powiedzieć, jaką definicję sztucznej inteligencji przyjmujemy obecnie?
Nie ma jednej definicji sztucznej inteligencji. W zależności od kontekstu, od dyscypliny i od tego, o czym rozmawiamy w danym środowisku, mogą być one różne. W mojej rozprawie doktorskiej analizuję różne perspektywy i propozycje definicji AI. Przy tym zajmuję się pytaniem o to, czy w przypadku sztucznej inteligencji można mówić o jakimś podmiocie moralnym.
Niemniej jedną z podstawowych definicji, której często używam, jest ta zamieszczona w internetowej encyklopedii PWN. Według niej: sztuczna inteligencja to obszar, który zajmuje się rozwijaniem systemów, które mogą naśladować lub zastępować inteligentne działania człowieka.
Wybitny filozof Luciano Floridi, profesor Uniwersytetu Oxforda, teraz Uniwersytetu Yale, zwraca jednak uwagę na to, że technologie sztucznej inteligencji do wielu inteligentnych działań w ogólne nie potrzebują inteligencji.
Uważa Pan, że sztuczna inteligencja tak naprawdę nie jest inteligentna?
Od dawna wiemy, chociażby na przykładzie kalkulatorów, że nie trzeba być inteligentnym, żeby wykonywać nawet złożone działania matematyczne. Dowiedzieliśmy się także, że w złożonych grach strategicznych, które wymagają od ludzi inteligencji, lepiej radzi sobie komputer. Oznacza to tyle, że można robić te rzeczy za pomocą algorytmów. Podobnie wiemy już, że nie potrzeba inteligencji do pisania tekstów. Wystarczą odpowiednie metody statystyczne.
Nie trzeba być inteligentnym, żeby wykonywać nawet złożone działania matematyczne.
Te rozważania i wnioski dotyczą wąskiej, słabej sztucznej inteligencji. Dzięki niej możemy wytrenować algorytmy w ustalonym celu i właśnie w taki sposób tworzone narzędzia dziś znamy. Natomiast coraz częściej mówi się o ogólnej sztucznej inteligencji – Artificial General Intelligence. Zasadniczo to „coś”, co miałoby dorównać ludziom lub przewyższyć ich w takich zdolnościach kognitywnych jak rozumowanie, wnioskowanie czy twórczość. Na razie sztuczna inteligencja działa tak sprawnie, jak dobrze skalibruje ją człowiek.
Silnej, czyli ogólnej sztucznej inteligencji jeszcze nie ma, a mówienie o niej, jest niczym wróżenie z fusów.
Rozumiem, że zastrzeżenia padają także do sztuczności AI?
Paliwem sztucznej inteligencji są dane. Często najbardziej użyteczne są te, które wynikają z zapisów działalności ludzi. Na ich podstawie budowane są różnego rodzaju algorytmy. Dzisiaj mocno podnoszonym tematem jest to, jak zasobożerne i destrukcyjne dla środowiska są właśnie te algorytmy. Potrzebują bardzo dużo energii i zużywają ogromnej ilości wody, co ma bardzo negatywny wpływ na środowisko naturalne. Co więcej do ich powstania wykorzystywana jest praca ludzi.
Oznacza to tyle, że ta bardzo wirtualna, sztuczna rzecz potrzebuje bardzo dużo naturalnych, niesztucznych zasobów, żeby w ogóle zaistniała – łącznie z procesem trenowania algorytmów, który wymaga osobnego omówienia.
Zatem, czy możemy dziś zbadać, czym sztuczna inteligencja w ogóle jest? Gdzie się kończy i gdzie zaczyna?
To wielkie pytanie, które kieruje nas w stronę filozofii. Mamy do czynienia z taką bezprecedensową sytuacją, w której próbujemy stworzyć coś na obraz człowieka. Owe „coś: ma się zachowywać jak człowiek, zastępować jego działania. W związku z tym, wyzwaniem stają się narzędzia, które mogłyby to stworzone „coś” w jakiś sposób zmierzyć, zbadać.
Co ciekawe, nie mamy takich narzędzi, które oceniałyby w ten sposób innych ludzi. Rozmawiając z Panią, zakładam, że ma Pani świadomość, że przetwarza Pani moje słowa, rozumie je, łączy. Podobnie z kwestią możliwości odczuwania przez sztuczną inteligencję. Dzisiaj nie możemy tego potwierdzić.
Miary ludzkiej inteligencji przenosimy na rozmowy o algorytmach i stąd dużo haseł, które antropomorfizują AI, nadają im ludzkie cechy. Mówimy, że algorytmy się uczą, podejmują decyzje, posługują się wartościami, posiadają pewną autonomię. To są pojęcia, które do tej pory używaliśmy tylko wobec ludzi lub zwierząt. Jednocześnie do rozwoju AI i kalibrowania jego narzędzi jest niezbędny człowiek.
Czy, według Pana, etyka jest w stanie rozwiązać choć część zajmujących, ale i złożonych kwestii dotyczących AI?
Rozwój AI stawia ogromne wyzwania na wielu płaszczyznach, w tym również, a może przede wszystkim, w kwestiach etycznych. Etyka, obok regulacji prawnych, jest narzędziem, które stwarza przestrzeń do myślenia i dyskusji, jak kształtować rozwój sztucznej inteligencji.
Posłużę sie pewną analogią. Na pewnych trasach, przepisy drogowe informują o ograniczeniu prędkości do 70 km/h. Jednak gdy pada grad czy jest ogromna mgła, żaden kierowca nie będzie jechał z prędkością nawet bliską temu ograniczeniu. Mowa wówczas o dostosowaniu jazdy samochodem do warunków drogowych. Dziś potrzebujemy tak działającego narzędzia w przypadku etycznego rozwoju AI.
Etyka jest właśnie takim narzędziem – proaktywnym, elastycznym, ale jednocześnie mającym konkretne zastosowania. Wzbudza refleksje nad tym, czym mają być rozwiązania AI, które chcemy dziś budować, w jaki sposób zapewnić ich transparentność, bezpieczeństwo i uczynić je niedyskryminującymi oraz możliwymi do zbadania.
Zarazem wszystkie wymagania zawarte w hasłach należy dokładnie zdefiniować. Dlatego potrzeba dalszej dyskusji, która pomoże nam myśleć o wytworach AI uprzednio, np. stosując podejście do etyki sztucznej inteligencji w sposób, który nazywamy dziś ethics by design.