Sztuczna inteligencja: komputer mówi TAK (ale czy ma rację?)
Komputery uczące się dla siebie samych są już z nami. Stają się coraz bardziej powszechne w wysoko wyspecjalizowanych aplikacjach, takich jak chirurgia zautomatyzowana, detekcja terroryzmu i samochody autonomiczne. Badacze pytają, co można zrobić by upewnić się, że można im ufać.
Na zawsze pozostanie nam w pamięci pierwsza śmierć z udziałem autonomicznego samochodu. W maju 2016 Joshua Brown miał włączony system autopilota w swoim samochodzie Tesla, kiedy przyczepa rolnicza przejechała w poprzek drogi, na wprost niego. Wydaje się, że ani on, ani czujniki autopilota nie zauważyli białego pojazdu w jaskrawym słońcu, co skończyło się tragicznie.
Oczywiście wielu ludzi umiera codziennie w wypadkach samochodowych. W samym USA statystyka mówi o jednym wypadku śmiertelnym na każde 94 milionów mil (ok. 151 milionów kilometrów). Zgodnie z informacjami firmy Tesla, był to pierwszy znany wypadek śmiertelny w ponad 130 milionach mil (ok. 209 milionów kilometrów) jazdy z udziałem ich samochodu z włączonym autopilotem. Większość wypadków na drogach jest rezultatem błędów ludzkich, a samochody autonomiczne powinny poprawiać bezpieczeństwo podróży.
Tragedia ta podniosła dyskusję zaczynając od niezwykle trafnego pytania: jak bardzo rozumiemy i ufamy komputerom w autonomicznym pojeździe? To samo pytanie tyczy się jakiejkolwiek maszyny, którą nauczono, by wyręczała człowieka w danej czynności.
Jesteśmy w erze uczenia się maszyn. Maszyny mogą być wytrenowane w celu rozpoznawania pewnych wzorów w ich środowisku i odpowiadania na nie. To już się dzieje: aparat wykrywa twarz i oznacza ją ramką wokół niej, by na niej skupić ostrość, osobiści asystenci w smartfonach odpowiadają na zadane pytania, a reklamy dostosowują się na podstawie aktywności użytkownika do jego zainteresowań.
Uczenie maszynowe jest sposobem na zaprogramowanie komputera, by się uczył z własnego doświadczenia i odpowiednio poprawiał swoje działania, co ma odzwierciedlać naukę podczas wykonywania zadań u ludzi i zwierząt. Im bardziej techniki uczenia maszynowego stają się powszechne we wszystkim, od finansów do służby zdrowia, problem zaufania do maszyn staje się coraz ważniejszy – mówił Zoubin Ghahramani, profesor z inżynierii informacji na Cambridge’s Department of Engineering.
Jak zachowa się samochód bez kierowcy, który stanie przed wyborem: uderzyć pieszych czy wyminąć ich i zaryzykować życie pasażerów? Czy maszyna może wywnioskować coś niedokładnego ze względu na oparcie swojej opinii na zbyt małej próbie w diagnostyce medycznej? Czy komputer w transakcjach finansowych powinien wyjaśnić zmienność na giełdach?
Maszyny mogą dziś uzyskać zdolności bliskie ludziom w wielu zadaniach poznawczych, nawet takich, w których wcześniej się nie znajdowali, albo gdy mają zbyt małą ilość danych – mówił Ghahramani. Jednak co się dzieje w środku „czarnej skrzynki”? Jeśli procesy określające ich decyzje byłyby bardziej transparentne, zaufanie do nich byłoby najmniejszym problemem.
Jego grupa badawcza buduje algorytmy, które są sercem tego typu technologii (niewidzialny bit, jak sam to nazywa). Zaufanie i przejrzystość to ważne zagadnienia jego pracy. Postrzegamy całą matematykę zawartą w uczeniu maszynowym jako siedzenie wewnątrz ram niepewnego zrozumienia. Przed zobaczeniem danych – bez różnicy czy jesteś dzieckiem uczącym się języka, czy naukowcem analizującym dane – zaczynasz z dużą niepewnością i im więcej danych zdobywasz z czasem, tym bardziej stajesz się pewny.
Chcemy dokładnie określić, na jakim etapie wnioskowania maszyna podejmuje decyzje, a gdy nie jest pewna, chcemy, by nam o tym mówiła.
Jedną z metod jest zbudowanie wewnętrznej samooceny lub etapu kalibracji, by maszyna mogła sama sprawdzić własną pewność i zdać z niej sprawozdanie.
Dwa lata temu grupa Ghahramaniego uruchomiła usługę Automatic Statistician, z finansowaniem ze strony Google. Narzędzie te pozwala naukowcom analizować zestawy danych dla znaczących statystycznie wzorców i, co najważniejsze, dostarcza ono informacji na temat tego, jak bardzo jest pewne swoich przewidywań.
Trudność związana z systemami uczenia maszynowego polega na tym, że tak naprawdę nie wiesz, co się dzieje w środku, a odpowiedzi dostarczane przez nie są nieosadzone w kontekście, przeciwnie do tego, co zrobiłby człowiek. Automatic Statistician wyjaśnia sam, co on robi w sposób zrozumiały dla człowieka.
Transparentność staje się szczególnie istotna w przypadku diagnoz medycznych, gdzie zrozumienie pochodzenia danej diagnozy jest niezbędne, by można było jej zaufać.
Dr Adrian Weller, współpracownik Ghahramaniego, podkreśla trudność: Szczególny kłopot z najnowszymi systemami sztucznej inteligencji uczącymi i rozwijającymi się polega na tym, że ich procesy nie pokazują wyraźnie dróg prowadzących do racjonalnych decyzji, takich, które byłyby łatwe do zrozumienia przez ludzi. Jego badania skupiają się jednocześnie na tworzeniu tych dróg bardziej przejrzystymi, czasami poprzez wizualizacje, oraz na patrzeniu co się dzieje, kiedy systemy te są używane w realistycznych scenariuszach, co wykracza daleko poza ich środowisko treningowe – coraz bardziej popularne zjawisko.
Chcielibyśmy, by systemy SI monitorowały dynamicznie swoją sytuację, wykrywały zmiany w ich środowisku i – jeśli nie są w stanie dalej działać niezawodnie – dostarczały komunikat oraz ewentualnie przechodziły w tryb bezpieczeństwa. Samochód autonomiczny mógłby wtedy zdecydować, że mglista noc i duży ruch na drodze wymagają przejęcia kontroli przez człowieka.
Motyw zaufania i przejrzystości Wellera stanowią jeden z wielu realizowanych projektów w niedawno uruchomionym projekcie badawczym wartym 10 milionów funtów brytyjskich: Leverhulme Centre for the Future of Intelligence (CFI). Ghahramni, który jest dyrektorem centrum, wyjaśnia: To ważne by zrozumieć, jak rozwijane technologie mogą pomóc człowiekowi zamiast go zastąpić. Na przestrzeni kolejnych lat filozofowie, socjologowie, kognitywiści i informatycy pomogą prowadzić kierunek przyszłości technologii i będą badać jej wdrożenie – zarówno z perspektywy obaw, jak i korzyści dla społeczeństwa.
CFI łączy ze sobą cztery największe na świecie uniwersytety (Cambridge, Oxford, Berkeley and Imperial College, London) w celu zbadania efektu wdrożenia sztucznej inteligencji do cywilizacji ludzkiej. Interdyscyplinarna grupa badaczy będzie pracowała nad kwestiami prawnymi i tematami stanowiącymi zainteresowanie przemysłu, takimi jak regulacje w zakresie broni autonomicznej czy wdrożenie sztucznej inteligencji w demokracji.
Ghahramani opisuje ekscytację towarzyszącą środowisku badań nad uczeniem maszynowym: Ważność tego zagadnienia drastycznie wzrasta. Początkowo miał być to obszar badań raczej akademicki, jednak w przeciągu pięciu lat ludzie zdali sobie sprawę z tego, że te metody są niesamowicie użytecznie w szerokim zakresie zagadnień ważnych w społeczeństwie.
Jesteśmy wręcz zalani danymi, zwiększamy moce obliczeniowe i chcemy widzieć coraz więcej i więcej aplikacji, które tworzą przypuszczenia w czasie rzeczywistym. Im dłużej obserwujemy eskalację możliwości maszyn, tym bardziej stanowią one wyzwanie dla naszego pojęcia samej inteligencji i jest to tym bardziej ważne dlatego, że ostatecznie chcemy ufać temu, co one nam powiedzą.
Tłumaczenie: Damian Adamowicz
Źródło tekstu i obrazu: Louise Walsh – University of Cambridge