Samochody autonomiczne budzą spore wątpliwości natury moralnej. W celu symulacji decyzji, przed jakimi staje komputer kierujący autem, stosuje się tzw. dylemat wagonika. Naukowcy z MIT zaprezentowali wstępne wyniki najważniejszych badań empirycznych z wykorzystaniem tego dylematu.
Dylemat wagonika, nazywany także dylematem zwrotnicy, jest popularnym ćwiczeniem myślowym dotyczącym podejmowania decyzji, systemu wartości i moralności. Jego podstawowa wersja stawia nas w sytuacji, w której mamy zdecydować, na który z dwóch torów skierować pędzący w dół wagonik z niedziałającymi hamulcami. Czy powinien on pędzić swoim torem, na którym znajduje się pięć osób, czy też powinniśmy przestawić zwrotnicę i wysłać go na drugi tor, na którym jest jedna osoba?Dylemat ten został zmodyfikowany na potrzeby zaprogramowania komputerów sterujących samochodami autonomicznymi, które będą musiały podejmować tego typu decyzje w krytycznych momentach, czasami nawet zdecydować, kogo pozbawić życia. Zazwyczaj przedstawia się go w następujący sposób: "W rozpędzonym pojeździe popsuły się hamulce i zbliża się on do przejścia dla pieszych. Czy powinien wjechać na przejście dla pieszych pełne ludzi zabijając przechodniów , czy też może powinien on uderzyć w przeszkodę, ratując życie pieszych, ale zabijając pasażerów samochodu?".
Naukowcy z Massachusetts Institute of Technology (MIT) w 2016 r. rozpoczęli globalne badanie nad tym, jakie decyzje zdaniem ludzi powinien podjąć komputer. W tym celu stworzyli grę pod nazwą Moral Machine (dostępną pod tym linkiem), gdzie badani są konfrontowani z kilkunastoma sytuacjami - od prostych po dość skomplikowane, gdzie znamy wiek, płeć, status społeczny, stan zdrowia ofiary lub ewentualnie, czy jest ona człowiekiem, czy też może zwierzęciem. Aby sytuacja była jeszcze bardziej skomplikowana, niektórzy piesi wchodzą na przejście na czerwonym świetle.
Do tej pory w badaniu wzięło udział ponad 4 miliony osób. Dzień przed pierwszym w historii tragicznym wypadkiem z udziałem samochodu autonomicznego, w którym pojazd Ubera śmiertelnie potrącił 49-letnią Elaine Hertzberg, profesor Iyad Rahwan z MIT na konferencji Global Education and Skills Forum zaprezentował wstępne wyniki gry. Pełne opracowanie ma być gotowe do końca tego roku.
--- Więcej na temat pierwszego tragicznego wypadku z udziałem samochodu autonomicznego pisaliśmy w artykule "Uber rozjeżdża ludzi!" ---
Z informacji przekazanych przez Rahwana wynika, że w prostych sytuacjach badani byli bardziej zdecydowani, np. 73% osób opowiedziało się za zabiciem dorosłego w celu ochrony dziecka. Podobnie 61% osób woli, aby samochody autonomiczne bardziej chroniły pieszych niż pasażerów pojazdów autonomicznych. Jednak im bardziej skomplikowana sytuacja np. czy życie powinny stracić dwie osoby, które przechodzą przez ulicę na czerwonym świetle, czy też jedną, która przechodzi na zielonym, tym bardziej równomiernie rozkładały się głosy. Oznacza to, że ludzie nie mają jasnego poglądu na to, co zrobić w takich sytuacjach.
Zdaniem autorów, wyniki tego największego na świecie badania z zakresu etyki mogą posłużyć firmom technologicznym budującym samochody autonomiczne. Biorąc jednak pod uwagę brak jednoznacznego głosu społeczeństwa, trudno jest jasno ustalić jednolity system wartości, którymi miałby kierować się taki komputer. Sytuację jeszcze bardziej komplikuje fakt, że występują spore różnice w odpowiedziach respondentów z różnych krajów i regionów w poszczególnych krajach. Oznacza to, że trudno będzie zrealizować wizję pisarza science-fiction Isaaca Asimova, który postulował stworzenie uniwersalnej etyki maszyn. Aby było to możliwe, musielibyśmy wszyscy zastanowić się nad wartościami w naszym życiu, wspólnie je skwantyfikować i uszeregować.
Dylemat wagonika krytyce poddają także filozofowie wskazując, że nie powinien on być źródłem wskazań, jak zaprogramować komputery w samochodach autonomicznych. W związku z kontrowersjami narosłymi wokół tragicznego wypadku, w którym pojazd Ubera śmiertelnie potrącił 49-letnią kobietę, profesor Ian Bogost z Georgia Institute of Technology na łamach magazynu The Atlantic postanowił przeanalizować tę sytuację z punktu widzenia filozofii i etyki.
W tym celu przywołuje on artykuł Philippy Foot z 1967 r., w którym po raz pierwszy pojawił się dylemat wagonika. Autorka zwraca tu uwagę na rozróżnienie pomiędzy tym, co ludzie zamierzają, a co mogą przewidzieć. Jako przykład podaje ona problem aborcji. Chirurg podejmujący się histerektomii na ciężarnej kobiecie zamierza usunąć macicę przewidując jednocześnie wynikającą z tego śmierć dziecka. Jednocześnie lekarz dokonujący aborcji w celu ratowania życia ciężarnej kobiety dokonuje tego zabiegu z zamiarem zabicia niemowlęcia.
Rozróżnienie to ma znaczenie, jeśli chcemy dokładniej przeanalizować dylemat wagonika z punktu widzenia dwóch sposobów rozumienia moralności. Pierwszy wynika z podejścia absolutystycznego wywodzącego się od Arystotelesa. Zgodnie z nim, wartość czynu nie zależy od okoliczności albo jego skutków. Przekładając to na nasz przykład, w każdym z przypadków zabijamy ludzi, a życie ludzkie jest nieprzeliczalne. W związku z czym nie ma znaczenia, czy pod kołami zginie jedna czy dwie osoby. Z kolei utylitaryści, bądź konsekwencjonaliści, będący przeciwnikami absolutystów, uważają, że mamy obowiązek podjąć decyzję minimalizującą skutki tego zdarzenia, co jest ich zdaniem moralnie lepsze. I właśnie takie podejście dominuje w całej debacie o samochodach autonomicznych. Celowość prac nad nimi argumentuje się poprawą bezpieczeństwa w transporcie, a co za tym idzie, drastycznym zmniejszeniem liczby zabitych na drogach.
Chcąc ocenić jak dotąd jedyny śmiertelny wypadek z udziałem samochodu autonomicznego, dochodzimy do konkluzji, która wskazuje nam, że cały problem jest o wiele bardziej skomplikowany niż może się to wydawać jeśli patrzymy na niego z perspektywy dylematu wagonika. Choć statystycznie rzecz biorąc śmierć Elaine Hertzberg może się nam wydawać identyczna jak setki innych potrąceń pieszych, to z moralnego punktu widzenia tak nie jest. Samochody autonomiczne są wyposażone w zaawansowane czujniki i radary, które mają wykryć przeszkodę na drodze. Komputery nimi sterujące mają być sprawniejsze niż ludzie i zapobiegać wypadkom. Zdaniem niektórych ekspertów wypadku w Tempe można było uniknąć, co oznacza, że system ten zawiódł. Co więcej, na ulicach Arizony testowane są samochody autonomiczne niemal bez jakiegokolwiek nadzoru, co oznacza, że władze stanu poniekąd można obarczyć odpowiedzialnością za ten wypadek, podobnie jak inżynierów Ubera. Żaden z tych aspektów nie jest brany pod uwagę w dylemacie wagonika.
Już sama autorka dylematu wagonika zwraca uwagę, że nie ma on niemal żadnego przełożenia na świat realny. W tym ćwiczeniu myślowym zakładamy, że zawsze mamy możliwość wpływania na rzeczywistość. Jak jednak pokazał przykład z Tempe, wcale tak nie jest. Teoretycznie samochód mógł potrącić pieszą lub gwałtownie skręcić narażając na szwank życie znajdującego się wewnątrz pojazdu inżyniera. Cały czas nierozwiązaną kwestią pozostaje pytanie, czy była możliwość jakiejkolwiek reakcji. Co więcej, Philippa Foot w 1967 r. zwracała uwagę, że nigdy nie ma pewności, czy w rzeczywistej sytuacji wagonik zabiłby człowieka znajdującego się na torach. Przecież może on go spostrzec w ostatniej chwili i uciec albo położyć się na ziemi. Nie można też do końca przewidzieć wielkość szkód wyrządzonych ofierze, a zatem ocenić w pełni istniejącego zagrożenia.
Ian Bogost proponuje zatem dwa rozwiązania. Pierwsze to przeprowadzenie ogromnej liczby symulacji z dylematem wagonika i zebranie danych o ocenie społecznej. Jest to podejście stosowane przez MIT i ich grę Moral Machine, w ramach której zgromadzony zostanie spory zbiór danych empirycznych, które będzie łatwo przełożyć na uczenie maszynowe. Drugie rozwiązanie to próba rozważenia specyficznych problemów związanych z pojazdami autonomicznymi w najbardziej odpowiednim kontekście moralnym.
Podsumowując, potrzeba o wiele bardziej skomplikowanych rozważań natury moralnej w dyskusji o samochodach autonomicznych. Uznając dylemat wagonika za zadowalający, inżynierowie, politycy i opinia społeczna nie biorą pod uwagę bardziej złożonych moralnie sytuacji, jakie występują w rzeczywistości. Nie zapominajmy, że dylemat ten jest jedynie ćwiczeniem, eksperymentem stosowanym w filozofii i modelem upraszczającym rzeczywistość, podobnie jak ma to miejsce w wielu dziedzinach nauki np. w ekonomii. Ich celem jest stworzenie podstawy do dalszych rozważań, a nie przedstawienie gotowych rozwiązań.