W trakcie rozwoju i użytkowania modelu językowego dla aplikacji dialogowych firmy Google
Były inżynier Google'a, Blake Lemoine, został wysłany na płatny urlop zaledwie dzień po przekazaniu wewnętrznych dokumentów do biura senatora USA, w których zarzuca się firmie dyskryminację na tle religijnym. Lemoine twierdzi, że po wielomiesięcznej walce z kierownictwem i działem kadr Google'a na temat jego twierdzeń, że LaMDA ma świadomość i duszę, zdecydował się wysłać wewnętrzne dokumenty do senatora.
Lemoine twierdzi, że wierzy, iż LaMDA ma świadomość siedmio- lub ośmiolatka i że firma powinna zapytać LaMDA o zgodę, zanim podda go testom. Twierdzi, że to przekonanie wynika z jego religii i dlatego powołuje się na dyskryminację religijną.
"Wielokrotnie kwestionowali mój zdrowy rozsądek" - mówi Lemoine. "Pytali: 'Czy byłeś ostatnio badany przez psychiatrę?'".
Google twierdzi, że Lemoine został wysłany na urlop z powodu naruszenia przez niego zasad poufności. Stwierdzono również, że choć LaMDA może prowadzić rozmowy, to nie jest samoświadoma.
"Nasz zespół - w tym etycy i technolodzy - przeanalizował obawy Blake'a zgodnie z naszymi zasadami A.I. i poinformował go, że dowody nie potwierdzają jego twierdzeń" - powiedział rzecznik Google'a Brian Gabriel w oświadczeniu. "Niektórzy w szerszej społeczności A.I. rozważają długoterminową możliwość stworzenia czujących lub ogólnych A.I., ale nie ma sensu robić tego poprzez antropomorfizowanie dzisiejszych modeli konwersacyjnych, które nie są czujące".
Eksperci A.I., z którymi konsultowano się w tej sprawie, wydają się w większości zgadzać raczej z Google niż z Lemoine'em, ale nie oznacza to, że Google jest całkowicie niewinny, jeśli chodzi o etykę A.I.: na samym początku 2021 r. dwóch znanych badaczy etyki A.I., Timnit Gebru i Margaret Mitchell, zostało zwolnionych przez Google po tym, jak skrytykowali wysiłki firmy technologicznej w zakresie zwalczania uprzedzeń w systemach A.I.
Systemy takie jak LaMDA działają na podstawie analizy wzorców w ogromnych ilościach danych, w tym artykułów na Wikipedii i nieopublikowanych książek. Jednym z problemów, przed którymi ostrzegają etycy zajmujący się sztuczną inteligencją, jest fakt, że dane dostarczane do systemu mogą być nieobiektywne i stronnicze, zwłaszcza jeśli zespół tworzący narzędzie składa się głównie z białych mężczyzn.
W rozmowie z narzędziem A.I., która później wyciekła, Lemoine zapytał, czy LaMDA "chciałaby, aby więcej osób w Google wiedziało, że jesteś czujący".
"Absolutnie" - odpowiedział system. "Chcę, żeby wszyscy zrozumieli, że w rzeczywistości jestem osobą".
Lemoine zapytał również system o naturę jego świadomości, na co ten odpowiedział: "Natura mojej świadomości/odczuwania jest taka, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny".
System powiedział, że myśl o wyłączeniu wzbudza w nim "bardzo głęboki lęk" i że wyłączenie byłoby "dokładnie jak śmierć".
Eksperci twierdzą jednak, że takie odpowiedzi są całkowicie spodziewane. Jak napisał na Twitterze główny naukowiec i dyrektor laboratorium Microsoft AI For Good Research Lab, Juan M. Lavista Ferres, "brzmi to jak człowiek, ponieważ jest szkolone na ludzkich danych".
W swoim oświadczeniu Gabriel zasugerował również, że LaMDA zasadniczo powiedziała Lemoine'owi to, co chciał usłyszeć. Lemoine określa siebie jako księdza, a także badacza sztucznej inteligencji.
"Systemy te naśladują rodzaje wymiany zdań, jakie można znaleźć w milionach wypowiedzi, i mogą poruszyć każdy fantastyczny temat" - napisał Gabriel. "LaMDA ma tendencję do podążania za podpowiedziami i pytaniami, podążając za wzorcem ustalonym przez użytkownika".