Michelle Bachelet, szefowa biura ds. praw człowieka ONZ, wzywa do zaprzestania korzystania z systemów nadzoru opartych na sztucznej inteligencji. Bachelet twierdzi, że narzędzia AI, w tym systemy skanowania twarzy i systemy "oceny społecznej", stanowią poważne zagrożenie dla praw człowieka.
"Im wyższe ryzyko dla praw człowieka, tym surowsze powinny być wymagania prawne dotyczące korzystania z technologii AI" - powiedziała Bachelet.
Ogłoszeniu Bachelet towarzyszyło opublikowanie doniesień na temat korzystania z systemów sztucznej inteligencji, które bez odpowiednich zabezpieczeń mają bezpośredni wpływ na życie obywateli.
"Nie chodzi o niekorzystanie ze sztucznej inteligencji" - powiedziała rzecznik ONZ Peggy Hicks, prezentując raport ONZ. "Chodzi o uznanie, że jeśli sztuczna inteligencja ma być wykorzystywana w tych obszarach funkcji związanych z prawami człowieka - bardzo istotnych - należy to zrobić we właściwy sposób. Po prostu nie wprowadziliśmy jeszcze wytycznych, które zapewnią, że tak się stanie".
Bachelet i ONZ nie wzywają do całkowitego zakazu korzystania z systemu rozpoznawania twarzy, ale raczej do zakończenia skanowania twarzy w czasie rzeczywistym i używania innych aplikacji, które okazały się dyskryminujące. Bachelet mówi, że ta praktyka powinna się skończyć, dopóki rządy nie będą w stanie udowodnić, że ich technologia jest dokładna i nikt nie będzie dyskryminowany. W szczególności zwraca się ona do krajów z prośbą o zakazanie technologii, które nie są zgodne z ochroną praw człowieka.
Chociaż Bachelet przyznała, że technologia oparta na sztucznej inteligencji może być używana w dobrym celu, mówi, że "ma ona negatywne, a nawet katastrofalne skutki, jeśli jest używana bez wystarczającego uwzględnienia tego, jak wpływa na prawa człowieka".
Wśród tych systemów znajdują się systemy "oceny społecznej", które grupują użytkowników na podstawie cech takich jak pochodzenie etniczne i płeć. Jednym z krajów, które są znane ze stosowania nadzoru społecznego są Chiny, gdzie oprogramowanie do rozpoznawania twarzy zostało wykorzystane do monitorowania mniejszości Ujgurów mieszkających w tym kraju.
"W kontekście chińskim, podobnie jak w innych, niepokoi nas przejrzystość i dyskryminujące aplikacje skierowane do konkretnych społeczności" - powiedziała dziennikarzom Peggy Hicks, urzędniczka z biura ds. praw człowieka.
Oprócz narzędzi służących do oceny pochodzenia etnicznego raport zwraca również uwagę na niebezpieczeństwo, jakie niosą ze sobą aplikacje służące do określania emocji, które wyrażają twarz i zachowanie danej osoby. Według doniesień aplikacje te często nie są oparte na nauce i dostarczają stronniczych wyników.
"Wykorzystywanie systemów rozpoznawania emocji przez władze publiczne, na przykład do wskazywania osób, które mają zostać zatrzymane lub aresztowane przez policję, lub do oceny prawdziwości zeznań podczas przesłuchań, grozi naruszeniem praw człowieka, takich jak prawo do prywatności, wolności i sprawiedliwego procesu" - czytamy w raporcie.
ONZ nie jest osamotniona w apelu o uregulowanie technologii rozpoznawania twarzy i funkcji opartych na sztucznej inteligencji. Urzędnicy Unii Europejskiej planują obecnie wprowadzenie zakazu używania narzędzi takich jak skanowanie twarzy w czasie rzeczywistym, a ci, którzy wzywają do ostrożności, obejmują wszystkich, od prezydenta Joe Bidena po Microsoft