Technologia sztucznej inteligencji idzie do przodu. Programiści dążą do stworzenia systemów, które będą w stanie samodzielnie podejmować decyzje, uczyć się i mistrzowsko naśladować albo nawet prześcignąć człowieka. Należąca do Google
Postęp wiąże się jednak z pewnym ryzykiem.
Sztuczna inteligencja wykorzystuje uczenie maszynowe: analizuje dane przy pomocy algorytmów, przetwarza je i dochodzi do pewnych wniosków lub przewiduje konsekwencje. Dzięki temu maszyny nie muszą polegać na oprogramowaniu tworzonym przez człowieka, zawierającym szczegółowe wskazówki do każdego zadania.
Jednym z przykładów zastosowania uczenia maszynowego jest rozpoznawanie obrazów. Systemy tego typu wykorzystuje między innymi Facebook. Na podstawie analizy ogromnej ilości danych wizualnych rozpoznają one określone wzorce i umożliwiają automatyczną identyfikację człowieka lub psa na zdjęciu.
Maszyny zdolne do samodzielnego uczenia się i wykorzystywania zdobytej wiedzy to narzędzia, które dają potężne możliwości, ale i niosą ze sobą zagrożenia. Sztuczna inteligencja może opacznie zrozumieć polecenie i zachować się w niepożądany, a nawet niebezpieczny sposób. Naukowcy pracują więc nad coraz lepszymi technikami uczenia maszyn przewidywalnych, wydajnych i bezpiecznych działań.
Kontrolowaniem rozwoju sztucznej inteligencji zajmuje się między innymi kierowana przez założyciela Tesli
Niebezpieczne mogą być nie tylko błędy popełniane przez same maszyny. Zdarza się, że luki w systemach wykorzystują hakerzy i inni przestępcy. Istnieją grupy programistów, które skupiają się na ulepszaniu zabezpieczeń sztucznej inteligencji przed atakami i zwiększaniu jej skuteczności. Obecnie technologię rozpoznawania twarzy można łatwo oszukać, chociażby malując na skórze wzory. Przykład Tay, eksperymentalnego bota stworzonego przez Microsoft
Naukowcy starają się również przewidzieć problemy, które jeszcze nie wystąpiły. Niektórzy obawiają się, że maszyny staną się tak zdeterminowane w dążeniu do celu, że zaczną usuwać wszystkie przeszkody, w tym ludzi próbujących je wyłączyć.
Za jakiś czas sztuczna inteligencja może poważnie zagrozić istnieniu ludzkości. Zdaniem Elona Muska, Steve'a Wozniaka i Billa Gatesa ewolucja maszyn może zajść tak daleko, że nie będziemy w stanie ich zrozumieć i kontrolować.
Komputery nieprędko prześcigną jednak człowieka. Prawdziwa sztuczna inteligencja jeszcze nie powstała, a nawet najbardziej zaawansowane maszyny miewają problemy z banalnymi zadaniami.
- http://www.npr.org/sections/13.7/2017/08/18/544061771/is-ai-more-threatening-than-north-korean-missiles
- https://mobile.nytimes.com/2017/08/13/technology/artificial-intelligence-safety-training.html
- http://nordic.businessinsider.com/google-deepminds-alphago-ai-beat-the-best-go-player-in-the-world-in-its-first-game-2017-5/
- http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-3
- http://umich.edu/~umtriswt/PDF/UMTRI-2015-34.pdf