Stany Zjednoczone pozostają w tyle, jeśli chodzi o regulację sztucznej inteligencji (AI).
Kilku liderów branży opowiedziało się za potrzebą uregulowania tej technologii po wiralowym sukcesie platformy opartej na generatywnej sztucznej inteligencji ChatGPT. Niektórzy spekulowali, że było to spowodowane ich niesamowitą przewagą w przestrzeni AI. Utrzymują się również inne obawy, że sztuczna inteligencja może doprowadzić do redukcji zatrudnienia i że pozbawione skrupułów podmioty mogą bezprawnie wykorzystywać własność intelektualną firm, artystów i innych osób. Obawy te zaowocowały szeregiem działań prawnych.
W czerwcu Unia Europejska przyjęła akt o sztucznej inteligencji. Jest on uważany za "pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji" i jedne z najsurowszych wytycznych regulacyjnych dotyczących branży. Wkrótce po opublikowaniu wytycznych do aktu o sztucznej inteligencji, ponad 150 dyrektorów podpisało list otwarty do Komisji Europejskiej, aby odnieść się do tej agresywnej polityki.
"W naszej ocenie projekt przepisów zagroziłby konkurencyjności i suwerenności technologicznej Europy bez skutecznego radzenia sobie z wyzwaniami, przed którymi stoimy i przed którymi staniemy" - czytamy w liście.
Biały Dom apeluje do firm o zobowiązanie się do rozwijania sztucznej inteligencji w odpowiedzialny sposób w obliczu powszechnych obaw dotyczących potencjału tej technologii do wzmacniania dezinformacji i cyberprzestępczości, stanowiąc zagrożenie dla bezpieczeństwa narodowego.
Kluczowe postacie w dziedzinie sztucznej inteligencji, w tym Microsoft Corp.
Miliarder Elon Musk był współzałożycielem producenta ChatGPT OpenAI, ale później rozstał się z firmą. Od dawna opowiada się za regulacjami dotyczącymi sztucznej inteligencji, twierdząc, że jeśli rozwój będzie kontynuowany bez kontroli, czeka nas sytuacja "podobna do tej z Terminatora". W zeszłym miesiącu był gospodarzem wydarzenia Twitter Spaces, wraz z dwoma wybitnymi członkami Izby Reprezentantów Stanów Zjednoczonych, podczas którego skupiono się głównie na sztucznej inteligencji. Mimo to sztuczna inteligencja nadal się rozwija i rozkwita. Start-upy takie jak AvaWatz zebrały już miliony dolarów od inwestorów detalicznych na współpracujące ze sobą zespoły dronów AI, a firmy takie jak Microsoft nadal inwestują miliardy dolarów w tę przestrzeń.
"Znam Elona od lat", powiedział członek Izby Reprezentantów Ro Khanna (D-Kalifornia). "Będziemy badać potencjalne korzyści i wady sztucznej inteligencji".
Z kolei Mike Gallagher (R-Wisconsin) przed wydarzeniem zachwalał wiedzę Muska w tej dziedzinie, stwierdzając, że jest on "najważniejszą postacią zgodną ze strategią ostrożnego podejścia do sztucznej inteligencji, reprezentującą tych, którzy obawiają się egzystencjalnych zagrożeń i opowiadają się za tymczasowym wstrzymaniem".
Podczas spotkania w Białym Domu Biden odniósł się do narastających obaw związanych z możliwym wykorzystaniem sztucznej inteligencji do destrukcyjnych zamiarów. Podkreślił potrzebę wnikliwej i czujnej postawy wobec zagrożeń, jakie nowe technologie stwarzają dla integralności amerykańskiej demokracji.
Regulacja sztucznej inteligencji: kolejne kroki i wyzwania
"W ciągu najbliższych 10 lat, a nawet w ciągu najbliższych kilku lat, zobaczymy więcej zmian technologicznych niż w ciągu ostatnich 50 lat. Szczerze mówiąc, było to dla mnie zdumiewające objawienie" - powiedział prezydent Joe Biden o intensywnym wdrażaniu sztucznej inteligencji.
W ramach trwających wysiłków Białego Domu na rzecz uregulowania sztucznej inteligencji Biden zwołał spotkanie z kadrą kierowniczą siedmiu firm w Białym Domu 21 lipca. Wśród uczestników spotkania znaleźli się pionierzy tacy jak OpenAI, Microsoft, Meta Platforms Inc, Amazon.com Inc, Inflection AI Inc. i Anthropic.
W ramach tej inicjatywy firmy zobowiązały się do ustanowienia mechanizmu "znaku wodnego" dla różnych rodzajów treści, w tym tekstu, obrazów, dźwięku i filmów generowanych przez sztuczną inteligencję. Wbudowany znak wodny, zaimplementowany za pomocą środków technicznych, ma ułatwić identyfikację treści zmanipulowanych przez sztuczną inteligencję. Jego celem jest pomoc użytkownikom w wykrywaniu przypadków obrazów lub dźwięków deep-fake, które mogą fałszywie przedstawiać przemoc, wzmacniać oszukańcze schematy lub manipulować obrazami polityków w celu ich negatywnego przedstawienia.
Firmy zobowiązały się również do priorytetowego traktowania ochrony prywatności użytkowników podczas rozwoju sztucznej inteligencji. Wyraziły swoje zaangażowanie w tworzenie rozwiązań opartych na AI.