OpenAI, twórca wiralowego oprogramowania sztucznej inteligencji ChatGPT, uruchomił nowe narzędzie, które ma pomóc użytkownikom w wykrywaniu tekstu wygenerowanego przez SI. Decyzja ta pojawia się po skargach społeczności akademickiej, że ChatGPT może być łatwo wykorzystywany przez studentów do oszukiwania podczas wykonywania zadań.
Według OpenAI nowe narzędzie do wykrywania nie jest całkowicie niezawodne. Szef działań OpenAI na rzecz poprawy bezpieczeństwa systemu, Jan Leike, powiedział, że system wykrywania "jest niedoskonały i czasami będzie się mylił", dodając, że "z tego powodu nie należy na nim wyłącznie polegać przy podejmowaniu decyzji".
Po wklejeniu fragmentu tekstu użytkownicy mogą spodziewać się etykiety określającej prawdopodobieństwo, że treść została wygenerowana przez SI, od "bardzo mało prawdopodobnego" do "prawdopodobnego". OpenAI twierdzi, że im więcej tekstu użytkownik wprowadzi, tym dokładniejsze będą wyniki.
Choć OpenAI przyznało się do potencjalnych słabości narzędzia, wskazało też na dodatkowe zastosowania. Oprócz walki z oszustwami system mógłby zostać wykorzystany do wyłapywania zautomatyzowanych kampanii dezinformacyjnych w sieci.
ChatGPT jest potężnym narzędziem zarówno dla uczniów, jak i nauczycieli, ale obawy o oszukiwanie doprowadziły kilka głównych okręgów oświatowych, w tym Nowy Jork i Los Angeles, do zablokowania dostępu do strony na urządzeniach szkolnych. Z kolei niektóre okręgi, jak Seattle Public School, zachęcają nauczycieli do korzystania z chatbota, aby pomóc uczniom w nauce. Dyskusja wokół właściwego sposobu postępowania z narzędziem SI trwa.
"Początkowa reakcja była taka: >", powiedział dziennikarzom Devin Page, specjalista ds. technologii w Calvert County Public School District w Maryland. Teraz Page mówi, że administratorzy coraz częściej zdają sobie sprawę, że sztuczna inteligencja w szkołach "to przyszłość".
"Myślę, że bylibyśmy naiwni, gdybyśmy nie zdawali sobie sprawy z niebezpieczeństw, jakie stwarza to narzędzie, ale również nie zdołalibyśmy służyć naszym uczniom, gdybyśmy zakazali im i nam korzystania z niego przy wszystkich jego potencjalnych możliwościach" - powiedział Page.
Podobna rozmowa toczy się w instytucjach szkolnictwa wyższego na całym świecie, niektóre prestiżowe uczelnie również zakazują korzystania z ChatGPT. Pracownikom naukowym, którzy korzystają z narzędzia, grozi wykluczenie ze społeczności.
"Jak wiele innych technologii, może być tak, że jeden okręg zdecyduje, że użycie tego narzędzia w ich klasach jest niewłaściwe. Tak naprawdę nie naciskamy na nich w ten czy inny sposób. Chcemy tylko dać im informacje, których potrzebują, aby mogli podjąć właściwe dla nich decyzje" - powiedziała badaczka polityki OpenAI, Lama Ahmad.
Francuski minister gospodarki cyfrowej i były profesor MIT Jean-Noël Barrot mówi, że ryzyko oszukiwania przy użyciu tekstu generowanego przez SI różni się w zależności od dziedziny nauki i zadań.
"Zatem jeśli znajdujesz się na wydziale prawa, istnieje pole do obaw, ponieważ oczywiście ChatGPT, wśród innych narzędzi, będzie w stanie zdawać egzaminy, które są całkiem imponujące", powiedział Barrot na Światowym Forum Ekonomicznym. "Jeśli jednak jesteś na wydziale ekonomii, to nie ma sprawy, ponieważ ChatGPT będzie miał problem ze znalezieniem lub dostarczeniem czegoś, co jest oczekiwane, gdy jesteś na wydziale ekonomii na poziomie absolwenta".
Zdaniem Barrota najważniejszą częścią zapobiegania niewłaściwemu wykorzystaniu narzędzi SI jest posiadanie podstawowego zrozumienia, jak one działają.
Jeśli jednak chodzi o szczegóły, to nawet twórcy oprogramowania nie są do końca pewni, jak ono działa. Zarówno ChatGPT, jak i nowe narzędzie do wykrywania opierają się na ogromnych ilościach danych, aby sformułować rozpoznanie wzorca, i nie zawsze jest jasne, dlaczego podejmują takie, a nie inne decyzje.
"Nie wiemy zasadniczo, na jaki rodzaj wzorca zwraca uwagę, ani jak działa wewnętrznie" - powiedział Leike. "Naprawdę niewiele możemy powiedzieć w tym momencie o tym, jak klasyfikator rzeczywiście działa".