Studentka oszukiwała za pomocą ChatGPT. Udowodnienie było niemal niemożliwe

Darren Hick, profesor filozofii na Uniwersytecie Furmana w Greenville w Karolinie Południowej przyłapał studentkę na oszukiwaniu za pomocą ChatGPT. Wykładowca ostrzega w otwierającym oczy wpisie na Facebooku, że oszukiwanie za pomocą nowego chatbota od OpenAI może być trudne do wychwycenia.

Profesor złapał studentkę na oszukiwaniu za pomocą ChatGPT
Profesor złapał studentkę na oszukiwaniu za pomocą ChatGPT
Źródło zdjęć: © Getty Images | Adam Hester
Konrad Siwik

OpenAI kilka tygodni temu udostępniło publicznie ChatGPT. Narzędzie na żądanie użytkownika może tworzyć różne teksty na podstawie treści, którymi zostało "nakarmione". "ChatGPT reaguje w ciągu kilku sekund z odpowiedzią, która wygląda jak napisana przez człowieka – co więcej, człowieka z dobrym wyczuciem gramatyki i zrozumieniem, jak eseje powinny być skonstruowane" – uważa prof. Darren Hick, który przyłapał jedną ze swoich studentek na oszukiwaniu przy pomocy sztucznej inteligencji.

Dalsza część artykułu pod materiałem wideo

ChatGPT to cios dla szkolnictwa

Jest to kolejny cios dla szkolnictwa wyższego, które i tak było nękane przez oszustwa. "Środowiska akademickie nie przewidziały tego. Jesteśmy więc oślepieni" - wyjaśnił w obszernym i otwierającym oczy poście na Facebooku. "Zgłosiłem to na Facebooku, a moi znajomi powiedzieli: Tak! Ja też jednego złapałem".

Hick na początku tego miesiąca zadał swoim studentom napisanie eseju na 500 słów o XVIII-wiecznym filozofie Davidzie Hume. Opisywał on paradoks horroru, który demonstruje, jak ludzie mogą cieszyć się czymś, czego się boją. Była to praca do wykonania w domu.

Profesor zauważył, że jedno zgłoszenie zawierało znaki ostrzegawcze, które mogły wskazywać na użycie sztucznej inteligencji w "rudymentarnej odpowiedzi" studenta. "To czysty styl. Ale jest rozpoznawalny. Powiedziałbym, że pisze jak bardzo inteligentny 12-klasista" – napisał Hick o pisemnych odpowiedziach ChatGPT na pytania.

"Było tam osobliwe sformułowanie, które nie było złe, ale po prostu dziwne... Gdybyś miał uczyć kogoś pisania esejów, to właśnie to mówisz mu, zanim stworzy swój styl" – wskazuje profesor. Jak wyjaśnia, chatbot generuje nowe zdania na podstawie "zupy danych w swojej sieci neuronowej" – a nie przeszukując sieć. Nie ma więc konkretnego fragmentu, na który można wskazać jako dowód, że student oszukiwał.

ChatGPT napisał esej za studentkę

Hick, pomimo swojego doświadczenia w zakresie etyki praw autorskich, stwierdzi, że udowodnienie oszustwa i przypisanie autorstwa ChatGPT było niemal niemożliwe. Jego zdaniem oprogramowanie antyplagiatowe prawdopodobnie tego nie wyłapie. "Po prostu nie jest zaprojektowane do radzenia sobie z tego typu rzeczami" – podkreślił.

Profesor zamiast tego wprowadził podejrzany tekst do oprogramowania stworzonego przez producentów ChatGPT, aby ustalić, czy pisemna odpowiedź została sformułowana przez sztuczną inteligencję. Uzyskał on 99,9 proc. prawdopodobieństwa dopasowania. Oprogramowanie nie oferowało jednak żadnych cytatów, w przeciwieństwie do standardowego programu antyplagiatowego lub dobrze napisanej pracy studenckiej.

Następnie Hick próbował stworzyć taki sam esej, zadając ChatGPT pytania, które, jak sądził, zadałby jego uczeń. Wywołało to podobne odpowiedzi, ale bez bezpośredniego dopasowania, ponieważ narzędzie formułuje unikalne odpowiedzi. Ostatecznie profesor skonfrontował się ze swoją studentką, która przyznała się do korzystania z ChatGPT i w rezultacie oblała zajęcia. Cała sprawa została również zgłoszona do dziekana akademickiego.

Hick obawia się jednak, że inne przypadki mogą być niemożliwe do udowodnienia oraz że on i jego koledzy wkrótce zostaną zalani przez bardziej zaawansowane oszustwa. "To jest oprogramowanie, które się uczy – za miesiąc będzie mądrzejsze. Za rok będzie mądrzejsze" – twierdzi Hick.

Przyznał wprawdzie, że może zaskoczyć swoich studentów improwizowanymi egzaminami ustnymi, które uniemożliwią im korzystanie z technologicznego ułatwienia, jakim jest ChatGPT. Dodał jednak, że sam jest pod wrażeniem działania sztucznej inteligencji.

Konrad Siwik, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Wybrane dla Ciebie
Komentarze (54)