ChatGPT nie służy tylko hakerom. Może zadbać o bezpieczeństwo
ChatGPT nie cieszy się dobrą sławą, jeśli chodzi o cyberbezpieczeństwo. Jest to narzędzie, z którego chętnie mają korzystać hakerzy. Okazuje się, że ma też inne oblicze, w którym zamiast służyć oszustom, pomaga z nimi walczyć.
Sztuczna inteligencja i narzędzia takie jak ChatGPT mogą przyczynić się do uproszczenia wielu procesów i przyspieszenia realizacji zadań. Niestety, jak większość zdobyczy technologii, można je wykorzystać też w złych celach. W przypadku ChatGPT mowa o cyberprzestępczości. Dzięki SI oszuści mogą tworzyć bardziej wiarygodne treści, które mogą pomagać w okradaniu ludzi. Ale jest też druga strona medalu.
ChatGPT może przynieść korzyści w kontekście cyberbezpieczeństwa. Specjaliści z firmy Sophos przetestowali sztuczną inteligencję od OpenAI w kontekście zapewnienia cyberbezpieczeństwa. Model był trenowany za pomocą małej liczby próbek danych - Few-Shot Learning. Ta metoda zakłada uczenie maszynowe przez analizę wzorców i pozwala ona na zredukowanie konieczności gromadzenia dużej ilości wstępnie klasyfikowanych danych.
Dalsza część artykułu pod materiałem wideo
Sztuczna inteligencja została wykorzystana do opracowania interfejsu zapytań w języku stosowanym przez ludzi do komunikowania się ze sobą. Pozwala on na filtrowanie złośliwej aktywności w telemetrii oprogramowania zabezpieczającego, bez konieczności posiadania umiejętności korzystania z baz danych. Wystarczy wpisać polecenie, by otrzymać oczekiwane informacje.
Z badań przeprowadzonych przez Sophos wynika też, że ChatGPT świetnie radzi sobie z zapewnianiem bezpieczeństwa podczas korzystania z poczty elektronicznej. Model udało się wytrenować na przykładzie kilku wiadomości o charakterze spamu. Skutki były jak najbardziej pozytywne - filtrował spam z większą skutecznością niż tradycyjne filtry.
Trzecią formą wykorzystania ChatGPT w kontekście zapewnienia bezpieczeństwa w świecie cyfrowym było stworzenie oprogramowania, które ułatwiłoby proces rozkładania na czynniki pierwsze ataków wykorzystujących narzędzia LOLBin (legalne oprogramowanie i komponenty wbudowane w system Microsoft Windows). Sztuczna inteligencja ma sobie radzić lepiej z ich rozpoznawaniem i rozszyfrowywaniem niż specjaliści ds. cyberbezpieczeństwa.
Stworzone przez specjalistów Sophos narzędzie przygotowuje tekstowe opisy, które mogą być wykorzystywane do późniejszej analizy cyberataków. Dzięki temu jest szansa na skuteczniejsze powstrzymywanie ataków z użyciem LOLBin w przyszłości.
- Nasze analizy udowodniły, że ChatGPT może uprościć czasochłonne procesy i odciążyć specjalistów ds. bezpieczeństwa. Pracujemy już nad włączeniem niektórych z tych prototypowych rozwiązań do naszych produktów - przekonuje Sean Gallagher, główny badacz zagrożeń w firmie Sophos.
- Efekty prac zespołu Sophos X-Ops udostępniliśmy na naszym GitHubie. Mogą z nich skorzystać wszyscy zainteresowani testowaniem możliwości oferowanych przez ChatGPT we własnych środowiskach analitycznych. Wierzymy, że w przyszłości sztuczna inteligencja może pełnić rolę "drugiego pilota" dla specjalistów ds. bezpieczeństwa - podsumowuje.
Karol Kołtowski, dziennikarz dobreprogramy.pl