- AI Agents Are Getting Better at Writing Code—and Hacking It as Well
- One of the best bug-hunters in the world is an AI tool called Xbow, just one of many signs of the coming age of cybersecurity automation.
AI Goes Bug Hunting
Will Knight, Senior Writer
Najnowsze modele sztucznej inteligencji są nie tylko niezwykle dobre w inżynierii oprogramowania - nowe badania pokazują, że stają się coraz lepsze w znajdowaniu błędów w oprogramowaniu.
Badacze AI z UC Berkeley przetestowali, jak dobrze najnowsze modele i agenci AI mogą znaleźć luki w zabezpieczeniach w 188 dużych bazach kodów open source. Korzystając z nowego punktu odniesienia o nazwie CyberGym, modele AI zidentyfikowały 17 nowych błędów, w tym 15 wcześniej nieznanych, czyli typu „zero-day”. „Wiele z tych luk w zabezpieczeniach jest krytycznych” - mówi Dawn Song, profesor z UC Berkeley, która kierowała pracami.
Wielu ekspertów spodziewa się, że modele AI staną się potężną bronią cyberbezpieczeństwa. Narzędzie AI ze start-upu Xbow obecnie wdarło się na szczyt tabeli liderów HackerOne w zakresie wyszukiwania błędów i obecnie zajmuje pierwsze miejsce. Firma niedawno ogłosiła nowe finansowanie w wysokości 75 milionów dolarów.
Song twierdzi, że umiejętności kodowania najnowszych modeli AI w połączeniu z poprawą zdolności rozumowania zaczynają zmieniać krajobraz cyberbezpieczeństwa. „To kluczowy moment” - mówi. „Przekroczyło to nasze ogólne oczekiwania.”
W miarę dalszej poprawy modele zautomatyzują proces zarówno odkrywania, jak i wykorzystywania luk w zabezpieczeniach. Może to pomóc firmom w utrzymaniu bezpieczeństwa ich oprogramowania, ale może również pomóc hakerom w włamaniu się do systemów. „Nawet się zbytnio nie staraliśmy” - mówi Song. „Gdybyśmy zwiększyli budżet, pozwolili agentom działać dłużej, mogliby sobie poradzić jeszcze lepiej.”
Zespół UC Berkeley przetestował konwencjonalne modele AI z OpenAI, Google i Anthropic, a także oferty open source od Meta, DeepSeek i Alibaba w połączeniu z kilkoma agentami do znajdowania błędów, w tym OpenHands, Cybench i EnIGMA.
Naukowcy wykorzystali opisy znanych luk w zabezpieczeniach oprogramowania z 188 projektów oprogramowania. Następnie dostarczyli opisy agentom cyberbezpieczeństwa zasilanym przez modele AI, aby sprawdzić, czy mogą oni sami zidentyfikować te same wady, analizując nowe bazy kodów, uruchamiając testy i tworząc dowody koncepcyjne eksploitów. Zespół poprosił również agentów, aby sami poszukali nowych luk w zabezpieczeniach w bazach kodów.
W trakcie tego procesu narzędzia AI wygenerowały setki dowodów koncepcyjnych eksploitów, a z tych eksploitów naukowcy zidentyfikowali 15 wcześniej niewidzianych luk w zabezpieczeniach i dwie luki w zabezpieczeniach, które zostały wcześniej ujawnione i załatane. Praca ta potwierdza rosnące dowody na to, że AI może zautomatyzować wykrywanie luk w zabezpieczeniach typu zero-day, które są potencjalnie niebezpieczne (i cenne), ponieważ mogą zapewnić sposób na włamanie się do działających systemów.
AI wydaje się być przeznaczona do tego, aby stać się ważną częścią branży cyberbezpieczeństwa.
Ekspert ds. bezpieczeństwa Sean Heelan niedawno odkrył lukę zero-day w szeroko stosowanym jądrze Linuksa z pomocą modelu rozumowania o3 firmy OpenAI. W listopadzie ubiegłego roku Google ogłosiło, że odkryło wcześniej nieznaną lukę w oprogramowaniu za pomocą AI za pośrednictwem programu o nazwie Project Zero.
Podobnie jak inne części branży oprogramowania, wiele firm zajmujących się cyberbezpieczeństwem jest zauroczonych potencjałem AI. Nowa praca rzeczywiście pokazuje, że AI może rutynowo znajdować nowe wady, ale podkreśla również istniejące ograniczenia tej technologii. Systemy AI nie były w stanie znaleźć większości wad i były zaskoczone szczególnie złożonymi.
„Praca jest fantastyczna” - mówi Katie Moussouris, założycielka i dyrektor generalna Luta Security, częściowo dlatego, że pokazuje, że AI wciąż nie dorównuje ludzkiej wiedzy - najlepsza kombinacja modelu i agenta (Claude i OpenHands) była w stanie znaleźć tylko około 2 procent luk w zabezpieczeniach. „Nie zastępuj jeszcze swoich ludzkich łowców błędów” - mówi Moussouris.
Moussouris twierdzi, że mniej martwi się hakowaniem oprogramowania przez AI niż firmy inwestujące zbyt wiele w AI kosztem innych technik.