LLMs como o ChatGPT podem ser a próxima preocupação em segurança cibernética, de acordo com as últimas descobertas dos pesquisadores. Anteriormente considerado capaz de explorar apenas vulnerabilidades de segurança cibernética mais simples, os LLMs também demonstraram uma proficiência surpreendentemente alta na exploração de vulnerabilidades complexas.
Pesquisadores da Universidade de Illinois Urbana-Champaign (UIUC) descobriram que o GPT-4 demonstra uma proficiência assustadoramente alta na exploração de vulnerabilidades de “um dia” em sistemas do mundo real. Em um conjunto de dados de 15 dessas vulnerabilidades, o GPT-4 foi capaz de explorar alarmantes 87% delas.
Este é um contraste marcante com outros modelos de linguagem como GPT-3.5, OpenHermes-2.5-Mistral-7B e Llama-2 Chat (70B), bem como scanners de vulnerabilidade como ZAP e Metasploit, todos os quais registraram uma taxa de sucesso de 0%. .
Uma séria ameaça
A ressalva, entretanto, é que para um desempenho tão alto, o GPT-4 requer a descrição da vulnerabilidade do banco de dados CVE. Sem a descrição do CVE, a taxa de sucesso do GPT-4 cai drasticamente para apenas 7%.
No entanto, esta última revelação levanta questões alarmantes sobre a implantação descontrolada de tais agentes LLM altamente capazes e a ameaça que representam para sistemas não corrigidos. Embora estudos anteriores demonstrassem a sua capacidade de atuar como engenheiros de software e ajudar na descoberta científica, pouco se sabia sobre as suas potenciais capacidades ou repercussões na segurança cibernética.
Embora a capacidade dos agentes LLM de hackear autonomamente “sites de brinquedos” fosse reconhecida, até agora, todas as pesquisas na área focavam em problemas de brinquedos ou exercícios de “captura da bandeira”, essencialmente cenários removidos de implantações do mundo real.
Você pode ler o artigo publicado pelos pesquisadores da UIUC no servidor de pré-impressão arXiv da Universidade Cornell