Heloisa L 30 2

IA supera hackers humanos em experimento e levanta temor sobre nova era de ataques digitais

Entre em nosso grupo de notícias no WhatsApp

Ferramentas de inteligência artificial voltadas à segurança digital acabam de cruzar uma linha sensível. Depois de anos apresentando resultados limitados, sistemas baseados em IA alcançaram um nível de eficiência capaz de superar profissionais humanos em testes de invasão, acendendo um sinal de alerta no setor de cibersegurança.

Pesquisadores da instituição desenvolveram um bot chamado Artemis, treinado para executar tarefas clássicas de hacking ético: mapear redes, localizar falhas de segurança e identificar caminhos para explorar vulnerabilidades. Inspirado em métodos já utilizados por grupos chineses que empregam modelos generativos em ataques contra governos e grandes corporações, o sistema foi colocado à prova em um ambiente real — a própria infraestrutura de engenharia de Stanford.

Para medir sua eficácia, o Artemis competiu diretamente com dez testadores de penetração experientes, profissionais especializados em simular ataques para fortalecer sistemas de defesa. O resultado chamou a atenção da comunidade técnica: a IA superou nove dos dez especialistas humanos, encontrando falhas com mais rapidez e a um custo muito menor.

Enquanto um profissional humano cobra, em média, entre US$ 2.000 e US$ 2.500 por dia, o Artemis operou por cerca de US$ 60 por hora. A diferença de preço, aliada à velocidade e à capacidade de escalar análises, revela um potencial disruptivo para o mercado de segurança — tanto para proteção quanto para ataques.

O desempenho, porém, não foi perfeito. Aproximadamente 18% dos relatórios gerados pela IA eram falsos positivos, e um erro relativamente simples acabou passando despercebido. Ainda assim, especialistas de Stanford consideram o saldo positivo, especialmente diante do enorme volume de códigos e sistemas no mundo que nunca passaram por testes de segurança aprofundados.

O avanço tecnológico, no entanto, vem acompanhado de riscos imediatos. Estudos recentes da Anthropic indicam que agentes mal-intencionados já utilizam modelos de IA para automatizar e ampliar ataques cibernéticos em larga escala. Projetos de código aberto, como o Curl, relatam um aumento massivo de relatórios de vulnerabilidades produzidos por inteligência artificial — muitos irrelevantes, mas alguns alarmantemente precisos.

Durante o experimento, o Artemis chegou a identificar uma falha que havia escapado aos analistas humanos. Curiosamente, o bug estava em páginas que navegadores modernos não conseguiam interpretar corretamente, mas que a IA conseguiu examinar por outros meios, revelando uma vantagem técnica inesperada.

A nova geração de inteligências artificiais promete transformar a cibersegurança, tornando defesas mais rápidas, acessíveis e abrangentes. Ao mesmo tempo, essas mesmas capacidades podem ser exploradas para ataques mais sofisticados, baratos e difíceis de detectar. O experimento de Stanford deixa claro que a corrida entre proteção e ameaça digital entrou em uma fase decisiva — e cada vez mais automatizada.

IA supera hackers humanos em experimento e levanta temor sobre nova era de ataques digitais

LEIA MAIS:Bluetooth: do século X a 1994, a origem da tecnologia que conecta o mundo

LEIA MAIS:As 10 Maiores Empresas de Tecnologia do Mundo: Quem Comanda a Era Digital?

LEIA MAIS:Tecnologia transforma malas em meio de transporte para aeroportos

Rolar para cima
Copyright © Todos os direitos reservados.