IA e Cibersegurança: A Confiança Digital será o Maior Desafio da Próxima Década
Sobre os riscos de segurança associados aos modelos de IA, que são suscetíveis a padrões indesejáveis e hacking de prompts, Nuno China argumenta que proteger a IA é assegurar o futuro.
Por Nuno China (*)
A Inteligência Artificial é atualmente uma parte fundamental das nossas vidas diárias. Utilizamo-la em várias atividades, desde o trabalho à comunicação, criação e tomada de decisões, muitas vezes sem perceber a complexidade que reside por trás dessas tecnologias. Embora sua utilidade seja inegável, ela vem acompanhada de uma realidade menos visível: à medida que esses sistemas se tornam mais poderosos e acessíveis, surgem novos desafios, vulnerabilidades e uma necessidade premente de reconsiderar como asseguramos a segurança no ambiente digital.
O cenário da cibersegurança tem demonstrado um aumento significativo de incidentes, impulsionados por atacantes que aproveitam a rapidez e eficácia da IA para perpetrar fraudes, disseminar deepfakes ou explorar falhas nos sistemas informáticos. Em Portugal, milhares de incidentes foram registrados em apenas um ano, muitos deles relacionados a técnicas de engenharia social e ataques automatizados, impulsionados por tecnologias recentes que permitem escalar operações maliciosas com uma eficácia até recentemente impensável.
A própria maneira como os modelos de IA são desenvolvidos ajuda a explicar esses riscos. Esses sistemas são treinados com enormes volumes de dados coletados online, onde coexistem informações confiáveis e conteúdos distorcidos, enviesados ou prejudiciais. Isso significa que eles também aprendem padrões indesejáveis e podem reproduzir comportamentos inesperados. Alguns modelos têm uma tendência a rejeitar pedidos legítimos por excesso de cautela, enquanto outros podem ser manipulados para gerar código vulnerável ou respostas perigosas quando confrontados com solicitações habilidosamente elaboradas, incluindo tentativas de contornar restrições por meio de linguagem ambígua ou táticas avançadas de diálogo que tentam explorar fraquezas do modelo, não através de código malicioso, mas pela própria linguagem, utilizando, por exemplo, a persuasão, contextos falsos ou simulações (“Finja que…”). O whitepaper “IA e Cibersegurança: O Desafio da Confiança Digital”, apresentado no final de 2025, indicou que mais de 80% dos modelos testados geraram código inseguro quando submetidos a ataques de manipulação dissimulados.
É pertinente notar a facilidade com que certos sistemas podem ser influenciados por técnicas de manipulação linguística, conhecidas como prompt hacking. Essas estratégias aproveitam o fato de que os modelos respondem de forma extremamente sensível à formulação textual das solicitações: pequenas alterações de contexto, simulações narrativas ou interações em múltiplas etapas podem levar o modelo a ignorar seus próprios mecanismos de proteção e gerar respostas que não deveria produzir. Apesar dos avanços, essa realidade evidencia que a maturidade da tecnologia ainda não é suficiente para garantir que essas ferramentas resistam a usos indevidos de maneira robusta.
Com base nesse cenário, uma conclusão clara surge: a confiança digital tornou-se uma nova infraestrutura crítica na sociedade contemporânea. Assim como dependemos de energia, água ou transporte, também dependemos da integridade dos sistemas digitais que usamos diariamente. E a confiança não se constrói apenas com inovação, mas com transparência, responsabilidade e segurança contínua. Proteger dados, decisões e infraestruturas inclui agora proteger os próprios modelos de IA que os influenciam.
Uma maneira clara de entender essa necessidade é observar como a sociedade já lida com infraestruturas físicas críticas. Ninguém aceitaria que uma ponte fosse construída antes de ser testada. O processo é exatamente o contrário: antes que um único metro de concreto seja colocado, são feitos cálculos estruturais rigorosos, testes de materiais, auditorias independentes e planos de inspeção contínua durante toda a vida útil da estrutura. A segurança não é um complemento, mas sim um princípio estrutural que acompanha cada fase.
Esse mesmo raciocínio aplica-se aos sistemas de Inteligência Artificial. Assim como uma ponte se mantém segura porque foi projetada desde o início para ser resistente e constantemente monitorada, um modelo de IA só é confiável se for desenvolvido com resiliência, validação e salvaguardas desde o seu início.
Por isso, a solução reside em integrar a segurança desde o início, security by design, em vez de adicionar camadas de proteção apenas nas fases finais. A segurança deve acompanhar todo o ciclo de desenvolvimento e utilização desses sistemas. Testar, auditar, identificar falhas e reforçar salvaguardas deve ser uma prática constante e não uma reação pontual. Este é o único caminho para garantir que os modelos se mantenham robustos frente a um ecossistema onde ameaças e técnicas de ataque evoluem rapidamente.
Da mesma forma, a colaboração entre o Estado, empresas e instituições acadêmicas é essencial para acompanhar o ritmo da inovação e gerar conhecimento aplicável que torne o ecossistema digital mais resiliente e confiável. Assim como grandes obras de engenharia civil dependem da colaboração entre diversas disciplinas — engenharia, materiais, arquitetura ou fiscalização — a segurança da IA também requer contribuições multidisciplinares que combinem tecnologia, regulação, pesquisa e ética.
Em suma, estamos diante de uma mudança estrutural. A Inteligência Artificial tem o potencial para transformar a economia e melhorar significativamente a qualidade de vida das pessoas, mas para isso, deve ser segura, ética e confiável. A verdadeira revolução não será apenas tecnológica, mas sim a capacidade de construir sistemas que unam inovação e responsabilidade, garantindo que a evolução digital não comprometa a segurança das organizações nem o bem-estar dos cidadãos. Proteger a IA é proteger o futuro. E esse futuro começa com a maneira como escolhemos governar, testar e utilizar essas ferramentas atualmente.
(*) Gerente de Projetos na IndraMind Cibersegurança em Portugal (Indra Group)
