O ChatGPT é considerado uma das inteligências artificiais generativas mais utilizadas no mundo, liderando os rankings de acesso e popularidade. Os benefícios da tecnologia são evidentes a diversos setores da sociedade, tais como educação, no apoio a professores e alunos, no setor corporativo, otimizando a produtividade nos negócios, análise de dados, velocidade de processamento de informações e geração de conteúdo, entre muitos outros ganhos propiciados pela ferramenta.
Na operação de infraestruturas críticas, o uso de IA generativa pode ser aplicado para apoio à documentação técnica, análise preliminar de incidentes, criação de relatórios automatizados, suporte à tomada de decisão e até na simulação de cenários operacionais, contribuindo para maior eficiência e agilidade nos processos.
No entanto, é importante considerar os riscos para a cibersegurança de sistemas industriais, especialmente diante do uso inadequado dessas ferramentas e da possível exposição de informações sensíveis.
Quais as ameaças envolvidas
O uso não controlado de ferramentas de IA generativa no ambiente corporativo pode abrir portas para riscos importantes, principalmente quando há integração direta ou indireta com ambientes industriais (TO). Entre os principais riscos estão:
- Inserção de dados sensíveis em plataformas públicas de IA, o que pode resultar em vazamento de informações sensíveis.
- Uso de respostas geradas pela IA sem apuração e/ou validação técnica, podendo introduzir falhas operacionais ou de segurança.
- Abertura de portas para ataques de engenharia social aprimorada, com investidas mais sofisticadas baseadas em linguagem natural.
- Geração de códigos ou scripts corrompidos ou inseguros que podem ser reutilizados em ambientes industriais.
- Possíveis violações de políticas internas de segurança da informação.
Os impactos de um ataque cibernético causado pela vulnerabilidade de dados expostos pelo ChatGPT, ou qualquer outra ferramenta de IA generativa, podem ser desastrosos.
A exposição de dados estratégicos pode gerar consequências significativas para organizações que operam infraestruturas críticas, tais como a interrupção de serviços essenciais, perda de propriedade intelectual, prejuízos financeiros – multas, desfalques operacionais e perda de receita -, além do risco de violação de normas regulatórias de proteção de dados (LGPD).
Para aprofundar a análise sobre as vulnerabilidades e os impactos da inteligência artificial na cibersegurança, a IBM apontou, em seu Relatório de Custo de Violação de Dados 2025, que o custo médio global de uma violação de dados atingiu US$ 4,88 milhões no ano anterior.
O estudo também revela um dado relevante: 16% de todos os incidentes cibernéticos notificados já envolvem ataques impulsionados por IA, evidenciando o avanço dessas ameaças e o papel crescente da inteligência artificial no cenário de riscos digitais.
Ainda, segundo um levantamento realizado pela plataforma AllAboutAI, ataques impulsionados por inteligência artificial já atingem a maioria das empresas vítimas de incidentes cibernéticos no mundo:
- 87% das organizações globais sofreram ciberataques impulsionados por IA em 2025, sendo que 85% das companhias enfrentaram ameaças baseadas em deepfake.
- O roubo de credenciais impulsionado por IA aumentou 160% em 2025, com mais de 14.000 violações registradas em um único mês.
- 76% dos malwares detectados apresentam polimorfismo impulsionado por IA, permitindo evasão em tempo real e mutação automatizada de payload.
- O ransomware impulsionado por IA reduziu o tempo médio de permanência na rede de 9 dias para 5 dias, com pagamentos médios chegando a US$ 1,13 milhão em 2025.
Contudo, é importante destacar que o uso da IA generativa não precisa, e não deve, ser evitado, mas sim policiado. A chave está em equilibrar inovação com controle e proteção.
Por isso, medidas como definição de políticas claras, restrição de compartilhamento de dados sensíveis, monitoramento de acessos e segregação entre ambientes de TI e TO são essenciais.
A inteligência artificial como estratégia de defesa
Se por um lado a IA representa uma ameaça ao ampliar a sofisticação e a escala dos ataques cibernéticos, por outro, também vem sendo utilizada pelas empresas como uma aliada estratégica na proteção de ecossistemas digitais.
Soluções baseadas em inteligência artificial permitem identificar padrões anômalos, detectar ameaças em tempo real, automatizar respostas a incidentes e antecipar possíveis vulnerabilidades antes que sejam exploradas. No contexto de infraestruturas críticas, esse uso se torna ainda mais relevante, contribuindo para o fortalecimento das camadas de segurança e para a tomada de decisões mais rápidas e assertivas frente aos cenários de risco.
De acordo com os dados divulgados pela AllAboutAI, organizações que utilizaram aplicações de IA na cibersegurança economizaram em média US$ 1,9 milhão por violação e detectaram ameaças 60% mais rápido que sistemas tradicionais.
Quer saber como fortalecer a cibersegurança do seu ambiente industrial com estratégias eficazes e alinhadas às novas ameaças digitais? Entre em contato com a TI Safe e entenda como proteger seus ativos críticos. Conte com a expertise dos nossos especialistas para desenvolver um plano personalizado, conforme as necessidades do seu negócio.