Xlera8Name

NSA oferece consultoria de segurança de IA principalmente para o mundo da tecnologia de defesa

A NSA divulgou orientações para ajudar as organizações a proteger os seus sistemas de IA e defender melhor a indústria de defesa.

A Folha de Informações de Segurança Cibernética (CSI), intitulada “Implantando Sistemas de IA com Segurança: Melhores Práticas para Implantar Sistemas de IA Seguros e Resilientes”, representa a primeira salva do Centro de Segurança de Inteligência Artificial (AISC), estabelecido pela superagência de vigilância no outono passado como parte do Centro de Colaboração em Segurança Cibernética (CCC), uma colaboração governo-indústria para proteger as organizações envolvidas no Base Industrial de Defesa.

Este CSI [PDF] foi desenvolvido em consulta com outras agências dos EUA, incluindo a CISA e o FBI, bem como com homólogas na Austrália, no Canadá, na Nova Zelândia e no Reino Unido.

A justificativa para ter orientações de segurança distintas para sistemas de IA é que os agentes de ameaças podem empregar táticas diferentes para subverter modelos e aplicações de aprendizado de máquina.

Devido à grande variedade de vetores de ataque, as defesas precisam ser diversas e abrangentes

“Atores maliciosos que visam sistemas de IA podem usar vetores de ataque exclusivos para sistemas de IA, bem como técnicas padrão usadas contra TI tradicional”, diz o CSI. “Devido à grande variedade de vetores de ataque, as defesas precisam ser diversas e abrangentes.”

Parece haver necessidade de melhor segurança da IA, o que talvez não seja surpreendente, uma vez que há necessidade de melhor segurança cibernética em geral. Em seu Relatório de cenário de ameaças de IA de 2024, afirmou o fornecedor de segurança Hidden Layer, “77 por cento das empresas relataram identificar violações em sua IA no ano passado. Os restantes não tinham certeza se os seus modelos de IA tinham visto um ataque.”

O relatório Hidden Layer identifica três tipos principais de ataques a sistemas de IA: ataques adversários de aprendizado de máquina que tentam alterar o comportamento do algoritmo; ataques generativos de IA que tentam contornar mecanismos de segurança e solicitar conteúdo privado ou prejudicial; e ataques à cadeia de suprimentos, que embora semelhantes aos ataques gerais à cadeia de suprimentos de software têm suas próprias características únicas relacionado à IA.

Grande parte das orientações da NSA aplica-se à segurança geral de TI, como a compreensão dos ambientes em que a IA é implementada e a garantia de que a governação e os controlos adequados estão em vigor.

Mas também há bastante coisa sobre monitoramento contínuo de modelos de IA. Aqueles que implementam sistemas de IA não devem esperar assinar e encerrar a segurança de IA. A NSA aconselha não apenas a validação de sistemas de IA antes e durante o uso, mas também a proteção de APIs expostas, o monitoramento ativo do comportamento do modelo, a salvaguarda dos pesos dos modelos, a aplicação de controles de acesso, treinamento de usuários, auditorias, testes de penetração e assim por diante.

“No final, proteger um sistema de IA envolve um processo contínuo de identificação de riscos, implementação de mitigações apropriadas e monitoramento de problemas”, concluiu o CSI. “Ao tomar as medidas descritas neste relatório para garantir a implantação e operação de sistemas de IA, uma organização pode reduzir significativamente os riscos envolvidos.”

E, tal como acontece com as recomendações gerais de segurança de TI, as organizações que vêem os seus sistemas de IA comprometidos perguntar-se-ão por que não foram mais cuidadosas quando tiveram oportunidade. ®

Fale Conosco

Olá! Como posso ajudá-lo?