18/10/2025 –, Sala 1
NIST AI RMF, ISO 42001, políticas de Responsible AI... o cenário regulatório para IA está se consolidando rapidamente. Mas como aplicar esses padrões no dia a dia? Nesta talk, exploraremos como unir práticas de DevSecOps com requisitos de Responsible AI, implementando guardrails, testes contínuos e monitoramento para atender padrões internacionais. Um estudo de caso de red teaming em um chatbot corporativo ilustrará a aplicação prática.
Nesta palestra, vamos explorar como aplicar práticas de DevSecOps no desenvolvimento e operação de sistemas de IA, garantindo segurança, conformidade e confiança. A partir de padrões como NIST AI RMF, ISO 42001 e políticas de Responsible AI, veremos como implementar guardrails, testes automatizados e monitoramento contínuo para proteger modelos e dados sensíveis. Usando como exemplo um projeto real de red teaming em um chatbot corporativo, você entenderá na prática como alinhar inovação com governança — e por que essa abordagem é essencial para levar IA à produção com segurança.
AI Senior Manager na Accenture, premiado como Microsoft MVP em AI Platform e Google Developer Expert (GDE) em Artificial Intelligence. Atua com arquiteturas de sistemas de IA, agentes inteligentes, LLMs e GenAI, incluindo projetos em larga escala para os setores de telecomunicação, bancário, seguros e manufatura. Doutor em Engenharia Elétrica e de Computação pela Universidade Presbiteriana Mackenzie, é professor na FIAP e referência em conteúdos técnicos sobre arquiteturas avançadas de dados e IA.