Projetar, implementar e entregar métodos que tornem sistemas modernos de ML robustos, privados e resistentes a abusos
Liderar agendas de pesquisa em robustez adversarial, privacidade e resistência a abusos para modelos profundos (visão, NLP/LLMs, multimodais)
Desenvolver algoritmos e "recipes" de treinamento: treinamento adversarial (PGD/TRADES/AA), robustez certificada (randomized smoothing, IBP/α−β-CROWN), detecção de OOD, calibração, marca d'água/fingerprinting, DP-SGD e auditorias de privacidade
Executar experimentos em larga escala (multi-GPU/TPU); produzir estudos de ablação rigorosos, intervalos de confiança e análise de falhas
Definir métricas de avaliação além da acurácia em dados limpos: AutoAttack@ε, deltas de acurácia robusta, ECE/Brier, AUROC em OOD, risco de membership-inference, sobrecarga de latência/throughput
Fortalecer sistemas em produção em parceria com equipes de plataforma/segurança: playbooks de jailbreak e injeção de prompt para LLMs, estratégias de extração/throttling, monitoramento de drift/ataques
Publicar em conferências de ponta (NeurIPS/ICML/ICLR; S&P/USENIX/CCS) e produzir software de código aberto utilizável
Mentorar pesquisadores e engenheiros; garantir a reprodutibilidade e a higiene experimental
Requirements
Doutorado em ML/Ciência da Computação/Eng. Elétrica/Estatística
Publicações em segurança e privacidade de modelos e sistemas de AI/ML
Domínio de deep learning: otimização (variantes de SGD, regularização, sharpness), mudança de distribuição e generalização, incerteza e calibração, aprendizagem de representação
Experiência com PyTorch ou JAX; competência em CUDA/XLA, precisão mista, treinamento vetorizado, checkpointing/sharding
Experiência com ferramentas de robustez/privacidade: AutoAttack/RobustBench, TRADES, IBM ART/Foolbox, Opacus/TF-Privacy, randomized smoothing, IBP/α−β-CROWN/ERAN
Experiência em experimentação em escala: SLURM/K8s/Ray; W&B/MLflow; versionamento de dados (DVC); execuções determinísticas; profiling (nsys/torch.profiler)
Sólida prática estatística: análise de potência estatística, intervalos de confiança/bootstrapping; design experimental orientado por modelo de ameaça
Habilidade para executar experimentos em larga escala (multi-GPU/TPU) e produzir estudos de ablação rigorosos, intervalos de confiança e análise de falhas
Experiência colaborando com equipes de plataforma/segurança para fortalecer sistemas em produção
Desejável: experiência com ataques e defesas adversariais avançadas (poisoning, backdoor), detecção de backdoor (STRIP/ABL), taxonomias de extração e diagnósticos de ofuscação de gradiente
Desejável: experiência com segurança de LLMs, avaliações de segurança e defesas contra injeção de prompt
Desejável: conhecimento em engenharia de privacidade (contabilidade de ε,δ, DP de Rényi, PATE), aprendizagem federada, SMPC/HE
Desejável: experiência com serving (Triton/vLLM/HF TGI), ONNX/TensorRT, canarying e detecção de tráfego adversarial
Desejável: experiência em engenharia de segurança (red teaming, resposta a incidentes, gerenciamento de segredos/SBOM)