Identifica sistemáticamente amenazas a un sistema mapeando flujos de datos, definiendo trust boundaries y enumerando adversarios y misuse cases antes de shippear. Esto produce un diagrama enfocado en seguridad y lista de mitigaciones priorizada que hace las revisiones de seguridad subsecuentes más rápidas y sustantivas que partir de un checklist genérico.
Casos de uso
- Diseñando un nuevo microservicio que manejará autenticación de usuario y datos personales
- Antes de lanzar una nueva funcionalidad que expone una API a desarrolladores de terceros
- Evaluando las implicaciones de seguridad de los permisos de tool access de un agente de IA
- Preparándose para una auditoría de cumplimiento (SOC 2, ISO 27001) que requiere evaluaciones de amenaza documentadas
- Revisando una arquitectura propuesta para una integración de pagos donde datos financieros están en scope
Funciones principales
- Dibuja el sistema como actores, stores de datos, flujos de datos y trust boundaries: enfócate en dónde los datos cruzan un boundary entre zonas trusted y untrusted
- Para cada flujo de datos a través de un trust boundary, identifica qué podría salir mal: interceptación, tampering, spoofing, repudiation, información disclosure, denial of service y elevation of privilege (STRIDE)
- Lista los misuse cases más probables para el sistema basado en los actores involucrados y el valor de los datos en juego
- Prioriza mitigaciones basándose en la severidad de la amenaza y el costo y complejidad de la mitigación, enfocándose en fixes sistémicos sobre controles compensatorios
- Asigna un owner y timeline a cada mitigación y verifica que el fix está implementado antes de que la funcionalidad ships
Relacionados
Relacionados
3 Entradas indexadas
Brainstorming before build
Explora objetivos, restricciones, riesgos y opciones de diseño antes de comprometerse con un camino de implementación específico. Esta técnica es más valiosa cuando se enfrentan decisiones de producto o UX donde la elección equivocada es costosa de revertir: nuevas funcionalidades con valor de usuario incierto, pivotes arquitectónicos o dependencias cruzadas donde cada equipo tiene un modelo mental diferente del problema.
Fine-tuning preparation
Curate, deduplica y formatea datasets de training para fine-tuning para que el modelo resultante realmente mejore en comportamientos objetivo en lugar de aprender ruido. Fine-tuning preparation cubre filtrado de calidad de dataset, consistencia de formato de output, splits de train/test y evitar common pitfalls como data leakage que invalidan resultados de fine-tuning.
Library docs in the loop
Mantiene las respuestas de asistentes de IA ancladas a la documentación real de la librería, changelog y firmas tipadas que se shippean en lugar de a memoria o resúmenes de blogs stale. Esto es esencial durante bumps de versión mayores, integración de SDKs unfamiliar o hotfixes de on-call donde guesses confiados pero incorrectos sobre comportamiento de API causan más daño que el bug original.