00 Por qué reescribimos nuestro método
La mayoría de las metodologías de entrega de software se diseñaron cuando la IA era una librería que importabas. Hoy la IA es un colega con el que colaboras — uno que lee, razona, escribe, prueba, despliega y monitorea junto a los humanos.
Nuestro método anterior (2019) nos sirvió bien por más de 700 proyectos. Era fiel a la doctrina ágil: Kick-off, Planeación, Desarrollo, QA, Delivery. Trataba a la IA como una herramienta que alguien podría usar dentro de una fase.
Ese modelo está obsoleto. En 2026, los equipos que entregan gran software no agregan IA a una fase. Ponen IA en el bucle continuamente — a lo largo de discovery, arquitectura, construcción, aseguramiento y operación — con humanos marcando dirección y siendo dueños de las decisiones que importan.
El Método ITSense es nuestra reescritura del delivery de software para esa realidad.
01 Los siete principios
Son los compromisos detrás de cada engagement. No son aspiracionales — están forzados por herramientas, no por presentaciones.
El contexto es el producto.
Antes de escribir una línea de código, construimos contexto compartido y duradero — cada reunión, cada documento, cada sistema existente — y lo mantenemos sincronizado para humanos e IA por igual.
La IA actúa. Los humanos deciden.
Los agentes de IA hacen el trabajo. Los humanos son dueños de la dirección, los trade-offs y las acciones irreversibles. En el momento en que una decisión es material — para usuarios, para dinero, para seguridad — la firma un humano.
Entregable por defecto.
Trabajamos en incrementos semanales de valor productivo, no en hitos trimestrales. Si un incremento no puede demostrarse a un usuario real, no cuenta.
Observabilidad desde el día cero.
Telemetría, costos, rendimiento de modelos y presupuestos de error se instrumentan antes del primer despliegue a producción — no después de un incidente.
Multi-modelo, no monocultura.
Elegimos el mejor modelo para cada tarea. Claude, OpenAI, Gemini, Cohere, Meta, pesos abiertos. La resiliencia de proveedor es una característica, no una concesión.
Seguridad y cumplimiento como código.
La regulación se enforza en pipelines, no en memos. SOC 2, PCI-DSS, HIPAA, Circular 007 SFC y la regulación local se embarcan como checks automatizados.
Cada decisión queda documentada.
Los Architecture Decision Records se producen por humanos e IA juntos, versionados en Git, y tratados como artefactos de primera clase.
02 El sustrato — contexto siempre activo
Cada engagement corre sobre un sustrato persistente que existe antes de la fase 1 y sobrevive a cualquier fase posterior. Es el sistema nervioso que le permite a la IA participar en lugar de asistir.
| Capa | Qué hace | Implementado con |
|---|---|---|
| Contexto persistente | Memoria compartida entre todos los agentes IA y humanos del engagement. Cada artefacto, transcripción, decisión y PR entra al contexto. | Claude Cowork |
| Acceso a herramientas | Los agentes IA leen y actúan sobre sistemas reales — GitHub, Jira, consolas cloud, data warehouses — sin humano intermediario. | Model Context Protocol (MCP) |
| Inteligencia de reuniones | Cada discovery, review y retro se captura, transcribe y convierte en fichas de inteligencia estructuradas. | Plaud + Pipeline ITSense |
| Ruteo multi-modelo | Cada tarea va al mejor modelo — Opus para razonamiento, Haiku para bucles rápidos, OpenAI/Gemini/Cohere/Meta para fortalezas específicas. | LangChain + router propio |
| Fuente de verdad | Código, infraestructura y decisiones viven en Git. Nada importante está sin versionar. | GitHub + IaC |
03 Sense — Discovery con IA en el bucle
Objetivo: entender el problema profundamente antes de proponer una solución.
- Claude ingiere cada artefacto relevante — codebases existentes, documentación, ADRs previos, transcripciones de entrevistas, esquemas de datos, mapas de sistemas — vía MCP.
- Agentes IA producen un primer brief del problema. Humanos cuestionan, corrigen, extienden.
- Mapeamos explícitamente qué tareas va a asumir la IA, qué tareas humanos, y cuáles son conjuntas. Es un entregable, no una conjetura.
- Los riesgos son enumerados por IA (más rápido, más exhaustivo) y priorizados por humanos (el juicio sigue siendo nuestro).
3.1 Entregables
Brief del problema con mapa de stakeholders · mapa de asignación IA-humano · registro de riesgos priorizado · criterios de éxito medibles.
Duración típica: 1–2 semanas para un engagement Discovery de dos semanas.
04 Shape — Arquitectura firmada con IA
Objetivo: decidir cómo se va a construir el sistema y qué entregamos cuándo.
Los arquitectos parean con Claude Opus para producir Architecture Decision Records (ADRs). Una decisión por registro. Trade-offs explícitos.
Agentes IA especializados asumen roles nombrados — Senior Backend Engineer, Security Reviewer, Data Architect, FinOps Analyst, Compliance Officer — y critican la arquitectura desde su punto de vista. Los humanos resuelven.
El roadmap se estructura como incrementos semanales entregables, no como épicas multi-sprint. Infraestructura, observabilidad y cumplimiento se diseñan upfront — no se agregan después.
05 Forge — Construcción con AI pair-programming por defecto
Objetivo: escribir y entregar código. Rápido, revisado, testeado, observable.
Cada ingeniero parea con Claude Code para cada tarea. Es el default — no una opción. Claude Cowork corre agentes paralelos que escriben tests unitarios, documentación, scripts de migración y checks de seguridad concurrentes con el desarrollo de features.
Cada pull request pasa un review de IA antes de llegar al review humano. El review de IA revisa: estilo, seguridad, correctitud contra specs, cobertura de tests, riesgo de performance, accesibilidad y alineación con ADRs.
Los humanos aprueban cada merge. Los humanos despliegan cada cambio a producción. Demos semanales al Product Owner — un incremento entregable por semana es la cadencia.
06 Prove — Aseguramiento y seguridad, asistidos por IA
Objetivo: probar que el sistema funciona, es seguro y cumple la regulación — con evidencia, no con aseveraciones.
La IA genera suites de pruebas a nivel unitario, integración y end-to-end basadas en specs y trazas de producción. Testing adversarial: agentes IA actúan como red team, intentando romper el sistema — inyección, bypass, abuso, edge cases que el equipo no imaginó.
El cumplimiento se fuerza con gates automatizados: SOC 2, PCI-DSS, ISO 27001, HIPAA, y regulación financiera local (Circular 007 SFC, SAR, LA/FT) donde aplique. El UAT lo ejecuta el Product Owner con generación de escenarios asistida por IA.
07 Operate — Operación AI-nativa
Objetivo: correr el sistema en producción y mejorarlo continuamente.
Observabilidad con incidentes resumidos por LLM. Cuando dispara una alerta, Claude produce un resumen de 3 líneas, causa probable y remediación propuesta en menos de 60 segundos.
La respuesta a incidentes está parcialmente automatizada — Claude puede ejecutar remediación no destructiva vía MCP (reiniciar un servicio, limpiar un cache, rotar una credencial) bajo una allow-list estricta. Acciones destructivas o de cara al cliente requieren aprobación humana.
La observabilidad de modelos y prompts es una preocupación de primera clase. Tracemos latencia, costo, tasas de alucinación y drift de modelo/versión por workflow.
08 Protocolo de Supervisión Humana
AI-first no significa AI-sin-control. Un conjunto definido de acciones siempre requiere aprobación humana explícita. Están documentadas por engagement y forzadas por herramientas — no por confianza.
| Clase de acción | Ejemplo | Aprobación por |
|---|---|---|
| Cambio visible al cliente | Contenido, copy, flujos UI, emails, notificaciones | Product Owner |
| Acción irreversible sobre datos | Migración de schema, purga, update masivo | Leads de Data + Ingeniería |
| Cambio sensible a seguridad | Auth, control de acceso, rotación de secretos, reglas WAF | Lead de Seguridad |
| Consecuencia financiera/legal | Pricing, billing, contratos, términos | Business owner |
| Despliegue a producción · ruta crítica | Flujo principal de negocio, pagos, KYC | Lead de Ingeniería |
| Nuevo proveedor / nuevo modelo | Cambiar de proveedor LLM, agregar una dependencia | CTO / Arquitecto |
| Cambio regulado por compliance | Reglas AML, flujos PHI, reportes financieros | Compliance Officer |
Cada aprobación queda logueada, atribuible y auditable. La IA propone, el humano dispone. Siempre.
09 Lo que medimos
Cada engagement del Método ITSense se instrumenta contra estas métricas. Aparecen en el status semanal, no solo al final.
| Métrica | Objetivo | Por qué importa |
|---|---|---|
| Hit rate de incremento semanal | ≥ 90% | Valida que "entregable por defecto" es real |
| Cobertura de review de IA | 100% de PRs | Enforza el pair-programming como default |
| Latencia de review humano | < 24h | Evita que el trabajo de IA espere humanos |
| Tiempo a resumen de incidente | < 60s | Ops asistidas por IA, entregadas |
| Change failure rate | < 10% | DORA — calidad de shipping |
| Lead time for change | < 48h commit → prod | DORA — velocidad de shipping |
| Pipeline de compliance | 100% en verde pre-deploy | Gate no negociable |
10 La forma de un engagement típico
┌─────────────────────────────────────────────┐
│ Sustrato de contexto (siempre activo) │
│ Claude Cowork · MCP · Plaud · Multi-LLM │
└─────────────────────────────────────────────┘
│
┌──────────┬───────────┼───────────┬──────────┐
▼ ▼ ▼ ▼ ▼
┌───────┐ ┌───────┐ ┌───────┐ ┌───────┐ ┌───────┐
│ SENSE │→ │ SHAPE │ → │ FORGE │ → │ PROVE │→ │OPERATE│
└───────┘ └───────┘ └───────┘ └───────┘ └───────┘
│
▼
┌─────────────────────────────────────────────┐
│ Protocolo de Supervisión Humana │
│ Cada acción irreversible · firmada por │
│ el humano dueño del resultado │
└─────────────────────────────────────────────┘
11 Mapeo al #ITSenseMeth anterior
Para clientes y miembros del equipo familiares con el método de 2019, aquí está el crosswalk:
| Fase anterior (2019) | Fase nueva (2026) | Cambio clave |
|---|---|---|
| Kick Off | Sense | Era una reunión. Ahora es un engagement de 1–2 semanas con ingestión de contexto asistida por IA. |
| Planeación | Shape | Era refinamiento de backlog. Ahora es arquitectura pareada con IA + crítica de agentes especialistas. |
| Desarrollo | Forge | Era Scrum. Ahora es AI pair-programming por defecto con review de IA continuo. |
| Quality Assurance | Prove | Era QA + UAT. Ahora es tests generados por IA, testing adversarial, compliance-as-code. |
| Delivery Producción | Operate | Era una entrega. Ahora es una fase que empezamos y nunca abandonamos. |
El método anterior trataba el delivery como un evento terminal. El método nuevo trata la producción como el inicio de la operación — que es donde el sistema realmente se gana el sueldo.
12 Compromisos permanentes
No esconderemos IA detrás de trabajo humano. Donde lo hizo la IA, lo decimos.
No reclamaremos autonomía IA que no tenemos. La supervisión humana es real y está logueada.
No recomendaremos un modelo por una sociedad comercial. Elegimos la herramienta correcta para la tarea.
Documentaremos cada decisión material al momento de tomarla — no retrospectivamente.
Nos mediremos públicamente contra los SLOs de esta página.