El Método ITSense

Delivery AI-nativo para software crítico.

Siete principios. Un sustrato de contexto siempre activo. Cinco fases con IA en cada bucle. Un Protocolo de Supervisión Humana sobre toda acción irreversible. Reemplaza a #ITSenseMeth v1 (2019).

Autores: ITSense — Bogotá + SoHo Versión: 2.0 · Abril 2026 Vigencia: Todos los engagements nuevos

00 Por qué reescribimos nuestro método

La mayoría de las metodologías de entrega de software se diseñaron cuando la IA era una librería que importabas. Hoy la IA es un colega con el que colaboras — uno que lee, razona, escribe, prueba, despliega y monitorea junto a los humanos.

Nuestro método anterior (2019) nos sirvió bien por más de 700 proyectos. Era fiel a la doctrina ágil: Kick-off, Planeación, Desarrollo, QA, Delivery. Trataba a la IA como una herramienta que alguien podría usar dentro de una fase.

Ese modelo está obsoleto. En 2026, los equipos que entregan gran software no agregan IA a una fase. Ponen IA en el bucle continuamente — a lo largo de discovery, arquitectura, construcción, aseguramiento y operación — con humanos marcando dirección y siendo dueños de las decisiones que importan.

El Método ITSense es nuestra reescritura del delivery de software para esa realidad.

01 Los siete principios

Son los compromisos detrás de cada engagement. No son aspiracionales — están forzados por herramientas, no por presentaciones.

1.1 · Principio

El contexto es el producto.

Antes de escribir una línea de código, construimos contexto compartido y duradero — cada reunión, cada documento, cada sistema existente — y lo mantenemos sincronizado para humanos e IA por igual.

1.2 · Principio

La IA actúa. Los humanos deciden.

Los agentes de IA hacen el trabajo. Los humanos son dueños de la dirección, los trade-offs y las acciones irreversibles. En el momento en que una decisión es material — para usuarios, para dinero, para seguridad — la firma un humano.

1.3 · Principio

Entregable por defecto.

Trabajamos en incrementos semanales de valor productivo, no en hitos trimestrales. Si un incremento no puede demostrarse a un usuario real, no cuenta.

1.4 · Principio

Observabilidad desde el día cero.

Telemetría, costos, rendimiento de modelos y presupuestos de error se instrumentan antes del primer despliegue a producción — no después de un incidente.

1.5 · Principio

Multi-modelo, no monocultura.

Elegimos el mejor modelo para cada tarea. Claude, OpenAI, Gemini, Cohere, Meta, pesos abiertos. La resiliencia de proveedor es una característica, no una concesión.

1.6 · Principio

Seguridad y cumplimiento como código.

La regulación se enforza en pipelines, no en memos. SOC 2, PCI-DSS, HIPAA, Circular 007 SFC y la regulación local se embarcan como checks automatizados.

1.7 · Principio

Cada decisión queda documentada.

Los Architecture Decision Records se producen por humanos e IA juntos, versionados en Git, y tratados como artefactos de primera clase.

02 El sustrato — contexto siempre activo

Cada engagement corre sobre un sustrato persistente que existe antes de la fase 1 y sobrevive a cualquier fase posterior. Es el sistema nervioso que le permite a la IA participar en lugar de asistir.

CapaQué haceImplementado con
Contexto persistenteMemoria compartida entre todos los agentes IA y humanos del engagement. Cada artefacto, transcripción, decisión y PR entra al contexto.Claude Cowork
Acceso a herramientasLos agentes IA leen y actúan sobre sistemas reales — GitHub, Jira, consolas cloud, data warehouses — sin humano intermediario.Model Context Protocol (MCP)
Inteligencia de reunionesCada discovery, review y retro se captura, transcribe y convierte en fichas de inteligencia estructuradas.Plaud + Pipeline ITSense
Ruteo multi-modeloCada tarea va al mejor modelo — Opus para razonamiento, Haiku para bucles rápidos, OpenAI/Gemini/Cohere/Meta para fortalezas específicas.LangChain + router propio
Fuente de verdadCódigo, infraestructura y decisiones viven en Git. Nada importante está sin versionar.GitHub + IaC

03 Sense — Discovery con IA en el bucle

Objetivo: entender el problema profundamente antes de proponer una solución.

  • Claude ingiere cada artefacto relevante — codebases existentes, documentación, ADRs previos, transcripciones de entrevistas, esquemas de datos, mapas de sistemas — vía MCP.
  • Agentes IA producen un primer brief del problema. Humanos cuestionan, corrigen, extienden.
  • Mapeamos explícitamente qué tareas va a asumir la IA, qué tareas humanos, y cuáles son conjuntas. Es un entregable, no una conjetura.
  • Los riesgos son enumerados por IA (más rápido, más exhaustivo) y priorizados por humanos (el juicio sigue siendo nuestro).

3.1 Entregables

Brief del problema con mapa de stakeholders · mapa de asignación IA-humano · registro de riesgos priorizado · criterios de éxito medibles.

Duración típica: 1–2 semanas para un engagement Discovery de dos semanas.

04 Shape — Arquitectura firmada con IA

Objetivo: decidir cómo se va a construir el sistema y qué entregamos cuándo.

Los arquitectos parean con Claude Opus para producir Architecture Decision Records (ADRs). Una decisión por registro. Trade-offs explícitos.

Agentes IA especializados asumen roles nombrados — Senior Backend Engineer, Security Reviewer, Data Architect, FinOps Analyst, Compliance Officer — y critican la arquitectura desde su punto de vista. Los humanos resuelven.

El roadmap se estructura como incrementos semanales entregables, no como épicas multi-sprint. Infraestructura, observabilidad y cumplimiento se diseñan upfront — no se agregan después.

05 Forge — Construcción con AI pair-programming por defecto

Objetivo: escribir y entregar código. Rápido, revisado, testeado, observable.

Cada ingeniero parea con Claude Code para cada tarea. Es el default — no una opción. Claude Cowork corre agentes paralelos que escriben tests unitarios, documentación, scripts de migración y checks de seguridad concurrentes con el desarrollo de features.

Cada pull request pasa un review de IA antes de llegar al review humano. El review de IA revisa: estilo, seguridad, correctitud contra specs, cobertura de tests, riesgo de performance, accesibilidad y alineación con ADRs.

Los humanos aprueban cada merge. Los humanos despliegan cada cambio a producción. Demos semanales al Product Owner — un incremento entregable por semana es la cadencia.

06 Prove — Aseguramiento y seguridad, asistidos por IA

Objetivo: probar que el sistema funciona, es seguro y cumple la regulación — con evidencia, no con aseveraciones.

La IA genera suites de pruebas a nivel unitario, integración y end-to-end basadas en specs y trazas de producción. Testing adversarial: agentes IA actúan como red team, intentando romper el sistema — inyección, bypass, abuso, edge cases que el equipo no imaginó.

El cumplimiento se fuerza con gates automatizados: SOC 2, PCI-DSS, ISO 27001, HIPAA, y regulación financiera local (Circular 007 SFC, SAR, LA/FT) donde aplique. El UAT lo ejecuta el Product Owner con generación de escenarios asistida por IA.

07 Operate — Operación AI-nativa

Objetivo: correr el sistema en producción y mejorarlo continuamente.

Observabilidad con incidentes resumidos por LLM. Cuando dispara una alerta, Claude produce un resumen de 3 líneas, causa probable y remediación propuesta en menos de 60 segundos.

La respuesta a incidentes está parcialmente automatizada — Claude puede ejecutar remediación no destructiva vía MCP (reiniciar un servicio, limpiar un cache, rotar una credencial) bajo una allow-list estricta. Acciones destructivas o de cara al cliente requieren aprobación humana.

La observabilidad de modelos y prompts es una preocupación de primera clase. Tracemos latencia, costo, tasas de alucinación y drift de modelo/versión por workflow.

08 Protocolo de Supervisión Humana

AI-first no significa AI-sin-control. Un conjunto definido de acciones siempre requiere aprobación humana explícita. Están documentadas por engagement y forzadas por herramientas — no por confianza.

Clase de acciónEjemploAprobación por
Cambio visible al clienteContenido, copy, flujos UI, emails, notificacionesProduct Owner
Acción irreversible sobre datosMigración de schema, purga, update masivoLeads de Data + Ingeniería
Cambio sensible a seguridadAuth, control de acceso, rotación de secretos, reglas WAFLead de Seguridad
Consecuencia financiera/legalPricing, billing, contratos, términosBusiness owner
Despliegue a producción · ruta críticaFlujo principal de negocio, pagos, KYCLead de Ingeniería
Nuevo proveedor / nuevo modeloCambiar de proveedor LLM, agregar una dependenciaCTO / Arquitecto
Cambio regulado por complianceReglas AML, flujos PHI, reportes financierosCompliance Officer

Cada aprobación queda logueada, atribuible y auditable. La IA propone, el humano dispone. Siempre.

09 Lo que medimos

Cada engagement del Método ITSense se instrumenta contra estas métricas. Aparecen en el status semanal, no solo al final.

MétricaObjetivoPor qué importa
Hit rate de incremento semanal≥ 90%Valida que "entregable por defecto" es real
Cobertura de review de IA100% de PRsEnforza el pair-programming como default
Latencia de review humano< 24hEvita que el trabajo de IA espere humanos
Tiempo a resumen de incidente< 60sOps asistidas por IA, entregadas
Change failure rate< 10%DORA — calidad de shipping
Lead time for change< 48h commit → prodDORA — velocidad de shipping
Pipeline de compliance100% en verde pre-deployGate no negociable

10 La forma de un engagement típico

                      ┌─────────────────────────────────────────────┐
                      │      Sustrato de contexto (siempre activo)  │
                      │   Claude Cowork · MCP · Plaud · Multi-LLM   │
                      └─────────────────────────────────────────────┘
                                     │
              ┌──────────┬───────────┼───────────┬──────────┐
              ▼          ▼           ▼           ▼          ▼
          ┌───────┐  ┌───────┐   ┌───────┐   ┌───────┐  ┌───────┐
          │ SENSE │→ │ SHAPE │ → │ FORGE │ → │ PROVE │→ │OPERATE│
          └───────┘  └───────┘   └───────┘   └───────┘  └───────┘
                                     │
                                     ▼
                      ┌─────────────────────────────────────────────┐
                      │   Protocolo de Supervisión Humana           │
                      │   Cada acción irreversible · firmada por    │
                      │   el humano dueño del resultado             │
                      └─────────────────────────────────────────────┘

11 Mapeo al #ITSenseMeth anterior

Para clientes y miembros del equipo familiares con el método de 2019, aquí está el crosswalk:

Fase anterior (2019)Fase nueva (2026)Cambio clave
Kick OffSenseEra una reunión. Ahora es un engagement de 1–2 semanas con ingestión de contexto asistida por IA.
PlaneaciónShapeEra refinamiento de backlog. Ahora es arquitectura pareada con IA + crítica de agentes especialistas.
DesarrolloForgeEra Scrum. Ahora es AI pair-programming por defecto con review de IA continuo.
Quality AssuranceProveEra QA + UAT. Ahora es tests generados por IA, testing adversarial, compliance-as-code.
Delivery ProducciónOperateEra una entrega. Ahora es una fase que empezamos y nunca abandonamos.

El método anterior trataba el delivery como un evento terminal. El método nuevo trata la producción como el inicio de la operación — que es donde el sistema realmente se gana el sueldo.

12 Compromisos permanentes

No esconderemos IA detrás de trabajo humano. Donde lo hizo la IA, lo decimos.

No reclamaremos autonomía IA que no tenemos. La supervisión humana es real y está logueada.

No recomendaremos un modelo por una sociedad comercial. Elegimos la herramienta correcta para la tarea.

Documentaremos cada decisión material al momento de tomarla — no retrospectivamente.

Nos mediremos públicamente contra los SLOs de esta página.

— ITSense · Bogotá + SoHo · 2026

Siguiente paso

Ver el método en producción.

Lee un caso — Aeropuerto líder Sudamérica, ANALYZER, banco retador colombiano — para ver cómo se ve el Método ITSense en el campo.