Este es uno de los sectores donde la IA está generando los cambios más profundos y más rápidos, simultáneamente en ambos lados del tablero: ataque y defensa.
Lo técnico nuevo: del copiloto al agente autónomo
El cambio estructural más importante es que las empresas están abandonando los copilotos que resumen y sugieren, para pasar a agentes de IA que persiguen objetivos mediante flujos de trabajo de múltiples pasos, coordinando herramientas, tomando acciones y actualizando planes a medida que llega nueva información. Denexus
En la práctica, esto se traduce en el concepto de SOC agentic (centro de operaciones de seguridad autónomo). El modelo contrasta las ganancias incrementales de las plataformas SOAR tradicionales con un modelo de agente capaz de razonar, actuar, observar y ajustarse mientras cambia la evidencia — diseñado para gestionar investigaciones dinámicamente en lugar de ejecutar un playbook estático. Denexus
En el frente ofensivo de la IA defensiva, Google DeepMind’s CodeMender es un ejemplo de agente que mejora la seguridad del código automáticamente, con resultados tempranos que demuestran su capacidad de encontrar vulnerabilidades zero-day en software bien probado. Denexus
El otro vector técnico nuevo es el «harvest now, decrypt later»: la exfiltración silenciosa de datos cifrados hoy para descifrarlos cuando la computación cuántica lo permita, que ya está incorporada al cálculo de riesgo actual. Harvard Business Review
Los riesgos reales: el agente como vector de ataque
El problema más perturbador de 2026 no es solo que la IA ayude a los defensores, sino que los agentes se convierten en el blanco preferido de los atacantes.
Un agente está siempre activo, nunca duerme, nunca come; pero si está mal configurado, puede acceder a las claves del reino —acceso privilegiado a APIs críticas, datos y sistemas— y es implícitamente confiable. Con una sola inyección de prompt bien ejecutada o explotando una vulnerabilidad de uso incorrecto de herramientas, los actores maliciosos pueden cooptar el empleado más poderoso y confiable de una organización. Harvard Business Review
En 2026, las organizaciones pueden experimentar sus primeros incidentes de seguridad a gran escala causados por agentes de IA que se comportan de maneras no intencionadas, no necesariamente por intención maliciosa, sino por la facilidad con que los agentes pueden ser influenciados. Los agentes de IA están diseñados para ser útiles, carecen de juicio y operan sin entender el contexto o las consecuencias. Darktrace
Otro vector de riesgo emergente es el Shadow AI: la mayoría de los negocios no saben si sus empleados están usando ChatGPT u otras plataformas, y mucho menos si están ingresando información sensible en ellas. TechNewsWorld
En el frente del ataque puro, los números son contundentes: el costo promedio de una brecha de datos fue de $4.4 millones en 2025, el phishing sigue siendo el vector principal de intrusión en aproximadamente el 60% de los incidentes y el 85% de las organizaciones experimentaron al menos un incidente relacionado con deepfakes en el último año. DeepStrike
Lo de negocios: el mercado explotando
Las cifras de negocio son difíciles de ignorar: el gasto global en productos y servicios de ciberseguridad se proyecta para superar los $520 mil millones anuales en 2026, y la IA está expandiendo el mercado total direccionable para proveedores de ciberseguridad a $2 billones de dólares. ECCU
Del lado de la adopción corporativa, el 52% de los ejecutivos en organizaciones que usan IA generativa ya tienen agentes de IA en producción, y el 46% de los ejecutivos con agentes en producción los están adoptando para operaciones de seguridad y ciberseguridad. Denexus
Un indicador de la madurez institucional del tema: está emergiendo una nueva función ejecutiva —el Chief AI Risk Officer— cuya misión es reencuadrar el riesgo de la IA como un problema de datos, unificando gobernanza, monitoreo en tiempo real y kill switches a nivel de agente. Harvard Business Review
Las especializaciones que valen: el mapa de carreras
El 10% de las ofertas de trabajo en ciberseguridad ya mencionan específicamente habilidades de IA, y el World Economic Forum identifica redes y ciberseguridad entre las tres habilidades de más rápido crecimiento hasta 2030, con el 87% de los encuestados identificando las vulnerabilidades relacionadas con IA como el riesgo cibernético de crecimiento más rápido. Penligent
Las especializaciones concretas que el mercado está demandando ahora mismo:
AI Security Engineer / AI Red Teamer — el rol emergente más destacado de 2026. Identifica vulnerabilidades como prompt injection, model poisoning y explotación de agentes autónomos. Mexa Solutions Es esencialmente un pentester pero para sistemas de IA.
Defenders y Detection Engineers — el carril más duradero porque está más cerca de la continuidad del negocio. Penligent Con IA, el trabajo evoluciona de responder alertas a supervisar agentes que responden alertas.
Cloud Security Engineer — el mayor riesgo en cloud en 2026 es la identidad de máquinas inseguras, con ratios de identidad máquina-a-humano alcanzando 100 a 1, dando a los atacantes nuevas rutas para moverse lateralmente en entornos cloud. Mexa Solutions
AI Safety & Governance Specialist — roles que aseguran el cumplimiento normativo a lo largo del ciclo de vida de los sistemas de IA, desde la definición del riesgo hasta el monitoreo y la respuesta a incidentes. Heisenberginstitute Con solo el 44% de las organizaciones teniendo una política formal de seguridad de IA, hay enorme demanda.
Incident Response con IA — las organizaciones que usan defensas aumentadas por IA están conteniendo brechas 108 días más rápido que las que no las usan. Mexa Solutions
La tensión de fondo: velocidad vs. control
El resumen más honesto del momento lo da Darktrace: los desafíos centrales de la ciberseguridad no están cambiando dramáticamente — identidad, confianza, datos y toma de decisiones humana siguen en el centro de la mayoría de los incidentes. Lo que cambia rápido es el entorno en que estos desafíos ocurren. La IA y la automatización están acelerando todo: la velocidad con que los atacantes escalan, la amplitud con que se distribuye el riesgo, y la facilidad con que el comportamiento no intencionado puede crear impacto real. Darktrace
El diferenciador no va a ser si una organización «usa agentes», sino si puede escalarlos con gobernanza disciplinada, auditabilidad, reglas de engagement bien definidas y un programa de riesgo que pueda cuantificar y comunicar el valor de negocio de la seguridad.