La Inteligencia Artificial: El arma de doble filo que redefine la resiliencia

En la actualidad, la democratización de la IA Generativa ha convertido la ingeniería social en un producto de alta precisión. Mientras las organizaciones incrementan sus inversiones en defensas automatizadas —un paso necesario según los últimos informes de confianza digital—, surge una brecha crítica de gobernanza.

Hoy, la pregunta para el liderazgo en seguridad más allá de si sus herramientas de IA defensiva son capaces de detectar un deepfake; se centra en si la organización posee la madurez cultural para contener el impacto cuando la tecnología falle. La IA es el acelerador de estas capacidades, pero la cibercultura es, y seguirá siendo, el freno de emergencia. ¿Está su estrategia de defensa escalando al ritmo de la IA ofensiva?

Este artículo busca desglosar la dualidad de esta tecnología y por qué el éxito de su estrategia de ciberseguridad dependerá menos del stack tecnológico y más del ADN organizacional.

La IA ha sido uno de los avances tecnológicos más disruptivos de la última década. Hoy, su adopción se traduce en mejoras operativas, automatización y oportunidades de crecimiento en casi todos los sectores. Sin embargo, su impacto también ha alcanzado la seguridad digital de las empresas. La IA generativa está emergiendo como un vector de ataque por sí misma, al acelerar y optimizar tanto la creación de malware como técnicas de ingeniería social que antes requerían inversión de tiempo y especialización humana. 

La industrialización del ataque

Las herramientas de IA generativa permiten automatizar tareas que antes exigían creatividad humana, como redactar correos electrónicos impecables, construir pretextos convincentes, sintetizar información personal de ejecutivos y orquestar escenarios multicanal —email, mensajes de texto, redes sociales y llamadas telefónicas— que convergen para engañar a la víctima.

Imagina un escenario de un deepfake del CEO solicitando una transferencia urgente, acompañado de un mensaje por WhatsApp y un email con un lenguaje personalizado. Esto deja de ser ciencia ficción para convertirse en una amenaza real y rentable. La capacidad de generar estos componentes a escala y con calidad creíble hace que la ingeniería social pase de ser idea aislada a ser producto de consumo.

Este cambio de paradigma altera la clasificación tradicional de amenazas. Informes confiables como el de Verizon Data Breach Investigations Report (DBIR) 2025, muestran que la ingeniería social y el factor humano siguen siendo vectores críticos en los incidentes de seguridad, con aproximadamente el 60% de las brechas involucrando alguna forma de comportamiento humano, incluyendo errores y manipulación social.

Lo significativo de estos datos es que no hablan de tecnología avanzada ni de vulnerabilidades técnicas. Hablan de personas. Ataques que antes requerían redacción cuidadosa ahora son acelerados con la IA, convirtiendo los ataques de tipo phishing o vishing en eventos más rápidos, más personalizados y difíciles de detectar. 

Velocidad de máquina para combatir ataques a escala

Frente a una ofensiva que opera en milisegundos, la respuesta manual es insuficiente. La IA defensiva no es solo una mejora incremental; es el único medio para igualar la velocidad de los atacantes. En este contexto, las soluciones basadas en IA y Machine Learning se vuelven indispensables para:

  • Detección de anomalías de comportamiento: Mientras la IA ofensiva imita la forma de un mensaje, la IA defensiva analiza el fondo del comportamiento. Puede identificar desviaciones mínimas en los patrones de acceso, tráfico de red y ejecución de procesos que son invisibles al ojo humano, bloqueando el movimiento lateral antes de que se consolide la brecha.
  • Respuesta automatizada y orquestación: Ante ataques masivos y polimórficos, la IA permite la contención autónoma. Desde aislar un endpoint comprometido hasta revocar credenciales en tiempo real, la automatización basada en IA gana tiempo crítico, deteniendo la propagación del ataque a escala mientras los analistas evalúan la estrategia de fondo.
  • Análisis predictivo de amenazas: Al procesar millones de eventos de seguridad a nivel global, la IA defensiva puede anticipar vectores de ataque antes de que impacten en la infraestructura local, pasando de una postura reactiva a una de defensa proactiva.

El uso de la IA como defensa no es solo un fenómeno teórico. Se encuentra en el centro de las preocupaciones del liderazgo de seguridad. Nuestra última Encuesta Global Digital Trust Insights 2026, nos muestra que la IA encabeza las prioridades de inversión en ciberseguridad. La mayoría de las organizaciones planea aumentar el presupuesto en capacidades basadas en IA —incluyendo inteligencia de amenazas y detección automatizada—, como respuesta directa a un panorama cada vez más complejo.

Este enfoque no sustituye la necesidad humana, sino que amplifica su capacidad de respuesta. Según el Cost of a Data Breach Report 2025 de IBM, las organizaciones que integran IA y automatización de seguridad de manera extensiva logran reducir el ciclo de vida de una brecha en casi 100 días en comparación con aquellas que no lo hacen, lo que representa una eficiencia cercana al 50% en los tiempos de respuesta y contención.

No obstante, incluso las mejores defensas automáticas fracasan sin un componente humano que actúe con criterio ante alertas y señales que todavía requieren interpretación contextual. La IA defensiva es excelente filtrando el ruido, pero cuando un ataque altamente sofisticado logra cruzar esa barrera, ya no estamos ante un problema técnico, sino ante un problema de juicio humano. 

El factor humano como la primera línea de defensa

Contrario a la visión tradicional que sitúa al usuario como el eslabón final de la cadena, en la era de la IA generativa, la cibercultura es nuestra primera línea de defensa. Cuando un algoritmo es capaz de evadir los filtros técnicos mediante ingeniería social personalizada, el criterio humano es el primer sensor que detecta la anomalía. No es el último recurso; es la base sobre la que descansa toda la arquitectura de seguridad.

La cultura de ciberseguridad no se mide por políticas, certificaciones o firewalls. Se manifiesta en decisiones humanas bajo presión, en la disposición de las personas para cuestionar solicitudes fuera de lo normal, y en la habitualidad con que se reportan comportamientos sospechosos más allá de indicadores técnicos. La cultura se revela cuando nadie está mirando, y esas decisiones marcan la diferencia entre un ataque contenido y una brecha altamente costosa.

Para entender el impacto de esta dinámica, el informe Cost of a Data Breach Report 2025 de IBM señala que hasta un 16% de las organizaciones que han sufrido una brecha de seguridad estuvieron expuestas a ataques impulsados por el uso de la IA. De ese total, el 37% corresponde a ataques de phishing y el 35% a incidentes con deepfakes, ambos significativamente acelerados por la IA generativa.

Estos datos no son una condena al fracaso humano. Son una llamada de atención: la tecnología no basta por sí sola; se necesita una cultura fuerte en la que las personas entiendan el riesgo, por qué existe y cómo actuar correctamente ante él. 

Métricas culturales que todo CISO debe monitorear

Para que la cibercultura sea una verdadera primera línea de defensa, debe ser medible. El liderazgo de seguridad no debería conformarse con tasas de finalización de cursos; debe observar indicadores que reflejen la resiliencia operativa real:

  • Tasa de reporte: Más allá de quién hace "clic" en una simulación, la métrica clave es cuántos empleados reportan proactivamente una comunicación sospechosa antes de que ocurra un incidente. Un alto índice de reporte indica que el personal actúa como un sensor activo, no solo como un receptor pasivo.
  • Tiempo medio de reporte: En un ataque de IA generativa, cada minuto cuenta. Medir cuánto tiempo transcurre desde que un empleado recibe un mensaje sospechoso hasta que llega al centro de operaciones de seguridad es el mejor indicador de la agilidad de nuestra primera línea.
  • Índice de confianza en el reporte: ¿Los empleados tienen miedo a represalias si cometen un error? Una cultura donde el error se reporta de inmediato en lugar de ocultarse es la diferencia entre un incidente contenido y una crisis sistémica.

Si la cultura organizacional ya era un desafío antes de la llegada masiva de IA, la aceleración de técnicas ofensivas la expone aún más. La diferencia entre una organización resiliente y una vulnerable no está únicamente en sus inversiones tecnológicas, sino en cómo la primera línea de defensa trabaja en sintonía con las herramientas como un escudo de capacidades culturales reales:

  • ¿Se entrena regularmente a los equipos para reconocer nuevas formas de ingeniería social?
  • ¿Se promueve cuestionar órdenes inusuales procedentes de personas de autoridad?
  • ¿Se mide la capacidad de respuesta y aprendizaje continuo?
  • ¿Se fomenta el reporte oportuno sin represalias hacia el empleado?

Una cultura que internaliza estas preguntas está mejor preparada para aprovechar la IA defensiva sin depender únicamente de herramientas. La IA ofensiva puede acelerar los ataques, pero una cultura fuerte puede amortiguar el impacto al promover decisiones correctas en el momento más crítico. 

El futuro de la resiliencia es simbiótico

La IA generativa no es un enemigo ni una amenaza que haya nacido de la nada; es el acelerador de riesgos que ya existían. Su capacidad para industrializar y personalizar el ataque nos obliga a replantear nuestras prioridades.

En esta carrera tecnológica, la lección para 2026 es clara: la tecnología más avanzada es solo tan efectiva como la cultura que la sostiene. Para el liderazgo de seguridad, el imperativo estratégico ya no es solo elegir entre un stack de herramientas defensivas, sino construir una organización donde la cibercultura sea la primera línea de defensa.

Las organizaciones que sigan viendo al colaborador como el "eslabón débil" seguirán siendo vulnerables, sin importar cuán avanzadas sean sus soluciones técnicas. Por el contrario, las empresas que logren transformar a cada individuo en un sensor activo y consciente establecerán un nuevo estándar de resiliencia operativa.

En un mundo donde la batalla parece ser de IA contra IA, el factor decisivo seguirá siendo el criterio humano. El algoritmo puede crear el engaño con una perfección técnica asombrosa, pero solo una cultura fuerte tiene la capacidad de cuestionarlo y detenerlo antes de que se convierta en una crisis.

Contáctanos

Bismark Rodríguez

Socio Líder Regional de Consultoría, PwC Centroamérica y Rep. Dominicana, PwC Interaméricas

Email

Edwin Orrico

Gerente Senior de Ciberseguridad y Privacidad, PwC Interaméricas

Email

Susana Pino

Socia Líder Regional de Risk Assurance Services (RAS), PwC Interaméricas

Email

Isaac Rodríguez Rojas

Gerente de Ciberseguridad y Privacidad, PwC Interaméricas

Email

Gabriel García Carrasquel

Gerente de Ciberseguridad y Privacidad, PwC Interaméricas

Email

Síguenos