En la actualidad, la democratización de la IA Generativa ha convertido la ingeniería social en un producto de alta precisión. Mientras las organizaciones incrementan sus inversiones en defensas automatizadas —un paso necesario según los últimos informes de confianza digital—, surge una brecha crítica de gobernanza.
Hoy, la pregunta para el liderazgo en seguridad más allá de si sus herramientas de IA defensiva son capaces de detectar un deepfake; se centra en si la organización posee la madurez cultural para contener el impacto cuando la tecnología falle. La IA es el acelerador de estas capacidades, pero la cibercultura es, y seguirá siendo, el freno de emergencia. ¿Está su estrategia de defensa escalando al ritmo de la IA ofensiva?
Este artículo busca desglosar la dualidad de esta tecnología y por qué el éxito de su estrategia de ciberseguridad dependerá menos del stack tecnológico y más del ADN organizacional.
La IA ha sido uno de los avances tecnológicos más disruptivos de la última década. Hoy, su adopción se traduce en mejoras operativas, automatización y oportunidades de crecimiento en casi todos los sectores. Sin embargo, su impacto también ha alcanzado la seguridad digital de las empresas. La IA generativa está emergiendo como un vector de ataque por sí misma, al acelerar y optimizar tanto la creación de malware como técnicas de ingeniería social que antes requerían inversión de tiempo y especialización humana.
Las herramientas de IA generativa permiten automatizar tareas que antes exigían creatividad humana, como redactar correos electrónicos impecables, construir pretextos convincentes, sintetizar información personal de ejecutivos y orquestar escenarios multicanal —email, mensajes de texto, redes sociales y llamadas telefónicas— que convergen para engañar a la víctima.
Imagina un escenario de un deepfake del CEO solicitando una transferencia urgente, acompañado de un mensaje por WhatsApp y un email con un lenguaje personalizado. Esto deja de ser ciencia ficción para convertirse en una amenaza real y rentable. La capacidad de generar estos componentes a escala y con calidad creíble hace que la ingeniería social pase de ser idea aislada a ser producto de consumo.
Este cambio de paradigma altera la clasificación tradicional de amenazas. Informes confiables como el de Verizon Data Breach Investigations Report (DBIR) 2025, muestran que la ingeniería social y el factor humano siguen siendo vectores críticos en los incidentes de seguridad, con aproximadamente el 60% de las brechas involucrando alguna forma de comportamiento humano, incluyendo errores y manipulación social.
Lo significativo de estos datos es que no hablan de tecnología avanzada ni de vulnerabilidades técnicas. Hablan de personas. Ataques que antes requerían redacción cuidadosa ahora son acelerados con la IA, convirtiendo los ataques de tipo phishing o vishing en eventos más rápidos, más personalizados y difíciles de detectar.
Frente a una ofensiva que opera en milisegundos, la respuesta manual es insuficiente. La IA defensiva no es solo una mejora incremental; es el único medio para igualar la velocidad de los atacantes. En este contexto, las soluciones basadas en IA y Machine Learning se vuelven indispensables para:
El uso de la IA como defensa no es solo un fenómeno teórico. Se encuentra en el centro de las preocupaciones del liderazgo de seguridad. Nuestra última Encuesta Global Digital Trust Insights 2026, nos muestra que la IA encabeza las prioridades de inversión en ciberseguridad. La mayoría de las organizaciones planea aumentar el presupuesto en capacidades basadas en IA —incluyendo inteligencia de amenazas y detección automatizada—, como respuesta directa a un panorama cada vez más complejo.
Este enfoque no sustituye la necesidad humana, sino que amplifica su capacidad de respuesta. Según el Cost of a Data Breach Report 2025 de IBM, las organizaciones que integran IA y automatización de seguridad de manera extensiva logran reducir el ciclo de vida de una brecha en casi 100 días en comparación con aquellas que no lo hacen, lo que representa una eficiencia cercana al 50% en los tiempos de respuesta y contención.
No obstante, incluso las mejores defensas automáticas fracasan sin un componente humano que actúe con criterio ante alertas y señales que todavía requieren interpretación contextual. La IA defensiva es excelente filtrando el ruido, pero cuando un ataque altamente sofisticado logra cruzar esa barrera, ya no estamos ante un problema técnico, sino ante un problema de juicio humano.
Contrario a la visión tradicional que sitúa al usuario como el eslabón final de la cadena, en la era de la IA generativa, la cibercultura es nuestra primera línea de defensa. Cuando un algoritmo es capaz de evadir los filtros técnicos mediante ingeniería social personalizada, el criterio humano es el primer sensor que detecta la anomalía. No es el último recurso; es la base sobre la que descansa toda la arquitectura de seguridad.
La cultura de ciberseguridad no se mide por políticas, certificaciones o firewalls. Se manifiesta en decisiones humanas bajo presión, en la disposición de las personas para cuestionar solicitudes fuera de lo normal, y en la habitualidad con que se reportan comportamientos sospechosos más allá de indicadores técnicos. La cultura se revela cuando nadie está mirando, y esas decisiones marcan la diferencia entre un ataque contenido y una brecha altamente costosa.
Para entender el impacto de esta dinámica, el informe Cost of a Data Breach Report 2025 de IBM señala que hasta un 16% de las organizaciones que han sufrido una brecha de seguridad estuvieron expuestas a ataques impulsados por el uso de la IA. De ese total, el 37% corresponde a ataques de phishing y el 35% a incidentes con deepfakes, ambos significativamente acelerados por la IA generativa.
Estos datos no son una condena al fracaso humano. Son una llamada de atención: la tecnología no basta por sí sola; se necesita una cultura fuerte en la que las personas entiendan el riesgo, por qué existe y cómo actuar correctamente ante él.
Para que la cibercultura sea una verdadera primera línea de defensa, debe ser medible. El liderazgo de seguridad no debería conformarse con tasas de finalización de cursos; debe observar indicadores que reflejen la resiliencia operativa real:
Si la cultura organizacional ya era un desafío antes de la llegada masiva de IA, la aceleración de técnicas ofensivas la expone aún más. La diferencia entre una organización resiliente y una vulnerable no está únicamente en sus inversiones tecnológicas, sino en cómo la primera línea de defensa trabaja en sintonía con las herramientas como un escudo de capacidades culturales reales:
Una cultura que internaliza estas preguntas está mejor preparada para aprovechar la IA defensiva sin depender únicamente de herramientas. La IA ofensiva puede acelerar los ataques, pero una cultura fuerte puede amortiguar el impacto al promover decisiones correctas en el momento más crítico.
La IA generativa no es un enemigo ni una amenaza que haya nacido de la nada; es el acelerador de riesgos que ya existían. Su capacidad para industrializar y personalizar el ataque nos obliga a replantear nuestras prioridades.
En esta carrera tecnológica, la lección para 2026 es clara: la tecnología más avanzada es solo tan efectiva como la cultura que la sostiene. Para el liderazgo de seguridad, el imperativo estratégico ya no es solo elegir entre un stack de herramientas defensivas, sino construir una organización donde la cibercultura sea la primera línea de defensa.
Las organizaciones que sigan viendo al colaborador como el "eslabón débil" seguirán siendo vulnerables, sin importar cuán avanzadas sean sus soluciones técnicas. Por el contrario, las empresas que logren transformar a cada individuo en un sensor activo y consciente establecerán un nuevo estándar de resiliencia operativa.
En un mundo donde la batalla parece ser de IA contra IA, el factor decisivo seguirá siendo el criterio humano. El algoritmo puede crear el engaño con una perfección técnica asombrosa, pero solo una cultura fuerte tiene la capacidad de cuestionarlo y detenerlo antes de que se convierta en una crisis.
Bismark Rodríguez
Socio Líder Regional de Consultoría, PwC Centroamérica y Rep. Dominicana, PwC Interaméricas
Edwin Orrico
Gerente Senior de Ciberseguridad y Privacidad, PwC Interaméricas
Susana Pino
Socia Líder Regional de Risk Assurance Services (RAS), PwC Interaméricas
Isaac Rodríguez Rojas
Gerente de Ciberseguridad y Privacidad, PwC Interaméricas
Gabriel García Carrasquel
Gerente de Ciberseguridad y Privacidad, PwC Interaméricas