{{item.title}}
{{item.text}}
{{item.text}}
La IA era solo una palabra de moda ayer, pero hoy se ha convertido en la norma. Hemos dejado atrás el simple hecho de hablar de IA: la conversación ha evolucionado hacia los agentes de IA como la próxima frontera. La innovación en este ámbito se está acelerando, y las empresas están identificando rápidamente formas prácticas de integrar agentes de IA en sus operaciones.
Al mismo tiempo, crece la preocupación por las nuevas amenazas y riesgos en ciberseguridad que los agentes de IA pueden introducir. Los organismos de normalización y los reguladores están trabajando activamente para definir lineamientos y desarrollar regulaciones que aborden estos desafíos emergentes.
Esto se encuentra en el corazón de la IA responsable: ¿cómo pueden las organizaciones adoptar rápidamente la IA y los agentes de IA sin que esa innovación se produzca a costa de la seguridad y la confianza?
Hoy en día, las organizaciones operan en mundos paralelos. Los sistemas heredados siguen respaldando operaciones críticas, mientras que los entornos modernos que los acompañan crecen rápidamente para abarcar tanto herramientas y agentes de IA internos como de terceros.
Los equipos de ciberseguridad y riesgo están siguiendo el ritmo de actividades aceleradas y potenciadas por IA en tres frentes: dentro de la organización, desde terceros y desde los actores de amenazas.
Los equipos de producto están habituados a operar en la vanguardia de las capacidades de la IA; sin embargo, hoy prácticamente toda la organización participa en el desarrollo de soluciones digitales. La IA está impulsando la innovación desde la base, a medida que los colaboradores experimentan y crean sus propias herramientas, lo que en algunos casos da lugar a nuevas formas de tecnología de la información no gestionada. Al mismo tiempo, los responsables del negocio aprovechan la IA para simplificar procesos, mantenerse relevantes y responder a las crecientes demandas de impacto y valor.
Herramientas de terceros que fueron adquiridas hace años pueden incorporar capacidades de IA de forma repentina, lo que genera riesgos inesperados. Esta situación plantea nuevos retos para los equipos de ciberseguridad, que ahora deben gestionar tanto el uso autorizado como el no autorizado de la IA a lo largo de toda la cadena de suministro de software.
Al mismo tiempo, la IA ha ampliado el alcance del panorama de amenazas. Los actores maliciosos están utilizando herramientas de IA para escalar y automatizar sus ataques, ofreciendo estas capacidades en mercados clandestinos a cambio de un pago.
En conjunto, todos estos factores obligan a los equipos de ciberseguridad a encontrar formas más rápidas y efectivas de identificar, evaluar y gestionar los riesgos.
En la era de la inteligencia artificial, los equipos de ciberseguridad tienen un rol amplio y estratégico: aprovechar la automatización para fortalecer los controles de riesgo, simplificar tareas de seguridad complejas e incorporar nuevas capacidades que permitan a la organización avanzar con mayor agilidad. Este enfoque consolida un cambio de paradigma similar al vivido con otras transformaciones tecnológicas, como la integración temprana de la seguridad y la adopción de la computación en la nube.
Para mantenerse al ritmo de estos cambios, los equipos de ciberseguridad deben trabajar de manera más cercana con los equipos de producto, participando activamente en el ciclo de vida del desarrollo de soluciones con inteligencia artificial, tanto como aliados estratégicos como impulsores de la innovación.
La mejora de capacidades, la automatización y el cambio del modelo de riesgo también representan oportunidades clave:
Los equipos de ciberseguridad deben dejar de ver el talento altamente especializado como la única solución a todos los desafíos. En su lugar, pueden aprovechar ese conocimiento para crear agentes de IA que asuman tareas repetitivas o de alto volumen. La IA puede apoyar evaluando incidentes, clasificando vulnerabilidades de forma automática, priorizando alertas de amenazas y analizando comunicados de proveedores para identificar posibles riesgos. Gracias a esto, los equipos de defensa pueden adaptarse con mayor rapidez que con los enfoques tradicionales y anticiparse mejor a amenazas en constante evolución.
Cada avance en automatización permite que los equipos de ciberseguridad liberen tiempo y se concentren en tareas manuales más complejas y de mayor valor, que también pueden ser optimizadas. Esto les brinda la oportunidad de apoyar de manera más directa al negocio en la evaluación de riesgos y en la implementación de cambios de forma más informada y oportuna.
La implementación de procesos de gestión del cambio y evaluación apoyados por agentes de IA permite analizar el riesgo de manera automática y continua. Esto ayuda a la organización a dejar atrás controles operativos basados en revisiones manuales y heredadas, y avanzar hacia modelos más ágiles, automatizados y enfocados en el nivel real de riesgo, fortalecidos por la IA.
A continuación, algunas acciones para empezar a generar confianza, habilitar la experimentación y fortalecer la gobernanza en la era de la IA:
Este artículo se basa en el artículo original “Responsible AI and cybersecurity: what you need to know” de PwC Estados Unidos. La revisión fue ejecutada por el equipo de PwC Colombia.
{{item.text}}
{{item.text}}