La Inteligencia Artificial y el Machine Learning usada por los cibercriminales se forman con la misma lógica y funcionalidad que utilizan las organizaciones legítimas
El uso malintencionado de la Inteligencia Artificial (IA) y el Machine Learning (ML) está empezando a posicionarse como uno de los nuevos vectores de ataques que tendremos presente en los riesgos de ciberseguridad los próximos años. La IA y el ML empiezan a ser participe en vectores de ataque y protección de organizaciones.
Era solo cuestión de tiempo que los ciberdelincuentes aprovecharan las ventajas de la IA para encontrar vulnerabilidades concretas en organizaciones debido a la estrategia de seguridad adoptada por estas.
El objetivo de estos ataques basados en Inteligencia sigue siendo los de siempre. Políticas, ataques de la competencia para filtrar propiedad intelectual, o ataques con objetivos financieros para la obtención de fondos, la lista es interminable.
La IA y el ML normalmente son consideradas tecnologías que se usaran para el “bien” pero como dijo el Tío Ben “Todo poder conlleva una gran responsabilidad”. En malas manos la tecnología puede ser usada con fines destructivos.
¿Pentesting automatizado con IA o ML?
No se suelen ver muchas empresas que realicen pruebas de seguridad automatizadas con ML para evaluar la seguridad de la organización. Aunque las herramientas de pentesting automatizado con IA y ML están aún en una fase relativamente primitiva, encontrar vulnerabilidades en sistemas nunca había sido tan rápido, los análisis que antes tomaban días, ahora se detectan en apenas unos minutos.
Gracias a la computación en la nube y el acceso a CPU/GPU con la suficiente potencia como para perpetrar un ataque efectivo aumenta el riesgo de que estos ciberdelincuentes se conviertan en expertos en el manejo de IA/ML los cuales fueron diseñados con un buen propósito. Cuando la IA y el ML se combinan, pueden dar lugar a plataformas de automatización de explotación de vulnerabilidades y nos acercamos a una industrialización de la inteligencia para romper las ciberdefensas que originariamente se constituyeron con esta tecnología. Equipos de TI y SecDevOps están haciendo uso de estas tecnologías para obtener información de estas operaciones y los ciberatacantes siguen el mismo camino.
También continuamos con la amenaza de las “botnets”. Aunque Mirai fue la que tuvo más repercusión por causar estragos generalizados, ahora hay variantes que usan nuevos vectores de ataques para crear hordas de equipos zombies de dispositivos IoT. Incluso ataques IoT industriales más complejos con el objetivo de derribar instalaciones nucleares o incluso ciudades inteligentes enteras.
El nuevo escenario y las aspiraciones de la IA
En definitiva, nos encontramos ante un nuevo escenario que pondrá a prueba las mejores defensas (otra vez) con vectores de ataques más sofisticados que harán uso de IA. Lo único que evita que esto sea una tecnología perfecta para “buenos” o “malos” es como diseñar el proceso de aprendizaje automático para reducir en gran medida los falsos positivos y falsos negativos.
Eso es en lo que aspiran convertirse las nuevas tecnologías «cognitivas», más que la suma de sus partes de IA y ML, no solo detectando patrones de actividad maliciosa en Big data con total precisión, sino también justificando recomendaciones sobre cómo tratarlos proporcionando contexto para la toma de decisiones.