26 oct. 2020

MITRE lanza matriz de amenazas para Machine Learning

Microsoft y MITRE, en colaboración con una docena de otras organizaciones, han desarrollado un marco diseñado para ayudar a identificar, responder y remediar ataques dirigidos a sistemas de aprendizaje automático y Machine Learning (ML).

Dichos ataques, dice Microsoft, han aumentado significativamente en los últimos cuatro años y se espera que continúen evolucionando. Sin embargo, a pesar de eso, las organizaciones aún tienen que aceptar el aprendizaje automático adverso, dice Microsoft.

De hecho, una encuesta reciente realizada por el gigante tecnológico entre 28organizaciones reveló [PDF] que la mayoría de ellas (25) no tienen las herramientas necesarias para proteger los sistemas de aprendizaje automático y buscan explícitamente orientación.

"Descubrimos que la preparación no se limita solo a organizaciones más pequeñas. Hablamos con compañías Fortune 500, gobiernos, organizaciones sin fines de lucro y organizaciones pequeñas y medianas", dice Microsoft.

The Adversarial ML Threat Matrix, que Microsoft ha lanzado en colaboración con MITRE, IBM, NVIDIA, Airbus, Bosch, Deep Instinct, Two Six Labs, Cardiff University, University of Toronto, PricewaterhouseCoopers, Software Engineering Institute en Carnegie Mellon University, y el Berryville Institute of Machine Learning, es un marco abierto centrado en la industria que tiene como objetivo abordar este problema.

Según un informe de Gartner citado por Microsoft, se espera que el 30% de todos los ciberataques de IA para 2022 aprovechen el envenenamiento de datos de entrenamiento, el robo de modelos o las muestras adversas para atacar los sistemas impulsados por el aprendizaje automático.

El marco proporciona información sobre las técnicas empleadas por los adversarios cuando se dirigen a los sistemas de machine learning y está dirigido principalmente a los analistas de seguridad. Estructurada como el marco de ATT&CK, la Matriz de amenazas de ML Adversarial se basa en ataques observados que han sido examinados como efectivos contra los sistemas de ML de producción.

Los ataques dirigidos a estos sistemas son posibles debido a las limitaciones inherentes que subyacen a los algoritmos de ML y requieren un nuevo enfoque de seguridad y un cambio en la forma en que se modela el comportamiento del adversario cibernético, para garantizar el reflejo preciso de los vectores de amenazas emergentes, así como el aprendizaje automático adversario en rápida evolución. ciclo de vida del ataque.

"MITRE tiene una amplia experiencia con problemas de múltiples partes interesadas y técnicamente complejos. […] Para tener éxito, sabemos que debemos aportar la experiencia de una comunidad de analistas que comparten datos de amenazas reales y mejoran las defensas. Y para que eso funcione, todas las organizaciones y analistas involucrados deben estar seguros de que cuentan con una parte neutral y confiable que pueda agregar estos incidentes del mundo real y mantener un nivel de privacidad, y lo tienen en MITRE", dijo Charles Clancy, senior vicepresidente y gerente general de MITRE Labs.

El marco recién lanzado es un primer intento de crear una base de conocimiento sobre la forma en que los sistemas de aprendizaje automático pueden ser atacados y las empresas asociadas lo modificarán con la información recibida de la comunidad de seguridad y aprendizaje automático. Por lo tanto, se alienta a la industria a ayudar a llenar los vacíos y a participar en los debates de este Grupo de Google.

Este esfuerzo está dirigido a los analistas de seguridad y la comunidad de seguridad en general: la matriz y los estudios de caso están destinados a ayudar en la elaboración de estrategias de protección y detección; el framework siembra ataques en los sistemas ML, para que puedan realizar con cuidado ejercicios similares en sus organizaciones y validar las estrategias de monitoreo.

Fuente: SecurityWeek

0 comentarios:

Publicar un comentario

Gracias por dejar un comentario en Segu-Info.

Gracias por comentar!