Las redes neuronales pueden ocultar malware y los científicos se preocupan

Las redes neuronales pueden ocultar malware y los científicos se preocupan

diciembre 15, 2021 0 Por RenzoC


Este artículo es parte de nuestras revisiones de artículos de investigación de IA, una serie de artículos que exploran los últimos hallazgos en inteligencia artificial.

Con sus millones y miles de millones de parámetros digitales, los modelos de aprendizaje profundo pueden hacer muchas cosas: detectar objetos en fotos, reconocer voz, generar texto y ocultar malware. Las redes neuronales pueden integrar cargas útiles maliciosas sin activar software anti-malware, según han descubierto investigadores de la Universidad de California, San Diego y la Universidad de Illinois.

Su técnica de ocultación de malware, EvilModel, arroja luz sobre las preocupaciones de seguridad del aprendizaje profundo, que se ha convertido en un tema candente de discusión en conferencias de aprendizaje automático y ciberseguridad. A medida que el aprendizaje profundo se arraiga en las aplicaciones que usamos todos los días, la comunidad de seguridad debe pensar en nuevas formas de proteger a los usuarios de las amenazas emergentes.

Ocultar malware en modelos de aprendizaje profundo

Cada modelo de aprendizaje profundo se compone de varias capas de neuronas artificiales. Dependiendo del tipo de capa, cada neurona está conectada a todas o parte de las neuronas de su capa anterior y siguiente. La fuerza de estas conexiones se define mediante parámetros digitales que están presentes durante el entrenamiento, a medida que el modelo DL aprende la tarea para la que fue diseñado. Las grandes redes neuronales pueden tener cientos de millones o incluso miles de millones de parámetros.