Portada

Microsoft mantiene equipo de seguridad para pruebas de inteligencia artificial desde 2021

Por Redacción

Redmond, 20 de marzo de 2026.- Microsoft mantiene un equipo multidisciplinario dedicado a probar sus propios productos de inteligencia artificial, conocido como ‘equipo rojo’ o red team, que la compañía se atribuye haber formado de manera pionera en 2021.

Brad Smith, presidente de Microsoft, declaró que la empresa cuenta con principios definidos y publicados que crean guardarraíles para el desarrollo tecnológico. ‘Nos mantenemos en la carretera dentro de ellos. No se trata solo de cuándo debemos usar la tecnología, sino también de cuándo no debemos usarla’, señaló el ejecutivo.

Según un reporte de EL PAÍS, este equipo tiene la función de hackear los propios productos de la compañía para identificar vulnerabilidades antes de su lanzamiento. La práctica del red teaming tiene origen militar y se aplica en ciberseguridad desde hace décadas.

El contexto actual incluye un debate sobre el uso de inteligencia artificial en aplicaciones de guerra. Se ha citado el caso de Anthropic demandando al Pentágono y la cancelación de un acuerdo de Microsoft con el Pentágono en 2021 como referencias del discusión en el sector tecnológico.

Microsoft se posiciona así como una de las empresas que estableció tempranamente mecanismos de seguridad interna para sus desarrollos de IA, aunque no se especificaron los métodos concretos de hacking utilizados por el equipo ni los principios detallados que guían sus operaciones.