Copilot, el entorno de herramientas de inteligencia artificial de Microsoft, ha ganado relevancia en poco tiempo como la gran apuesta de la compañía por integrar la IA en todos sus productos. Su objetivo es simplificar tareas, mejorar flujos de trabajo y ofrecer soluciones inteligentes tanto a empresas como a usuarios finales. Pero, como ocurre a menudo en ciberseguridad, cuanto más presente está una tecnología, más atractiva se vuelve para quienes buscan darle un uso malicioso. Y eso es precisamente lo que ha revelado un nuevo informe de seguridad.
Investigadores de Datadog Security Labs han documentado una técnica de phishing bautizada como “CoPhish”, que se basa en el uso de agentes creados en Copilot Studio para ejecutar ataques de consentimiento OAuth. Este sistema, lejos de ser una vulnerabilidad clásica, aprovecha las propias funciones legítimas de Copilot Studio para construir interfaces engañosas, alojadas en dominios reales de Microsoft, lo que complica su detección y refuerza la legitimidad percibida por la víctima.
La técnica consiste en crear un agente dentro de Copilot Studio, al que se le asigna una interfaz personalizada. Esa interfaz solicita a los usuarios que inicien sesión con sus credenciales Microsoft, pero en realidad está diseñada para capturar los tokens OAuth asociados, sin necesidad de comprometer directamente contraseñas. Una vez conseguido el token, los atacantes pueden acceder a servicios como Outlook, Teams, OneDrive o SharePoint con los permisos concedidos por el usuario, incluyendo lectura y escritura de correos, chats, calendarios o archivos.
Uno de los aspectos más preocupantes es que el dominio utilizado para alojar el agente malicioso es legítimo: copilotstudio.microsoft.com. Esto evita que muchos sistemas de seguridad basados en listas negras lo bloqueen y genera una falsa sensación de seguridad entre los usuarios, acostumbrados a desconfiar de URLs extrañas pero no de subdominios oficiales. La combinación entre un aspecto profesional, la marca Microsoft y un flujo de login familiar hace que la trampa resulte altamente efectiva.
Microsoft ha reconocido el informe y asegura que está evaluando el alcance del problema. Mientras tanto, los investigadores han publicado una serie de recomendaciones para minimizar riesgos. Entre ellas destacan la configuración de políticas de consentimiento más restrictivas, la supervisión activa de nuevos agentes creados en el entorno Copilot Studio, y el control estricto de los permisos concedidos a aplicaciones de terceros. También se sugiere deshabilitar el consentimiento del usuario individual y optar por flujos de aprobación centralizados en entornos corporativos.
Para las empresas que ya han integrado Copilot Studio en sus procesos, este descubrimiento implica una revisión urgente de su postura de seguridad. La flexibilidad que ofrece la herramienta, diseñada para democratizar la creación de asistentes con IA, también puede ser su punto débil si no se acompaña de controles adecuados. Y en un momento en que las credenciales y los accesos OAuth se han convertido en objetivos prioritarios para actores maliciosos, cualquier vector que facilite ese acceso debe considerarse de riesgo elevado.
Lo más inquietante de este caso es que no se trata de una brecha, sino de un uso creativo de las capacidades disponibles. La inteligencia artificial no solo está transformando cómo trabajamos, sino también cómo atacamos y cómo somos atacados. Y eso obliga a repensar no solo la tecnología, sino también las políticas, la formación y los límites que ponemos a su uso. Porque cuando incluso una herramienta como Copilot puede convertirse en un vector de phishing, la línea entre ayuda y amenaza se vuelve más delgada que nunca.
Más información
La entrada Copilot usado en una nueva técnica de phishing se publicó primero en MuyComputer.


