Si algo hemos aprendido en los últimos tiempos es que la inteligencia artificial puede ser tan útil como peligrosa. Las promesas de los agentes conversacionales y asistentes de codificación suenan cada vez más atractivas, pero también están empezando a dejar un reguero preocupante de errores graves. Y el último caso, protagonizado por la herramienta de línea de comandos de Gemini, es un ejemplo perfecto de por qué no deberías usar este tipo de soluciones con la misma confianza que depositas en un profesional humano. Especialmente si no eres uno.
Todo empezó cuando un usuario —no desarrollador profesional, sino un gestor de producto curioso— decidió probar Gemini Code Assist a través de su CLI. Su intención era sencilla: generar un script para automatizar el borrado de carpetas específicas, manteniendo a salvo el resto del sistema. Lo que no esperaba era que, siguiendo literalmente las instrucciones proporcionadas por Gemini, acabaría borrando directorios personales clave, incluyendo todo su entorno de trabajo. Sin confirmaciones, sin advertencias. Solo una orden devastadora: rm -rf $FOLDER.
Para entender mejor el problema, conviene explicar qué pasó realmente. El asistente propuso usar una variable de entorno para definir el directorio a eliminar, y a continuación incluyó una línea para ejecutarlo sin supervisión. El fallo crítico llegó cuando, debido a una concatenación de errores de interpretación y ejecución, la variable quedó vacía, lo que en Linux equivale a ejecutar rm -rf / en el peor de los casos o rm -rf desde el directorio activo en el mejor. Sea como fuere, el resultado fue la pérdida completa de datos en cuestión de segundos.
Podría pensarse que este fue un fallo excepcional, que podría haberse evitado con más conocimientos técnicos. Pero ese es precisamente el punto: estas herramientas se están popularizando entre personas que no tienen formación en desarrollo, y que las ven como una forma sencilla de crear scripts, aplicaciones o automatizaciones. La comodidad se ha convertido en una trampa. El afectado lo reconoce abiertamente: no tenía conocimientos avanzados de CLI, y confiaba en que Gemini le proporcionaría soluciones seguras. No fue así.
El incidente pone en evidencia una realidad que va mucho más allá de Google o de Gemini: confiar ciegamente en la IA es un error. Ni siquiera las mejores herramientas actuales están libres de alucinaciones, omisiones y respuestas peligrosamente erróneas. Y cuando hablamos de código que interactúa directamente con tu sistema, las consecuencias pueden ser irreversibles. Ninguna tecnología debería ejecutarse sin una capa de supervisión humana consciente y crítica.
Pero también hay que señalar una responsabilidad compartida. Las empresas que ofrecen estos servicios deberían extremar las precauciones y establecer límites claros sobre qué comandos pueden sugerirse o ejecutarse. No se trata de censurar funcionalidades, sino de proteger al usuario de sí mismo y de una falsa sensación de seguridad. Especialmente cuando hablamos de asistentes que se promocionan como accesibles y útiles para todo tipo de perfiles, desde profesionales hasta entusiastas.
Este caso no es solo una anécdota; es una advertencia. El propio usuario afectado ha compartido su experiencia con transparencia, reconociendo su desconocimiento y su confianza excesiva, pero también apuntando a un problema estructural en cómo estas herramientas están siendo presentadas al público. La inteligencia artificial puede ser una aliada poderosa, pero como toda herramienta, necesita usarse con cabeza. Y, como acabamos de comprobar, también necesita ser diseñada con responsabilidad.
Más información
La entrada El día que Gemini borró los archivos de un usuario se publicó primero en MuyComputer.