El uso de la inteligencia artificial Grok, desarrollada por la empresa xAI de Elon Musk, se ha extendido a varias agencias del Gobierno federal de Estados Unidos, generando una creciente preocupación entre defensores de la privacidad, especialistas en ética gubernamental y expertos en seguridad tecnológica.

De acuerdo con fuentes familiarizadas con el tema, el Departamento de Eficiencia Gubernamental (DOGE), liderado por un equipo cercano a Musk, ha estado utilizando una versión personalizada del chatbot Grok para analizar datos y generar informes internos. Grok fue desarrollada en 2023 como parte del ecosistema tecnológico de Musk, que incluye a X (antes Twitter), Tesla y SpaceX.

Aunque Grok aún no cuenta con la aprobación formal del Departamento de Seguridad Nacional (DHS), su uso habría sido autorizado por funcionarios del DOGE y del propio DHS. La herramienta se ha empleado para responder consultas, generar reportes y realizar análisis de datos, lo que ha levantado alarmas sobre el acceso a información potencialmente confidencial.

Cinco expertos en ética y tecnologías de la información han advertido que este despliegue podría violar leyes de privacidad y seguridad, especialmente si la IA está procesando datos sensibles o clasificados. También preocupa la posibilidad de que los datos gubernamentales sean utilizados para entrenar al propio modelo de IA, otorgando a Musk y sus empresas acceso privilegiado a información no pública relacionada con contrataciones y procesos internos del Gobierno, lo que podría representar un conflicto de intereses y una ventaja competitiva desleal.

Un portavoz del DHS negó que se haya obligado a empleados del DOGE a usar Grok. “DOGE no ha presionado a ningún empleado para que use ninguna herramienta o producto en particular”, afirmó. “DOGE está aquí para encontrar y combatir el despilfarro, el fraude y el abuso”.

El uso de Grok se da en un contexto de reestructuración impulsada por la administración del presidente Donald Trump, que ha promovido una mayor incorporación de tecnologías emergentes mediante esquemas regulatorios más flexibles. Sin embargo, la falta de controles claros y transparencia ha generado inquietud sobre los límites del uso de tecnología privada en la esfera pública.

Hasta el momento, ni Elon Musk ni representantes de xAI han emitido comentarios sobre el asunto. La situación continúa en desarrollo y podría escalar si se determina que se han vulnerado regulaciones federales sobre el uso de tecnología en el Gobierno.