Un único anuncio bastó para darle la vuelta al ambiente casi de un día para otro.
En cuestión de días, el asistente de IA estrella de OpenAI se encontró con una oleada de usuarios enfadados, una avalancha de valoraciones de una estrella y desinstalaciones masivas, después de que se conociera su alianza con el Departamento de Defensa de EE. UU.
Un fin de semana que cambió el ánimo en torno a ChatGPT
La aplicación móvil de OpenAI llevaba tiempo instalada en lo alto de los rankings de las tiendas de aplicaciones y, para mucha gente, era poco más que una herramienta de productividad inofensiva. Esa imagen se resquebrajó a finales de febrero de 2026.
A partir del 28 de febrero, las desinstalaciones de la app de ChatGPT se dispararon. Según cifras publicadas en Francia, los borrados aumentaron alrededor de un 295% en un solo fin de semana, un salto casi inaudito para una aplicación de consumo masivo que ya había alcanzado una fase de madurez.
Los usuarios no se limitaron a marcharse en silencio. Las valoraciones se desplomaron, con un incremento estimado del 775% en las reseñas negativas, convirtiendo las tiendas de aplicaciones en un lugar para desahogarse entre frustración y desconfianza.
Hasta ese momento, las críticas a ChatGPT solían centrarse en alucinaciones, sesgos o el precio de la suscripción. Esta nueva reacción es distinta: apunta menos a las limitaciones técnicas del producto y más a las decisiones políticas y éticas de OpenAI.
El detonante: un acuerdo con el Departamento de Defensa de EE. UU.
El punto de ruptura llegó con el anuncio de una colaboración entre OpenAI y el Departamento de Defensa de EE. UU., al que muchos medios extranjeros todavía se refieren por su denominación histórica como el “Departamento de Guerra”.
OpenAI presentó el acuerdo como una vía para respaldar casos de uso de “defensa y seguridad nacional”. Esa formulación encendió de inmediato las alarmas entre quienes temen que la IA termine aplicándose a la guerra, la vigilancia o la toma de decisiones automatizada en zonas de conflicto.
En redes sociales, seguidores veteranos de ChatGPT describieron la noticia como una traición. Muchos afirmaron que no les incomodaba la IA para educación, escritura o programación, pero que marcaban una línea roja en cualquier vínculo con sistemas de armas o inteligencia militar.
Para una parte importante del público, la asociación rompió la idea de que ChatGPT era una herramienta neutral y civil, sostenida por intenciones puramente benévolas.
La polémica se suma al escepticismo ya existente sobre Sam Altman, consejero delegado de OpenAI, cuyo liderazgo se ha puesto en duda en varias ocasiones desde la agitada crisis en la cúpula a finales de 2023. Para sus críticos, el acuerdo en materia de defensa confirmaría que las ambiciones comerciales y estratégicas pesan ahora más que la retórica original de “seguridad ante todo”.
Malas reseñas: de qué se quejan realmente los usuarios
De fallos y suscripciones a ética y confianza
Antes de este episodio, las reseñas negativas de la app móvil de ChatGPT mencionaban a menudo la limitación de las versiones gratuitas, problemas para iniciar sesión o el acceso a GPT-4 restringido tras una suscripción. Esas quejas no han desaparecido, pero han dejado de ser el eje del debate.
En los últimos días, los comentarios se han desplazado hacia:
- Enfado por la supuesta “militarización” de una herramienta de IA de uso civil
- Exigencias de mayor transparencia sobre acuerdos con gobiernos
- Miedo a que los datos se compartan con organismos de defensa o agencias de inteligencia
- Llamamientos al boicot de la aplicación hasta que existan garantías éticas
Algunos reseñadores reconocen de forma explícita que la tecnología les sigue pareciendo impresionante, pero que ya no quieren apoyarla económicamente ni mantenerla en el teléfono mientras esos acuerdos sigan en vigor.
Una crisis de confianza, no solo una queja de experiencia de usuario
El salto de aproximadamente un 775% en las valoraciones bajas sugiere que los usuarios no están simplemente molestos. Están replanteándose si los objetivos de la empresa encajan con sus propios valores.
Lo habitual es que las aplicaciones sufran caídas de valoración tras fallos, rediseños o subidas de precio. Esta tormenta, en cambio, llega tras un anuncio corporativo. Y esa diferencia es clave: corregir la interfaz o añadir funciones no recompone por sí solo una fractura moral.
Los competidores ven una oportunidad
Los problemas de ChatGPT han favorecido, de forma inevitable, a sus rivales. El asistente de Anthropic, Claude, por ejemplo, ha subrayado públicamente que no ha firmado un acuerdo con el Departamento de Defensa de EE. UU.
La empresa ha aludido a desacuerdos sobre cómo podría utilizarse la IA para vigilancia y armas autónomas, con lo que intenta presentarse como más prudente ante aplicaciones militares.
Al desmarcarse de contratos de defensa, Claude se ofrece como alternativa para quienes buscan una IA avanzada sin vínculos con el sector armamentístico.
Otros actores -desde proyectos de código abierto hasta startups más pequeñas- también se han movido con rapidez para recalcar sus cartas éticas. Algunas ponen el acento en estructuras de gobernanza transparentes, límites a los accionistas o prohibiciones claras del uso militar ofensivo.
Sam Altman vuelve al centro de la polémica
Sam Altman lleva años siendo una figura polarizante en el mundo tecnológico. Para unos, es un visionario capaz de llevar la IA al gran público; para otros, difumina la frontera entre la investigación en seguridad y una expansión comercial agresiva.
La asociación con defensa ha reactivado esas discusiones. Sus detractores sostienen que OpenAI se ha alejado de su misión original sin ánimo de lucro y que ahora actúa como un contratista convencional que compite por acuerdos estatales, especialmente en sectores estratégicos como la defensa.
Quienes lo defienden responden que el trabajo en seguridad nacional puede incluir usos no letales: ciberseguridad, logística, simulación o planificación de respuesta ante catástrofes. Insisten en que rechazar cualquier interacción con organismos de defensa dejaría fuera a la IA de ámbitos donde podría evitar daños o estabilizar crisis.
| Preocupación | Argumento a favor del acuerdo | Argumento crítico |
|---|---|---|
| Uso en la guerra | Enfocado solo en herramientas defensivas | Las herramientas pueden derivar hacia usos ofensivos |
| Privacidad de datos | Los contratos pueden incluir salvaguardas estrictas | El riesgo de acceso gubernamental sigue siendo alto |
| Confianza pública | Las alianzas de seguridad nacional son normales | Daña la imagen civil y amistosa de la IA |
Qué significa esto para los usuarios de a pie
Para la mayoría de personas, ChatGPT sigue comportándose igual en pantalla: redacta correos, genera planes de clase, prepara borradores de código. Los algoritmos que sostienen las conversaciones no se han convertido de repente en armas.
La disputa tiene más que ver con la gobernanza y el rumbo. En el fondo, los usuarios preguntan: si dependo de esta herramienta a diario, ¿quién decide en última instancia su futuro? ¿Y dónde marca sus límites morales?
Algunas personas optan por seguir usando ChatGPT, pero presionando a OpenAI para que publique más detalles del acuerdo, entre ellos:
- Límites claros sobre tipos de uso militar
- Auditorías independientes de las prácticas de seguridad
- Informes públicos sobre contratos con gobiernos
Otras prefieren desinstalar la app directamente y cambiar a alternativas que comunican posturas más estrictas sobre el trabajo con defensa, o a modelos locales que se ejecutan en sus propios dispositivos.
Entender los riesgos y los compromisos
Cuando las empresas de IA colaboran con instituciones de defensa, se acumulan varios riesgos. La tecnología de doble uso puede servir tanto para fines pacíficos como para fines violentos. Una herramienta entrenada para analizar imágenes por satélite y coordinar ayuda humanitaria puede, con la misma facilidad, apoyar sistemas de selección de objetivos.
También está el riesgo de ampliación de funciones. Un modelo desplegado al principio para traducción o logística podría terminar afinándose para simulaciones de campo de batalla. Incluso si el contrato limita el uso al inicio, la presión política o las emergencias pueden erosionar esas restricciones.
Ahora bien, negarse por completo a colaborar también tiene costes. Los Estados buscarán capacidades reforzadas por IA de todos modos. Si los actores más preocupados por la seguridad se levantan de la mesa, competidores menos escrupulosos pueden ocupar ese espacio y moldear la IA militar con menos frenos éticos.
Cómo pueden responder los usuarios de forma práctica
Quienes se sientan inquietos por las noticias recientes tienen varias opciones concretas más allá de dejar una reseña de una estrella.
- Comparar políticas de privacidad y declaraciones éticas de distintas herramientas de IA
- Usar las versiones web en lugar de apps móviles y limitar, en la medida de lo posible, el intercambio de datos
- Probar modelos más pequeños o de código abierto para tareas sensibles
- Contactar con los proveedores para pedir políticas explícitas sobre uso militar
- Apoyar a grupos de investigación y ONG que vigilan el uso de la IA en la guerra
Otra posibilidad es separar tareas. Algunos usuarios mantienen ahora un asistente “de propósito general” para contenido inofensivo y recurren a herramientas locales, sin conexión, para cualquier cosa que implique datos personales, médicos o políticos. Dividir el uso reduce la exposición si los acuerdos de un proveedor vuelven a cambiar de rumbo.
Para muchos, el pico de reseñas negativas y desinstalaciones es menos una ruptura definitiva que un aviso serio. Indica que el público está observando hacia dónde se dirige la IA generativa y que las líneas éticas marcadas por los usuarios pueden provocar una reacción rápida y medible cuando sienten que se han cruzado.
Comentarios
Aún no hay comentarios. ¡Sé el primero!
Dejar un comentario