Saltar al contenido

Nueva regulación de IA: Nuevas leyes buscan frenar el abuso de deepfakes, pero expertos ven grandes lagunas.

Mujer preocupada usando el móvil con libro abierto y balanza sobre la mesa en una habitación iluminada.

La pantalla parpadea un instante y, de pronto, aparece su cara.

Se ríe mirando a cámara y suelta frases que jamás pronunció. La voz suena inquietantemente real, y el fondo resulta familiar: salón, estantería con libros, una planta que parece demasiado perfecta. El ambiente se enrarece cuando el clip cae en el grupo familiar de WhatsApp y alguien pregunta: “¿Eres tú de verdad?”. Es un deepfake. Otra vez. Ese momento ya lo conocemos: un enlace rápido, un vídeo de 20 segundos, y de golpe se deshilacha la confianza en todo lo digital. Y mientras los políticos prometen poner orden con nuevas leyes de IA, uno hojea los borradores y nota algo: falta una pieza clave. Quizá más que una simple nota a pie de página.

Nuevas leyes, reflejos de siempre: los deepfakes aprenden más rápido que el Estado

Quien recorra estos días los pasillos interminables del Parlamento en Bruselas oirá la misma palabra una y otra vez: deepfakes. En comisiones, en conversaciones discretas, en la pausa del café. La UE se adorna con su Ley de IA, vendida como referente mundial, y a los gobiernos nacionales les encaja el relato del “progreso regulado”. Sobre el papel suena imponente: obligaciones de etiquetado, transparencia, catálogos de sanciones. En la realidad, el tablero es distinto. Los modelos de IA no se entrenan en debates, sino en centros de datos. Y a quien de verdad le tienta el abuso, los textos legales le sirven más como manual para esquivar controles que como freno.

Un caso reciente en Alemania ilustra lo fácil que puede torcerse esto. En verano circuló por TikTok un vídeo extremadamente creíble de un conocido presentador de televisión que, en un “clip exclusivo”, promocionaba una inversión en criptomonedas de lo más turbia. Sincronización labial impecable, gestos clavados, voz casi indistinguible del original. Miles de usuarios lo compartieron y algunos llegaron a invertir sus ahorros. Días después se confirmó: era íntegramente generado por IA, un deepfake montado a retales. Los investigadores se toparon con un viejo problema disfrazado de novedad: servidores en el extranjero, responsables tras identidades falsas, plataformas amparadas en sus condiciones de uso. Sí, existen delitos de estafa y derechos de la personalidad. Aun así, muchas veces el desenlace se reduce al mismo consejo de siempre: “Denuncia, bloquea, no transfieras dinero”.

Las nuevas normas intentan salir de esa impotencia. Plantean que el contenido generado por IA sea identificable, obligan a los proveedores a evaluar riesgos y pretenden tratar con especial dureza las “aplicaciones de alto riesgo”. Suena coherente. El problema es que, en muchos borradores, los deepfakes no se encuadran de forma consistente en el nivel de riesgo máximo, salvo que se usen explícitamente para manipulación electoral o contra infraestructuras críticas. ¿Y qué pasa con la pornovenganza, los vídeos de candidaturas falsificados o los audios manipulados en un litigio por custodia? Si de verdad se quiere regular el abuso con deepfakes, todavía se mira demasiado a las cabinas electorales y demasiado poco a los chats cotidianos. Seamos francos: nadie lee un reglamento de la UE antes de reenviar un vídeo viral.

Lo que ayuda de verdad ahora: protección en el bolsillo, no solo en el BOE

Cuando la legislación no llega a tiempo, a corto plazo solo queda un enfoque pragmático: herramientas y hábitos que funcionen en el día a día. El primer paso es incómodamente sencillo: pedir una segunda opinión digital. Antes de dar por bueno un vídeo impactante, parar un segundo, comprobar la fuente y buscar si circulan versiones o verificaciones. Cada vez más medios ofrecen canales de verificación, e incluso algunas apps de mensajería están probando botones integrados para “comprobar” contenidos. A la vez, aparecen herramientas que intentan detectar deepfakes con técnicas forenses: análisis de artefactos de imagen, reflejos de luz o microimperfecciones en el audio. No son infalibles. Pero un aviso del tipo “posible contenido generado por IA” ya rebaja la credibilidad del engaño.

La trampa más grande está en otro sitio: confiamos demasiado en nuestra propia vista. Casi todo el mundo cree que lo identificaría “al instante”. Un gesto raro, una sombra extraña, una comisura que no cuadra… parece que debería saltar a la vista. Pero con los modelos actuales ese “test de intuición” cada vez falla más. Muchas víctimas se avergüenzan cuando caen en un deepfake: “¿Cómo pude ser tan tonto/a?”. Ahí está el veneno. La vergüenza silencia, y el abuso se vuelve invisible. Quien hoy se enfrenta al fraude con deepfakes necesita menos autoculpa y más calma colectiva ante el propio error. Aquí equivocarse no es sinónimo de estupidez: es un efecto normal de una tecnología extremadamente realista.

Un experto en derecho penal informático me lo dijo en una conversación, medio cansado y medio furioso:

“Las leyes a menudo están redactadas como si los delincuentes todavía usaran fax. En realidad, hace tiempo que tienen clústeres de GPU en el salón”.

En la práctica, para los usuarios esto se traduce en:

  • En vídeos cargados de emoción (miedo, rabia, codicia), buscar siempre una segunda fuente.
  • Tomarse en serio los clones de voz: ante llamadas raras, comprobarlo devolviendo la llamada a un número conocido.
  • No reenviar contenido íntimo de forma impulsiva: incluso supuestos “leaks” de famosos pueden ser delito.
  • Documentar los casos de deepfake (capturas, enlaces) y denunciarlos cuanto antes, aunque el encaje legal parezca enrevesado.
  • Revisar los ajustes de las plataformas: limitar conscientemente el reenvío automático, la reproducción automática y las funciones de compartir.

Los grandes agujeros: ¿quién responde cuando nadie quiere ser responsable?

El frente más delicado en la regulación de la IA gira alrededor de una pregunta: ¿quién asume la responsabilidad cuando un deepfake destroza vidas? Los creadores de modelos de IA se refugian en condiciones de uso y filtros de seguridad. Las plataformas alegan que no pueden revisar uno a uno miles de millones de publicaciones diarias. Los autores se esconden detrás de VPN y cuentas desechables. ¿Y el Estado? Negocia directivas durante años mientras cada día aparecen nuevos montajes en la red. Ese triángulo de responsabilidad sigue siendo un terreno gris, y las víctimas a menudo se sienten como figurantes en su propio drama.

Las nuevas reglas apuestan con fuerza por obligaciones de transparencia para las empresas: revelar datos de entrenamiento, indicar cuándo se usa IA, informar de “incidentes graves”. Como mecanismo de control, suena bien; en la vida real, suele quedarse en algo abstracto. Para la mujer a la que le han incrustado la cara en un vídeo pornográfico, no es decisivo si el proveedor notificó a tiempo a la autoridad supervisora. Lo que necesita es: retirada rápida, apoyo para conservar pruebas, ayuda psicológica y vías claras para obtener una indemnización. En congresos ya se habla en serio de fondos para víctimas del abuso con IA. Aun así, hoy por hoy casi no existen estructuras accesibles a las que una persona sin conocimientos pueda acudir de inmediato sin tener que pagar a un abogado especializado.

Hay otra brecha evidente: el ritmo. Los modelos de IA mejoran mes a mes, mientras que los textos legales avanzan a cámara lenta. Quien hoy redacta un artículo sobre medios sintéticos, en el fondo legisla para la tecnología de anteayer. Incluso si futuras normas incorporan una obligación de etiquetado de deepfakes, eso no implica que los delincuentes la vayan a respetar. El debate recuerda a los primeros años de internet, cuando se pretendía combatir el spam con obligaciones de aviso legal. La realidad, fría, es esta: la regulación por sí sola nunca detendrá por completo el abuso. Pero sí puede inclinar el terreno de juego, aclarar responsabilidades y estrechar el espacio para modelos de negocio sin escrúpulos.

Lo que queda es un incómodo “entre dos aguas”

Vivimos una etapa de transición en la que el vídeo y el audio están perdiendo su valor como prueba. Antes, una grabación tenía peso, era moneda dura en una disputa. Hoy, incluso ante una entrevista entre lágrimas, toca parar un segundo y preguntarse: ¿podría estar generado? Ese recelo difuso agota. Pero también abre una oportunidad: nos obliga a mirar con más cuidado, a entender la competencia para evaluar fuentes como una habilidad cotidiana, no como un lujo reservado a periodistas o juristas. Los deepfakes nos empujan a desarrollar una nueva forma de escepticismo sin caer en la paranoia total.

En ese contexto, las nuevas leyes de IA funcionarán más como guardarraíles que como un muro infranqueable. Traerán litigios, ocuparán a los tribunales, abrirán resquicios y luego intentarán cerrarlos. Y, aun así, hacen falta, precisamente porque arrancan siendo imperfectas. La decisión de fondo, sin embargo, no se toma solo en el Parlamento: se toma en la mesa de la cocina, en el chat del trabajo, en el grupo de la familia. Ahí donde nos preguntamos: ¿comparto este vídeo? ¿me fío de esta voz? ¿digo en voz alta que algo no encaja? Hablar de regulación de la IA, al final, es hablar de algo muy humano: nuestra necesidad de creer a los demás y el miedo a que nos engañen con demasiada frecuencia.

Punto clave Detalle Valor para el lector
Las nuevas leyes de IA apuestan por transparencia y etiquetado Ley de IA de la UE con obligaciones para proveedores, pero con foco limitado en los deepfakes del día a día Entender por qué existe regulación, pero por qué solo protege parcialmente la vida cotidiana
El abuso con deepfakes afecta sobre todo a particulares Ejemplos de fraude financiero, daño reputacional y violencia sexual con medios sintéticos Ver lo real que es el riesgo, lejos de Hollywood y de las campañas electorales
Estrategias prácticas de autoprotección, aplicables ya Segunda opinión digital, documentación, gestión consciente del contenido emocional Acciones concretas que se pueden incorporar de inmediato a la rutina

FAQ:

  • Pregunta 1 ¿Cómo puedo detectar un deepfake si no soy experto/a?
  • Pregunta 2 ¿Tengo protección legal si alguien monta mi cara en un vídeo falso?
  • Pregunta 3 ¿Qué papel desempeña exactamente la UE con su Ley de IA en el tema de los deepfakes?
  • Pregunta 4 ¿Qué puedo hacer si circula por internet un deepfake sobre mí?
  • Pregunta 5 ¿Van lo bastante rápido las leyes actuales de IA para esta evolución?

Comentarios

Aún no hay comentarios. ¡Sé el primero!

Dejar un comentario