Qué se acordó el 7 de mayo

El acuerdo provisional entre Consejo y Parlamento incluye dos cambios principales: posterga el deadline para establecer regulatory sandboxes hasta el 2 de agosto de 2027 y reduce el grace period para implementar soluciones de transparencia para contenido generado por IA de 6 meses a 3 meses, con nuevo deadline 2 de diciembre de 2026.

El cambio más importante: el timeline de aplicación de ciertas reglas para sistemas de alto riesgo se mueve a 2 de diciembre de 2027, y para sistemas IA integrados en productos a 2 de agosto de 2028.

Qué son "sistemas de alto riesgo"

El EU AI Act clasifica los sistemas IA en cuatro tiers: prohibido, alto riesgo, riesgo limitado y riesgo mínimo. La categoría de alto riesgo incluye sistemas usados en: educación (admisiones, scoring), empleo (CV screening, evaluación de performance), infraestructura crítica (energía, agua, transporte), servicios públicos (welfare), law enforcement, migración, justicia.

El timeline original vs. el nuevo

Aug 2026
Deadline original
(ahora postergado)
Dec 2027
Nuevo deadline
alto riesgo
Aug 2028
Productos con IA
integrada

Originalmente, las obligaciones para sistemas de alto riesgo entraban en vigor el 2 de agosto de 2026. La industria, incluyendo Microsoft, Google y varias asociaciones empresariales europeas, presionó por extensiones argumentando que los estándares técnicos (CEN-CENELEC) no estaban listos.

¿Por qué postergaron?

Tres razones públicas: (1) Los estándares técnicos no están listos. Las normas armonizadas CEN-CENELEC que las empresas debían cumplir todavía están en draft. (2) Falta capacidad regulatoria. Las autoridades nacionales designadas para hacer cumplir el Act no tienen suficiente personal técnico. (3) Presión competitiva. Europa teme quedar atrás de USA y China si las regulaciones llegan antes que la infraestructura productiva.

Cuidado

La posposición no es automática. El acuerdo provisional necesita adopción formal y publicación en el Diario Oficial antes de entrar en vigor. Hasta entonces, los deadlines originales siguen vigentes legalmente.

Lo que se acelera: transparencia

Mientras se posterga lo de alto riesgo, se adelantan las obligaciones de transparencia para contenido generado por IA. El grace period se redujo de 6 a 3 meses. Nuevo deadline: 2 de diciembre de 2026.

Esto implica: deepfakes deben etiquetarse, contenido generado por IA debe ser identificable, watermarking obligatorio en sistemas generativos. Aplica a OpenAI, Google, Anthropic, Stability AI y cualquier sistema generativo accesible a usuarios europeos.

Comparativa con USA

USA no tiene ley federal comprehensiva de IA. Tiene framework documents, executive orders y un panorama político fragmentado. El 20 de marzo de 2026, el Rep. Beyer introdujo el GUARDRAILS Act, que pretende repealear la executive order de Trump sobre IA y prevenir moratoria estatal.

A nivel estatal: muchas leyes que se pasaron hace pocos años han sido modificadas o demoradas a medida que los deadlines de 2026 se acercaron.

Implicancias prácticas

Para empresas que operan en Europa con IA: (1) No descansar — los deadlines se postergaron, no se eliminaron. (2) Priorizar transparencia ahora — el deadline de contenido generado se ADELANTÓ. (3) Empezar la documentación de risk management para alto riesgo — los plazos son largos pero el trabajo es serio.

VuraOS está clasificado como sistema de "riesgo limitado" (transparencia obligatoria pero no clasificación de alto riesgo), lo que aplicable a la mayoría de los chatbots y agentes de servicio al cliente. La obligación es: indicar claramente que el usuario interactúa con IA y permitir escalada a humano. Eso ya lo cumplimos.

Conclusión

La posposición es una victoria pragmática para la industria, pero las empresas serias no deberían interpretarla como "tenemos más tiempo de no hacer nada". La transparencia se acelera y los standards van a llegar — solo más tarde. Los que empezaron a documentar y a auditar sus sistemas ahora van a tener la ventaja cuando 2027 llegue.