Casa Blanca vs. Estados: la batalla por la regulación de la IA

Esta disputa expone una tensión de fondo: quién tiene la potestad de poner límites a la tecnología y si un marco nacional único puede convertirse en una herramienta para neutralizar regulaciones locales orientadas a derechos.

Donald Trump firmó una orden ejecutiva que redefine el mapa de la regulación de la inteligencia artificial en Estados Unidos. Bajo el nombre “Ensuring a National Policy Framework for Artificial Intelligence”, la Casa Blanca se propone instalar un marco nacional para la IA y, al mismo tiempo, limitar la capacidad de los estados para dictar sus propias normas, incluso condicionando fondos federales de conectividad a que las legislaturas locales no aprueben leyes consideradas onerosas para la industria.

El movimiento llega después de dos años en los que el vacío regulatorio federal fue ocupado por un creciente movimiento por parte de los estados. Por ejemplo, Colorado aprobó una ley para limitar la “discriminación algorítmica”, California estableció obligaciones de seguridad para los modelos de las grandes tecnológicas y Nueva York avanzó con un proyecto que habilita sanciones millonarias a desarrolladores que incumplan estándares de seguridad. En paralelo, más de 1.000 proyectos de ley sobre IA circularon por cámaras legislativas estatales. Frente a ese mosaico, inversores, grandes plataformas y think tanks conservadores empujaron la idea de que la IA necesitaba un solo árbitro: Washington. La orden ejecutiva es, en buena medida, la traducción jurídica de ese reclamo.

¿Qué dice la orden ejecutiva?

El texto delinea una estrategia en tres frentes. Primero, ordena al Departamento de Justicia crear un “AI Litigation Task Force” dedicado a litigar contra leyes estatales que el gobierno considere contrarias a la política federal, invocando la cláusula de comercio interestatal o la preeminencia de regulaciones ya existentes. Segundo, manda al Departamento de Comercio a elaborar un inventario de normas estatales “onerosas” y los estados que insistan con regulaciones restrictivas pueden ver recortados recursos clave para su infraestructura digital. Tercero, instruye a la Comisión Federal de Comunicaciones (FCC) y a la Comisión Federal de Comercio (FTC) a avanzar hacia estándares federales de reporte y transparencia que, en los hechos, reemplacen normas locales.

Sin embargo, la letra chica revela otro objetivo: frenar, en nombre de la innovación, una parte importante de las leyes estatales que intentan introducir obligaciones de transparencia, mitigación de sesgos, auditorías o responsabilidad sobre modelos de alto impacto. La orden menciona de forma crítica, por ejemplo, la norma de Colorado que prohíbe la discriminación algorítmica, a la que acusa de obligar a los modelos a “alterar salidas veraces” para evitar impactos diferenciados. En la narrativa trumpista, regular para que la IA no reproduzca desigualdades se convierte en “ideología incrustada”.

¿Qué consecuencias tiene esto?

La jugada abre un frente jurídico complejo. Varios fiscales generales y organizaciones de derechos civiles ya calificaron la orden de inconstitucional y adelantaron que la van a impugnar en tribunales. ¿El argumento? Sólo el Congreso puede fijar un marco general de comercio interestatal que esté por encima de las leyes estatales, no una orden ejecutiva. La propia orden, paradójicamente, reconoce esa limitación cuando encarga a asesores presidenciales que preparen un proyecto de ley para crear un marco nacional que sí pueda desplazar normas locales. Mientras tanto, el litigio será el campo de batalla inmediato.

Más allá de la ingeniería legal, lo que está en juego es qué tipo de equilibrio se busca entre innovación y protección de derechos. El gobierno federal presenta esta recentralización como la condición necesaria para que Estados Unidos “gane la carrera de la IA” y evite un escenario “a la europea”, con normas estrictas que supuestamente ahogan a las empresas. El contraste con otros procesos regulatorios ayuda a poner la discusión en perspectiva.

En la Unión Europea, el AI Act construye un esquema de competencias compartidas donde la Comisión fija estándares comunes pero los estados miembros conservan margen para reforzar controles y aplicar sanciones a nivel nacional. En América Latina, iniciativas como la resolución de la provincia de Buenos Aires sobre IA en el Estado avanzan desde abajo hacia arriba: son jurisdicciones subnacionales o países pequeños los que ensayan reglas y, a partir de esa experiencia, se discute la eventual armonización. En Estados Unidos, al menos en la visión de esta Casa Blanca, el sentido de la flecha es el contrario: desde el gobierno federal hacia los estados, con la prioridad puesta en evitar cualquier “exceso” local que incomode a la industria.

Para países como el nuestro, donde la discusión sobre quién debe regular la IA recién empieza, el caso estadounidense nos marca una doble advertencia. Por un lado, muestra cómo la idea de un marco único nacional puede ser usada tanto para construir estándares robustos como para desactivar experiencias locales que buscan ir más allá de lo mínimo. Por otro, deja al descubierto hasta qué punto el diseño institucional de la gobernanza de la IA puede quedar capturado por la agenda de competitividad y lobby empresarial, relegando a un segundo plano la conversación sobre derechos, trabajo, democracia o desigualdad que otros foros (como la ONU) intentan poner en el centro.

CiudadanIA Noticias

CiudadanIA Noticias