Lo que debes de saber
- Se presentó un proyecto de ley bipartidista que penaliza la distribución de deepfakes y protege a denunciantes de riesgos de IA.
- La Ley Take It Down obliga a plataformas a eliminar pornografía deepfake en 48 horas, con supervisión de la FTC.
- La Ley NO FAKES crea un estándar nacional para proteger la voz e imagen de las personas frente a réplicas generadas por IA.
- Las tres iniciativas reflejan una urgencia legislativa ante el aumento del 464% en la producción de deepfake porn en 2023.

La IA ya no es solo un juguete de Silicon Valley
Si algo ha logrado la inteligencia artificial generativa en los últimos dos años, es demostrar que su capacidad para maravillar viene acompañada de un talento igual de impresionante para causar daño. Y el Congreso de Estados Unidos, que suele moverse con la velocidad de un glaciar cuando se trata de tecnología, parece haber entendido que ya no puede darse el lujo de esperar. Esta semana, CNBC reportó en exclusiva un nuevo proyecto de ley que aprieta las tuercas a la distribución de deepfakes y, de paso, le da un respiro a quienes se atreven a denunciar abusos relacionados con IA. No es una ley única ni aislada: forma parte de un rompecabezas legislativo que incluye al menos tres frentes distintos, todos con un mismo objetivo: ponerle freno a un problema que creció 464% en 2023 según datos del propio Congreso.

De Taylor Swift a la prepa de tu hijo: el deepfake no discrimina
El primer frente, y quizás el más urgente, es el que encabeza el senador Ted Cruz con la llamada Take It Down Act. Según CNBC, esta ley obligaría a las plataformas de redes sociales a establecer un proceso para eliminar imágenes pornográficas deepfake en un plazo máximo de 48 horas después de recibir una solicitud válida de la víctima. Y no solo eso: también tendrían que hacer un esfuerzo razonable para eliminar copias adicionales, incluso aquellas compartidas en grupos privados. La tarea de supervisar el cumplimiento recaería en la Comisión Federal de Comercio (FTC), lo que le da un peso regulatorio que va más allá de una simple recomendación. El problema, claro, es que el deepfake porn ya no es un fenómeno de nicho: ha afectado desde celebridades como Taylor Swift hasta estudiantes de preparatoria cuyos compañeros usan apps para crear imágenes falsas de ellos. La ley de Cruz busca criminalizar no solo la publicación, sino también la amenaza de publicar este tipo de contenido.
El segundo frente: proteger la voz y la cara (aunque sea la tuya)
Pero el problema no se limita a la pornografía no consentida. La capacidad de la IA para clonar voces y rostros ha abierto una caja de Pandora que amenaza con vaciar el concepto mismo de identidad. Por eso, un grupo bipartidista de senadores —Chris Coons, Marsha Blackburn, Amy Klobuchar y Thom Tillis— presentó la NO FAKES Act. Según el comunicado oficial, la ley busca responsabilizar a cualquier persona o empresa que produzca, aloje o comparta una réplica digital de un individuo sin su consentimiento. Esto incluye desde actuaciones en video hasta grabaciones de audio. La ley también obligaría a las plataformas a retirar el contenido una vez notificadas, y establecería excepciones para usos protegidos por la Primera Enmienda, como documentales, obras biográficas o parodias. En palabras del senador Coons:
“Todos merecen el derecho a poseer y proteger su voz y su imagen, sin importar si eres Taylor Swift o cualquier otra persona”.
La declaración suena bonita, pero el diablo está en los detalles: la ley también prevalecería sobre las leyes estatales para crear un estándar nacional, lo que promete generar fricciones con estados que ya tienen sus propias regulaciones.
El tercer frente: whistleblowers y estándares técnicos
El proyecto de ley que CNBC reportó en exclusiva esta semana, patrocinado por el representante Ted Lieu —demócrata de California y líder del grupo de trabajo bipartidista sobre IA—, aborda un ángulo distinto pero igual de crucial: la protección a denunciantes. La ley facilitaría que empleados de empresas tecnológicas reporten riesgos de seguridad relacionados con IA sin temor a represalias. También obligaría a Estados Unidos a participar en organismos internacionales que desarrollan estándares técnicos para IA, y establecería un concurso de premios para investigación innovadora. Lieu fue claro en su entrevista con CNBC:
“No está diseñado para ser controversial. Se basa en legislación bipartidista que otros miembros han presentado, así como en las recomendaciones del grupo de trabajo bipartidista de la Cámara sobre IA”.
El detalle revelador es que Lieu evitó deliberadamente los temas más espinosos, como si debe existir un estándar federal que anule las leyes estatales de IA, o si se necesitan requisitos de prueba para sistemas de IA usados en infraestructura crítica o educación. En otras palabras: es un primer paso, no la solución final.
¿Coordinación o competencia? El baile legislativo
Lo interesante de este momento legislativo es que no hay una sola voz, sino varias. Mientras Lieu avanza con su proyecto, el republicano Jay Obernolte —quien respalda la iniciativa de Lieu— prepara su propio paquete de leyes sobre IA, que espera presentar más adelante este año. En el Senado, la Take It Down Act de Cruz compite con otras iniciativas similares, lo que complica el proceso legislativo. La pregunta que flota en el aire es si toda esta actividad es señal de una comprensión real de la urgencia del problema, o simplemente una carrera por ver quién se apunta el crédito político. Porque mientras los legisladores se pelean por los reflectores, la producción de deepfake porn sigue creciendo a un ritmo que duplica y triplica las cifras del año anterior. Y las víctimas —desde una estrella del pop hasta un adolescente en su salón de clases— no tienen tiempo para esperar a que el Congreso se ponga de acuerdo.
Lo que está claro es que la era de la IA sin reglas se está acabando. La pregunta es si estas reglas llegarán a tiempo, o si, como suele pasar, llegarán justo después de que el daño ya esté hecho.
Fuentes consultadas:
- Cnbc – AI bill would crack down on deepfake distribution and protect whistleblowers
- Cnbc – New AI deepfake porn bill would require Big Tech to police and remove images
- Coons Senate Gov – Senators Coons, Blackburn, Klobuchar, Tillis introduce bill to protect individuals’ voices and likenesses from AI-generated replicas
- X – CNBC on X: New AI deepfake porn bill would require big tech to police and remove images


