Abogados contra IA: el juicio que define el futuro del copyright

Mientras abogados del NYT revisan el código de ChatGPT en cuartos sellados, el mundo editorial se juega su supervivencia

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Abogados del NYT inspeccionan el código fuente de ChatGPT en una sala segura, sin conexión a internet.
  • OpenAI y Microsoft enfrentan demandas por usar contenido protegido sin permiso ni pago.
  • El caso podría sentar precedente legal para el entrenamiento de modelos de lenguaje, como Napster lo hizo con la música.
  • Un abogado ya usó ChatGPT para redactar una demanda con casos falsos, evidenciando los riesgos de la IA en el ámbito legal.
Imagen de Aol
Tomado de: Aol

El cuarto sellado donde se juega el futuro

En algún lugar de Estados Unidos, en una habitación sin ventanas, con una computadora que jamás ha visto internet, un grupo de abogados del New York Times revisa línea por línea el código fuente de ChatGPT. No pueden entrar con celulares, memorias USB ni ningún dispositivo electrónico. Al salir, la computadora que usaron es formateada. Suena a película de espías, pero es la escena central de uno de los juicios más importantes para la industria tecnológica y editorial en décadas.

El New York Times demandó a OpenAI y Microsoft por utilizar millones de sus artículos —sin pagar un centavo— para entrenar los modelos que hoy hacen funcionar a ChatGPT. La demanda no es menor: OpenAI vale 157 mil millones de dólares gracias, en buena medida, a ese contenido que tomó prestado sin preguntar. Como documenta AOL, los abogados del diario pueden compartir sus hallazgos con hasta cinco consultores externos, pero si quieren mostrarle una línea de código a Sam Altman durante una declaración, esa copia debe ser destruida inmediatamente después.

«Developers should pay for the valuable publisher content» — AOL cita la postura de los demandantes, resumiendo el corazón del conflicto: ¿quién paga por el conocimiento que alimenta a la inteligencia artificial?

El precedente Napster: cuando la tecnología se adelantó a la ley

Este caso no es un accidente legal aislado. Como señala AOL, los jueces que decidan esta disputa podrían «tallar los parámetros legales para cómo se entrenan los modelos de lenguaje en Estados Unidos», de forma similar a como el caso Napster definió la música digital hace dos décadas. En aquel entonces, la industria discográfica logró frenar la piratería masiva, pero el ecosistema musical cambió para siempre. Hoy, editores, autores y artistas han presentado alrededor de dos docenas de demandas importantes contra empresas de inteligencia artificial generativa. No buscan una compensación simbólica: quieren un pedazo del pastel económico que ha hecho de OpenAI el jugador dominante del sector y que empujó la valuación de Microsoft más allá de los 3 billones de dólares.

El problema de fondo es que la ley no estaba preparada para esto. Las empresas de IA argumentan que el uso de contenido público para entrenar modelos cae dentro del «fair use» o uso justo. Los editores responden que no es lo mismo citar un párrafo que replicar sistemáticamente el estilo, los datos y la estructura de miles de artículos para crear un producto competitivo que, además, canibaliza su tráfico y sus ingresos publicitarios. La discusión es técnica, pero sus consecuencias serán políticas y económicas.

El abogado que inventó precedentes legales con ChatGPT

Mientras este juicio avanza, el TaxProf Blog documentó un caso que debería helarle la sangre a cualquier litigante: un abogado utilizó ChatGPT para redactar una demanda y la herramienta inventó por completo varios precedentes legales y citas judiciales que nunca existieron. El letrado, confiado, presentó los documentos ante el tribunal sin verificar. El resultado fue una humillación pública y una sanción profesional. Este incidente, ocurrido en 2023, no es una anécdota curiosa: es la advertencia de que la IA no solo amenaza el copyright de los creadores, sino también la integridad de profesiones enteras que dependen de la precisión y la veracidad.

Si los abogados —justo los encargados de defender la ley— ya están siendo engañados por estas herramientas, ¿qué esperar del público general? La paradoja es que el mismo ChatGPT que ahora es inspeccionado en una sala sellada por orden judicial fue usado por un colega de esos mismos abogados para presentar argumentos falsos en una corte. La confianza ciega en la tecnología no es solo ingenua: es peligrosa.

Más allá del código: el negocio de la atención

El New York Times también ha reportado sobre la aparición de «vigilantes de la IA», abogados y activistas que se dedican a cazar usos indebidos de contenido protegido por parte de modelos de lenguaje. Este fenómeno refleja una creciente desconfianza hacia las empresas tecnológicas y una conciencia de que el problema no es solo legal, sino ético: ¿con qué derecho una corporación extrae valor del trabajo de millones de personas sin compensarlas?

El caso del NYT contra OpenAI no es solo una disputa entre un periódico y una startup. Es la punta de lanza de una batalla más amplia por definir quién controla el conocimiento en la era digital. Si los tribunales fallan a favor de los editores, se abrirá la puerta a un sistema de licencias obligatorias que podría cambiar el modelo de negocio de la IA. Si fallan a favor de OpenAI, se consolidará un régimen donde el trabajo creativo es materia prima gratuita para unos pocos gigantes tecnológicos.

Mientras tanto, en esa habitación sellada, los abogados del Times siguen revisando código. Afuera, el mundo espera una decisión que podría reescribir las reglas del juego. Y en algún bufete, otro abogado está a punto de preguntarle a ChatGPT si puede ayudarle con un escrito.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias