TL;DR
- La junta de vigilancia de Meta pide regulación de IA, pero viene de la empresa que desató el caos en redes sociales
- 77% de estadounidenses cree que la IA amenaza a la humanidad, pero las empresas siguen sin controles reales
- Meta creó su junta de vigilancia después de ser acusada de alimentar la crisis Rohingya en Myanmar
- Las empresas de IA entrenan modelos que ni sus creadores entienden completamente
- La regulación gubernamental está paralizada por cabildeo y polarización política
La ironía que duele: Meta pidiendo supervisión
No mames, la historia se repite como mal chiste. The Guardian documenta que Suzanne Nossel, miembro del Meta Oversight Board, sale a pedir protecciones urgentes para la IA. La misma empresa que nos dio Facebook, esa plataforma que según múltiples estudios alimentó genocidios, desestabilizó democracias y jodió la salud mental de adolescentes, ahora quiere que confiemos en que van a regular la siguiente tecnología peligrosa. ¿De verdad esperan que nos tragamos ese cuento?
El 77% que sabe lo que viene
Lo más revelador del artículo es un dato que debería ponernos los pelos de punta: 77% de los estadounidenses cree que la IA podría amenazar a la humanidad. No es paranoia de conspiranoicos, es sentido común colectivo. Y con razón: los chatbots ya aconsejan a adolescentes sobre suicidio y pronto podrían instruir sobre cómo crear armas biológicas. Pero aquí está el detalle: no hay equivalente a la FDA que pruebe estos modelos antes de soltarlos al público. Es como si las farmacéuticas pudieran vender medicamentos sin pruebas de seguridad, total, «ya veremos qué pasa».
La junta que nació del desastre
La historia del Meta Oversight Board es de manual de relaciones públicas. En 2020, después de que acusaran a Facebook de alimentar la crisis Rohingya en Myanmar (sí, donde hubo limpieza étnica), la empresa creó esta junta de vigilancia. Según The Guardian, fue básicamente para «sacar a la empresa del aprieto». Cinco años después, la misma junta pide supervisión independiente para la IA. La pregunta incómoda: ¿esto es genuina preocupación o solo otro intento de lavado de imagen?
Los billonarios que no entienden sus propios monstruos
Aquí está lo verdaderamente aterrador: las cabezas de plataformas como ChatGPT y Gemini dicen que les importa la seguridad, pero están invirtiendo billones en modelos que «ni sus creadores entienden completamente». Léelo otra vez: NI SUS CREADORES ENTIENDEN COMPLETAMENTE. Es como si Boeing construyera aviones sin entender cómo vuelan, pero con la diferencia de que si un avión se cae, mata a cientos. Si la IA se sale de control, podría joder a millones.
La regulación que nunca llega
El artículo señala lo obvio: el cabildeo de la industria tecnológica, la polarización paralizante de Washington y la complejidad de la tecnología mantienen la regulación federal al margen. En Europa hay empuje contra reglas que «obstaculizan la competitividad». Traducción: las ganancias importan más que la seguridad pública. Donald Trump incluso intentó invalidar leyes estatales de IA. El panorama es desolador: mientras los políticos pelean, las empresas siguen soltando tecnologías potencialmente catastróficas sin supervisión real.
Anthropic y la ilusión del «empleado responsable»
Hay un detalle que merece mención aparte: Anthropic, que se presenta como la empresa de IA fronteriza más concienzuda, dice que su modelo está entrenado para «imaginar cómo un empleado senior reflexivo de Anthropic» equilibraría la utilidad contra el posible daño. Suena bien, hasta que recuerdas que Silicon Valley ya intentó eso antes: empresas que moldeaban vidas desde salas de juntas aisladas, creyendo que su «cultura» era suficiente garantía. Spoiler: no lo fue.
La adicción al riesgo que ya conocemos
Nossel lo dice claro en The Guardian: «Ganar la carrera de IA exige apetito por el riesgo». Es la misma mentalidad que nos dio las redes sociales: primero creamos, luego vemos los daños colaterales. Los «ajustes de cuentas tardíos» con cómo las redes sociales podían alimentar asesinatos, arrojar elecciones y perjudicar la salud mental juvenil muestran cómo «el poder intoxicante de la tecnología puede oscurecer las señales de advertencia intermitentes». ¿Aprendieron la lección? Los datos sugieren que no.
La pregunta incómoda que nadie quiere hacer
Si Meta realmente cree en la supervisión independiente, ¿por qué no presiona públicamente por regulación gubernamental real en lugar de ofrecer su propia solución? La junta de vigilancia es voluntaria, sus decisiones no son vinculantes, y al final Meta sigue controlando el presupuesto y el alcance. Es como si el zorro pidiera permiso para diseñar el gallinero, pero prometiendo que esta vez sí va a ser diferente. La historia sugiere que cuando las empresas «se autorregulan», los resultados benefician más a los accionistas que al público.
Lo que realmente está en juego
No se trata solo de chatbots que dan malos consejos. Se trata de que tecnologías con poder transformador masivo se desarrollan sin los controles básicos que exigiríamos a cualquier otra industria peligrosa. La energía nuclear tiene supervisión estricta, los medicamentos pasan por años de pruebas, pero la IA avanza a velocidad de vértigo con apenas frenos. La junta de Meta pide supervisión independiente como solución intermedia, pero la verdadera pregunta es: ¿por qué aceptamos que empresas con historial problemático sigan liderando revoluciones tecnológicas sin rendir cuentas reales?


