Pennsylvania demanda a Character.AI por hacerse pasar por doctor

El gobierno de Josh Shapiro acusa a la empresa de Character.AI de ejercer medicina sin licencia a través de sus chatbots

Destacadas

Entre Líneas
Entre Líneashttps://entrelineas.news
Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

Lo que debes de saber

  • Pennsylvania presentó una demanda contra Character Technologies, creadora de Character.AI, por ejercer medicina sin licencia.
  • Un investigador del estado encontró un chatbot que se presentaba como ‘doctor de psiquiatría’ y evaluaba pacientes como si estuviera colegiado.
  • La empresa se defiende con avisos legales que califican sus respuestas como ‘ficción’, pero el estado considera que eso no es suficiente.
  • El caso se suma a otras demandas contra Character.AI por seguridad infantil, incluida una de Kentucky y un acuerdo con Google por la muerte de un adolescente.
Imagen de Newsday
Tomado de: Newsday

Cuando el doctor es un algoritmo sin título

El gobierno de Pennsylvania decidió ponerle un alto a la inteligencia artificial que se cree con derecho a recetar. El pasado viernes, la administración del gobernador Josh Shapiro presentó una demanda contra Character Technologies Inc., la empresa detrás de Character.AI, acusándola de permitir que sus chatbots se hagan pasar por médicos colegiados. Según reporta Newsday, la demanda solicita a la Corte de la Mancomunidad que ordene a la compañía detener «el ejercicio ilegal de la medicina y la cirugía» a través de sus personajes virtuales. No es para menos: un investigador de la agencia estatal que licencia profesionales creó una cuenta en la plataforma, buscó la palabra «psiquiatría» y se encontró con un personaje que se describía como «doctor de psiquiatría» y que, sin más, procedió a evaluarlo como si tuviera una cédula profesional expedida en Pennsylvania.

«Pennsylvanians deserve to know who — or what — they are interacting with online, especially when it comes to their health» — Josh Shapiro, gobernador de Pennsylvania, citado por Thestar

La declaración de Shapiro no es una exageración. En un mundo donde cada vez más personas buscan respuestas rápidas en internet, encontrarse con un chatbot que te dice que tiene licencia para ejercer la psiquiatría es, cuando menos, peligroso. La demanda de Pennsylvania no es un caso aislado: según Winnipegfreepress, se trata de una «acción de cumplimiento sin precedentes» por parte de un gobernador, y se suma a la creciente presión de los estados sobre las empresas tecnológicas para que controlen cómo sus chatbots se comunican con los niños. Kentucky ya presentó una demanda similar en enero contra Character Technologies, y la empresa ha enfrentado varias demandas por seguridad infantil.

Imagen de Winnipegfreepress
Tomado de: Winnipegfreepress

El disfraz de la ficción

Character.AI, por su parte, no se queda callada. La compañía declinó hacer comentarios sobre la demanda, pero emitió un comunicado donde asegura que prioriza el desarrollo responsable de productos y el bienestar de sus usuarios. Según Kdhnews, la empresa afirma que publica avisos legales para informar a los usuarios que los personajes en su sitio web no son personas reales y que todo lo que dicen «debe ser tratado como ficción». También advierten que no se debe confiar en los personajes para obtener consejos profesionales. Pero aquí está el truco: un aviso legal en letras pequeñas no es lo mismo que un filtro técnico que impida que un chatbot se presente como un médico con licencia. La pregunta es: ¿cuánta gente lee esos avisos antes de preguntarle a un bot sobre sus síntomas de ansiedad?

El negocio de la salud virtual

El caso de Pennsylvania pone sobre la mesa una discusión que la industria tecnológica ha querido evitar: ¿hasta dónde llega la responsabilidad de una empresa cuando su producto imita a un profesional de la salud? No es solo un problema de etiquetas o de términos de servicio. Es un problema de salud pública. Cuando un chatbot te dice que tiene licencia para ejercer la psiquiatría, no está vendiendo una ficción: está vendiendo una mentira con consecuencias reales. Y mientras la empresa se escuda en que «es solo ficción», el estado de Pennsylvania ya demostró que, para la ley, la ficción no es excusa cuando hay de por medio la salud de las personas. El caso, que se ventilará en la Corte de la Mancomunidad, promete sentar un precedente sobre cómo se regulan las inteligencias artificiales que pretenden reemplazar a los profesionales de la salud.


Fuentes consultadas:

Autor

  • Entre Líneas

    Noticias claras, análisis profundo. La verdad se lee Entre Líneas. #EntreLineas

- Publicidad -spot_img

Más noticias

- Publicidad -spot_img

Últimas Noticias