Logo Computerhoy.com

Llega la primera demanda por difamación contra ChatGPT y no será la única

chatgpt ley

OpenAI enfrenta un demanda por difamación a causa de ChatGPT. El chatbot habría afirmado que un hombre era culpable de malversación de fondos. Según expertos legales puede ser la primera de muchas.

Un hombre llamado Mark Walters ha presentado una demanda por difamación contra OpenAI, alegando que el chatbot de inteligencia artificial de la compañía, ChatGPT, difundió información falsa que dañó su reputación. 

El incidente ocurrió cuando un periodista solicitó a ChatGPT un resumen de un caso legal. El chatbot supuestamente afirmó que Walters estaba involucrado en una demanda por malversación de fondos, cuando en realidad no tenía nada que ver con el caso.

La demanda, presentada ante el Tribunal Superior del Condado de Gwinnett, señala que todas las afirmaciones hechas por ChatGPT sobre Walters son falsas. El abogado de Walters sostiene que OpenAI actuó con negligencia al mostrar información falsa al periodista, lo que resultó en difamación y daño a la reputación de su cliente.

Expertos legales señalan que esta demanda podría ser la primera de muchas que desafíen  a las empresas de inteligencia artificial por las invenciones de sus productos. Aunque en este caso las bases parecen ser poco sólidas, podría sentar un precedente para futuros casos que exploren los límites de la ley de difamación en relación con la IA.

Walters afirma que no tiene relación con la malversación de fondos mencionada por ChatGPT. Asegura que el chatbot alucinó y generó una historia falsa basada en un documento legal real, pero que no mencionaba su nombre en absoluto. Walters sostiene que la difamación causada por ChatGPT expuso su reputación al odio público y al ridículo.

OpenAI reconoce que ChatGPT puede cometer errores

OpenAI ha reconocido que los errores generados por sus modelos de IA son un problema y ha anunciado que está trabajando en nuevos modelos para reducir estos errores. Sin embargo, la compañía no ha comentado específicamente sobre la demanda presentada por Walters.

En cuanto a las posibilidades de éxito de la demanda, expertos legales opinan que Walters tendría que demostrar que OpenAI actuó con conocimiento de falsedad o indiferencia temeraria hacia la posibilidad de falsedad para obtener daños punitivos. 

Inteligencia artificial IA ChatGPT

Aunque en este caso concreto esto parece poco probable, no descartan que en el futuro otros demandantes puedan tener éxito si pueden demostrar daños medibles causados por declaraciones falsas difundidas por chatbots de IA.

Este caso no es el primero en el que los chatbots de IA difunden información falsa sobre personas reales. Conocidos como alucinaciones, otros casos similares han surgido en los que personas han sido tergiversadas o acusadas falsamente por estos modelos de IA generativa. 

Aunque OpenAI reconoce las limitaciones de precisión de ChatGPT, abogados y profesionales han citado el programa en contextos profesionales, lo que plantea preocupaciones sobre la veracidad de la información generada por IA y su impacto en la sociedad y que se suman a otras denuncias como las de propiedad intelectual.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.