OpenAI enfrenta la primera demanda por difamación en el mundo contra un sistema de Inteligencia Artificial (IA), presentada por un alcalde regional de Australia. Brian Hood, alcalde de Hepburn Shire, amenazó con tomar medidas legales contra la compañía si no corrige las afirmaciones falsas hechas por ChatGPT. El bot aseguraba en sus respuestas que el funcionario estuvo en prisión por corrupción.

El alcalde Brian Hood, de Hepburn Shire en Australia, fue advertido recientemente de que ChatGPT lo relacionaba con un escándalo de soborno que involucraba a Note Printing Australia, una subsidiaria del Banco de la Reserva de Australia, en la década de 2000. La información es completamente falsa. Hood denunció el pago fraudulento a funcionarios extranjeros dentro de la empresa para ganar contratos de impresión de moneda.

Los abogados de Hood han enviado una carta de preocupación a OpenAI, dándole 28 días para eliminar el error. De lo contrario, procederían con la acción judicial por dañar la reputación del alcalde. Aunque la compañía no ha respondido todavía al reclamo, las penalidades por difamación en Australia pueden alcanzar hasta $269 mil dólares (unos 247 mil euros).

La acusación por difamación, un precedente histórico contra OpenAI

El equipo legal de Hood está dispuesto a reclamar a OpenAI cerca de $180 mil dólares (165 mil euros) como indemnización por la acción de difamación. «Sería un momento histórico en el sentido de que se estaría aplicando la ley de difamación a una nueva área de la inteligencia artificial«, dijo James Naughton, socio de la firma de abogados que asiste al alcalde. El equipo legal basa su acusación en una consideración sobre «mala conducta corporativa».

Las acusaciones por difamación no son las únicas investigaciones abiertas contra OpenAI. Italia ha bloqueado a ChatGPT, acusándolo de recolectar datos personales de los usuarios de manera ilegal. También de no contar con herramientas para verificar la edad de las personas que utilizan la herramienta. Canadá también ha iniciado una investigación contra OpenAI por procesar información personal sin consentimiento.

La generación de contenido falso o inexacto es una gran preocupación entre los expertos en medio de la lluvia de lanzamientos de chatbots impulsados por IA. Una investigación de Newsguard comprobó que ChatGPT y GPT-4 generan fácilmente contenido sobre teorías conspirativas como si se tratara de información verídica.

Sin duda alguna, la amenaza de demanda por difamación contra OpenAI de un alcalde australiano es un recordatorio de los desafíos éticos y legales que plantea la inteligencia artificial. A medida que las empresas continúan desarrollando chatbots más avanzados, es importante que se tomen medidas para garantizar que la información que producen sea precisa y verificada.

Participa en la conversación

1 comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *