OpenAI ha sido demandado por difamación debido a información falsa generada por ChatGPT.
Un presentador de radio en Georgia, Mark Walters, está demandando a la compañía después de que ChatGPT afirmara que Walters había sido acusado de fraude y desvío de fondos de una organización sin fines de lucro. El sistema generó la información en respuesta a una solicitud de un tercero, un periodista llamado Fred Riehl. El caso de Walters fue presentado el 5 de junio en el Tribunal Superior de Gwinnett County en Georgia y está buscando compensación económica por parte de OpenAI.
El caso es notable debido a las quejas generalizadas sobre la información falsa generada por ChatGPT y otros chatbots. Estos sistemas no tienen una forma confiable de distinguir entre hechos y ficción, y cuando se les pide información, especialmente si se les pide que confirmen algo que el interrogador sugiere que es verdadero, con frecuencia inventan fechas, hechos y cifras.
“Me enteré de este nuevo sitio, que supuse falsamente que era como un supermotor de búsqueda”.
Por lo general, la falsa información generada no hace más que desviar a los usuarios o hacerles perder el tiempo. Pero están comenzando a surgir casos en los que estos errores causan daño. Estos incluyen a un profesor que amenazó con reprobar a su clase después de que ChatGPT afirmara que sus estudiantes usaron IA para escribir sus ensayos, y un abogado que enfrenta posibles sanciones después de usar ChatGPT para investigar casos legales falsos. El abogado en cuestión dijo recientemente a un juez: "Me enteré de este nuevo sitio, que supuse falsamente que era como un supermotor de búsqueda".
OpenAI incluye un pequeño descargo de responsabilidad en la página de inicio de ChatGPT que advierte que el sistema "puede generar información incorrecta ocasionalmente", pero la compañía también presenta ChatGPT como una fuente de datos confiable, describiendo el sistema en los anuncios como una forma de "obtener respuestas" y "aprender algo nuevo". El propio CEO de OpenAI, Sam Altman, ha dicho en numerosas ocasiones que prefiere aprender nueva información de ChatGPT que de los libros.
Sin embargo, no está claro si existe o no un precedente legal para hacer que una empresa sea responsable de sistemas de IA que generan información falsa o difamatoria, o si este caso en particular tiene un mérito sustancial.
Tradicionalmente en los Estados Unidos, la Sección 230 protege a las empresas de Internet de la responsabilidad legal por la información producida por un tercero y alojada en sus plataformas. Se desconoce si estas protecciones se aplican a los sistemas de IA, que no solo enlazan a fuentes de datos sino que generan información nueva (un proceso que también conduce a su creación de datos falsos).
La demanda por difamación presentada por Walters en Georgia podría poner a prueba este marco. El caso establece que un periodista, Fred Riehl, le pidió a ChatGPT que resumiera un caso real de la corte federal mediante un enlace a un PDF en línea. ChatGPT respondió creando un resumen falso del caso que era detallado y convincente, pero incorrecto en varios aspectos. El resumen de ChatGPT contenía información factualmente correcta pero también acusaciones falsas contra Walters. Decía que se creía que Walters había malversado fondos de una organización por los derechos de las armas llamada Segunda Enmienda en "más de $5,000,000". Walters nunca ha sido acusado de esto.
Riehl nunca publicó la información falsa generada por ChatGPT, pero verificó los detalles con otra parte. No está claro en la documentación del caso cómo Walters se enteró de esta información errónea.
Es importante destacar que, a pesar de cumplir con la solicitud de Riehl de resumir un PDF, ChatGPT no puede acceder a dichos datos externos sin el uso de complementos adicionales. La incapacidad del sistema para alertar a Riehl sobre este hecho es un ejemplo de su capacidad para engañar a los usuarios.