Como los usuarios de todas las tecnologías, los usuarios de ChatGPT merecen el derecho a borrar sus datos personales. Diecinueve estados de EE.UU., la Unión Europea y otros muchos países ya protegen el derecho de los usuarios a borrar. Durante años, OpenAI dio a los usuarios la opción de borrar sus conversaciones con ChatGPT, en lugar de dejar que sus consultas personales permanecieran en los servidores corporativos. Ahora, no pueden . Una orden judicial muy equivocada en una demanda por derechos de autor obliga a OpenAI a almacenar todas las conversaciones de los consumidores con ChatGPT indefinidamente -incluso si un usuario intenta borrarlas. Esta arrolladora orden supera con creces las necesidades del caso y sienta un peligroso precedente al ignorar los derechos de privacidad de millones de usuarios.
Los daños a la privacidad en este caso son significativos. Los más de 300 millones de usuarios de ChatGPT envían más de 1.000 millones de mensajes al día a sus chatbots, a menudo con fines personales . Prácticamente, cualquier uso personal de un chatbot -desde la planificación de vacaciones familiares y hábitos diarios hasta la creación de publicaciones en redes sociales y mundos de fantasía para juegos de Dragones y Mazmorras- revela detalles personales que, en conjunto, crean un retrato completo de toda la vida de una persona. Otros usos corren el riesgo de revelar la información más sensible de las personas. Por ejemplo, decenas de millones de estadounidenses utilizan ChatGPT para obtener información médica y financiera. A pesar de otros riesgos de estos usos, las personas siguen mereciendo derechos de privacidad como el derecho a borrar sus datos. Si se eliminan las protecciones para los datos borrados por los usuarios, se corre el riesgo de enfriar los usos beneficiosos por parte de las personas que desean proteger su privacidad.
No se trata de un concepto nuevo. Poner a los usuarios en control de sus datos es una pieza fundamental de la protección de la privacidad. Diecinueve estados, la Unión Europea y muchos otros países ya protegen el derecho de supresión en sus leyes de privacidad. Estas normas existen por buenas razones: los datos retenidos pueden ser vendidos o cedidos, violados por piratas informáticos, revelados a las fuerzas del orden, o incluso utilizados para manipular las elecciones de un usuario a través de la publicidad comportamental en línea.
Aunque las órdenes debidamente adaptadas para preservar pruebas son habituales en los litigios, eso no es lo que ocurrió aquí. El tribunal ignoró los derechos de privacidad de millones de usuarios de ChatGPT sin ninguna base razonable para creer que aportaría pruebas. El tribunal concedió la orden basándose en afirmaciones sin fundamento de que los usuarios que borran sus datos son probablemente infractores de derechos de autor que buscan "cubrir sus huellas". Esto es sencillamente falso, y sienta un peligroso precedente para los casos contra desarrolladores de IA generativa y otras empresas que tienen vastos almacenes de información de los usuarios. A menos que los tribunales limiten las órdenes a la información que sea realmente relevante y útil, violarán innecesariamente los derechos de privacidad de millones de usuarios.
OpenAI impugna esta orden. La EFF insta al tribunal a que levante la orden y corrija sus errores.