Cuando una tecnología es capaz de mantener una conversación con nosotros, es natural antropomorfizarla, es decir, verla como una persona. Es tentador ver a un chatbot como un robot que piensa y habla, pero esto le da demasiado crédito a la tecnología. Esto también puede llevar a las personas, incluidos los jueces en casos relacionados con chatbots de IA, a pasar por alto las elecciones expresivas humanas relacionadas con las palabras que producen los chatbots. Si las respuestas de los chatbots no estuvieran protegidas por la Primera Enmienda, el gobierno podría prohibir los chatbots que critican a la administración o reflejan puntos de vista con los que la administración no está de acuerdo.
De hecho, la salida de los chatbots puede reflejar no solo las elecciones expresivas de sus creadores y usuarios, sino que también implica el derecho de los usuarios a recibir información. Por eso, la EFF y el Centro para la Democracia y la Tecnología (CDT) han presentado un escrito amicus curiae en el caso García contra Character Technologies en el que explican cómo funcionan los grandes modelos lingüísticos y los distintos tipos de expresión protegida que están en juego.
Entre las cuestiones que se plantean en este caso se encuentra hasta qué punto las garantías de libertad de expresión se extienden a la creación, difusión y recepción de los resultados de los chatbots. En nuestro escrito explicamos cómo las decisiones expresivas de un desarrollador de chatbots pueden influir en los resultados, por ejemplo, durante el aprendizaje por refuerzo, cuando se indica a los seres humanos que den una respuesta positiva a las respuestas que se ajustan al consenso científico sobre el cambio climático y una respuesta negativa a las que lo niegan (o viceversa). Esta cadena de decisiones expresivas humanas se extiende desde las primeras etapas de selección de los datos de entrenamiento hasta la elaboración de las indicaciones del sistema. Las instrucciones del usuario también se reflejan en los resultados del chatbot. Lejos de ser el discurso de un robot, los resultados de los chatbots suelen reflejar la expresión humana, que está protegida por la Primera Enmienda.
Además, el derecho a recibir el discurso en sí mismo está protegido, incluso cuando el hablante no tiene derecho independiente a expresarlo. Los usuarios tienen derecho a acceder a la información que proporcionan los chatbots.
Nada de esto sugiere que los chatbots no puedan ser regulados o que no se puedan abordar los daños que causan. La Primera Enmienda simplemente exige que esas regulaciones se adapten adecuadamente al daño para evitar una carga indebida al derecho a expresarse a través de un chatbot o a recibir la información que proporciona.
Esperamos que nuestro escrito sea de utilidad para el tribunal a medida que avance el caso, ya que el juez ha decidido no remitir la cuestión a apelación en este momento.
Lee nuestro escrito a continuación (en inglés)