¿Están los avances tecnológicos rebasando los límites morales y sociales? El caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Project December para crear un robot conversacional —o chatbot—, que simulara a su prometida fallecida, Jessica, abre la conversación sobre los desafíos éticos que traen consigo lo llamados deadbots.
De acuerdo con el portal The Conversation, los sistemas de aprendizaje automático son más cotidianos y podrían estar rebasando los valores y las reglas que los rigen. Pero, ¿qué sucede con el caso de los deadbots? ¿Quién decide si son correctos o no?
¿Qué son los deadbots?
Los robots conversacionales que imitan a personas muertas, mejor conocidos como deadbots, permitieron a Joshua Barbeau intercambiar mensajes de texto con una Jessica «artificial». Debido a la naturaleza éticamente controvertida del caso surge la pregunta de si sería adecuado, desarrollar un robot de este tipo.
El Project December, la plataforma que posibilitó el deadbot de Jessica, fue creado por el desarrollador de juegos, Jason Rohrer. Su algoritmo permite generar chatbots personalizados con los que se puede interactuar y, claro, requiere de un pago.
Dicho sistema se construyó basándose en una API de GPT-3, un modelo de lenguaje de texto de la empresa de investigación de inteligencia artificial OpenAI. El caso de Barbeau abrió una polémica entre Jason Rohrer y OpenAI, porque las pautas de la compañía prohíben explícitamente el uso de GPT-3 con fines sexuales, amorosos, de autolesión o de intimidación.
Aunque Rohrer cerró la versión GPT-3, la situación plantea una serie de interrogantes sobre la posibilidad de desarrollar un robot de aprendizaje automático para fines emocionales.
¿Es suficiente el consentimiento?
Dado que Jessica era una mujer real, el consentimiento de Barbeau para la creación de un deadbot que la imite parece insuficiente. Incluso al fallecer, las personas no son cosas con las que los demás pueden hacer lo que les plazca.
En otras palabras, hay ciertas obligaciones morales con quienes mueren, porque esto no implica necesariamente que dejen de existir de una manera moralmente relevante.
Asimismo, el caso de Barbeau hace cuestionarnos si debemos proteger los derechos fundamentales de la muerte (como la privacidad). Y es que programar un deadbot que replique a alguien necesita grandes cantidades de información. Si estamos de acuerdo en que no es ético utilizar los datos personales sin consentimiento, ¿por qué debería serlo después morir?
Límites de los deadbots
¿Sería suficiente el consentimiento de Jessica para considerar ética la creación de su deadbot? ¿Y si estaba degradando su memoria? Ciertamente, los muertos no pueden ser dañados u ofendidos de la misma manera, pero no significa que sean invulnerables a las malas acciones.
Las personas fallecidas pueden sufrir daños en su honor, reputación o dignidad, y esta falta de respeto también perjudica a sus allegados. Además, dada la maleabilidad e imprevisibilidad de los sistemas de aprendizaje automático, existe el riesgo de que el consentimiento proporcionado por la persona imitada (en vida) no signifique mucho más que un cheque en blanco.
Teniendo todo esto en cuenta, si el uso del deadbot no se corresponde con lo acordado por la persona imitada, su consentimiento debería de invalidarse.
Responsabilidad compartida
Esta ha sido una preocupación en el campo de la Inteligencia Artificial (IA) y está estrechamente relacionada con la disputa entre Rohrer y OpenAI. ¿Deberíamos desarrollar sistemas artificiales capaces de, por ejemplo, cuidar a otros o tomar decisiones políticas?
Es importante tener en cuenta que el uso de la IA con fines tecno-solucionistas , como reemplazar a los seres queridos, puede conducir a una devaluación de lo que nos caracteriza como seres humanos.
¿Quién sería el responsable de los resultados de un robot muerto, especialmente en el caso de los efectos nocivos? Los expertos responden a través de dos enfoques principales: primero, la responsabilidad recae sobre los involucrados en el diseño y desarrollo del sistema; segundo, los sistemas de aprendizaje automático dependen del contexto, por lo que las consecuencias morales deben distribuirse entre todos los agentes que interactúan con ellos.
¿Deadbots con ética?
Si en un futuro se continuara con estos proyectos, se requeriría establecer ciertas condiciones éticas para su desarrollo, tales como:
- Tanto la persona imitada como la que la personaliza e interactúa con ella tienen que dar su libre consentimiento para una descripción lo más detallada posible del diseño, desarrollo y usos del sistema.
- Se prohíben los desarrollos y usos que no se ajusten a lo consentido por la persona imitada o que atenten contra su dignidad.
- Los involucrados en su desarrollo y quienes se benefician de él asumen la responsabilidad de sus posibles resultados negativos. Tanto de forma retroactiva, para dar cuenta de los hechos que han ocurrido, como prospectiva, para evitar activamente que sucedan en el futuro.
Por último, Barbeau ejemplifica lo importante que es establecer la responsabilidad ética en el aprendizaje automático e ilustra la necesidad de abrir un debate público que pueda informar mejor a los ciudadanos y ayudar a desarrollar medidas políticas para hacer que los sistemas de IA sean más abiertos, socialmente justos y compatibles con los derechos humanos fundamentales.