Chat Generative Pre-trained Transformer (ChatGPT) es una herramienta de procesamiento de lenguaje natural impulsada por tecnología de inteligencia artificial que permite tener conversaciones similares a las de los humanos con un chatbot. El modelo de lenguaje, que aún se encuentra en fase de investigación y recopilación de comentarios puede ayudar a responder preguntas y apoyar en tareas como redactar ensayos, correos e incluso código. No obstante, al igual que otras herramientas también han surgido dudas sobre la RSE de ChatGPT.
Creado por OpenAI, una empresa de investigación e inteligencia artificial, en sus primeros meses, la herramienta ha causado revuelo. Con más de un millón de usuarios en los primeros cinco días después del lanzamiento, una de las principales preocupaciones que ha despertado es sobre la Responsabilidad Social Empresarial (RSE) vinculada a la integridad y originalidad del trabajo que está produciendo, de acuerdo con la Universidad Monash.
Problemas éticos de ChatGPT
Para saberlo se le preguntó al propio ChatGPT sobre cuáles eran los problemas legales y éticos de su uso, la herramienta ha respondido que efectivamente existe el riesgo de violar los derechos de autor, dado que el modelo funciona a partir del entrenamiento de una gran cantidad de datos de texto, libros, artículos y otros materiales escritos, algunos de los cuales pueden tener derechos de autor.
Otro de los problemas asociados a la RSE de ChatGPT es la relación con posibles violaciones a la privacidad, puesto que el modelo puede generar información personal o datos confidenciales que podrían usarse para identificar o dañar a otras personas. Esta característica, además, podría violar las leyes de protección de datos en la mayoría de los países, incluida la Ley de Protección de Datos Personales de Malasia.
Aunado a lo anterior, existe el riesgo por sesgo involuntario en los datos de entrenamiento, que podrían llevar el modelo a perpetuar estereotipos dañinos o discriminatorios. Otra preocupación ética está relacionada con la transparencia del proceso de toma de decisiones del modelo, ya que puede ser difícil para los usuarios comprender cómo llegó el modelo a un resultado en particular.
En general, la capacidad de ChatGPT para generar texto conversacional plantea preocupaciones éticas sobre su potencial para generar noticias falsas o incorrectas u otro contenido engañoso. Esto podría tener ramificaciones graves, como dañar la reputación, difundir información falsa o incluso incitar a la violencia.
RSE en ChatGPT
Hasta este punto, si bien aún son inciertos los riesgos legales asociados al uso de ChatGPT para usos como los descritos arriba, es claro que los usuarios pueden enfrentar repercusiones por usar la tecnología para estos fines, el modelo ChatGPT no tiene sus propios pensamientos u opiniones. Por último, la pregunta sobre la RSE en ChatGPT es si, como modelo de lenguaje, debe considerarse coautor en alguna publicación.
En términos generales, se considera que una persona es coautora cuando ha realizado una contribución sustancial y significativa a la investigación o proyecto. Pero, en el caso de ChatGPT, es crucial reconocer que es simplemente una herramienta diseñada para ayudar en el análisis y resumen de los datos existentes.
Aunque puede ayudar en el proceso de investigación, no es responsable del descubrimiento de nueva información. Como tal, no necesariamente califica como coautor en el sentido tradicional. En cambio, debe reconocerse como una herramienta valiosa que ha contribuido al éxito del proyecto. Si ChatGPT merece autoría, Microsoft Word también lo merece por brindarnos la plataforma para organizar y escribir documentos de manera más eficiente.
No obstante, herramientas como ChatGPT poseen la capacidad no solo de mejorar y modificar textos existentes, sino también de generar contenido original a través de sus capacidades analíticas avanzadas y de aprendizaje automatizado. En este sentido, las contribuciones de ChatGPT se extienden más allá de simplemente mejorar el trabajo existente, sino que realmente abarcan sus contribuciones únicas.
¿Inteligencia Artificial sin responsabilidad?
En este sentido, ChatGPT puede ayudar a escribir y generar texto, pero cualquier contenido producido por ChatGPT será responsabilidad de la persona o entidad que utilice el modelo. Por lo tanto, si hay dudas sobre la integridad, es posible que ChatGPT no se responsabilice de la violación de la integridad dejando en manos del usuario toda responsabilidad.
Además, organizaciones como OpenAI seguirán desarrollando modelos de lenguaje como ChatGPT y la gente seguirá utilizándolos. Con ello, será cada vez más importante abordar los riesgos legales asociados con su uso. Ello incluye garantizar que tanto empresas como personas utilicen la tecnología de manera ética, legal y responsable.
Y, de igual manera, será importante que en la RSE en ChatGPT se involucren otros organismos y gobierno que proporcionen pautas para una regulación y mejores prácticas para mitigar riesgos y garantizar un uso responsable de la tecnología. Esto ayudará a proteger los derechos e intereses de todas las partes interesadas, incluidos los desarrolladores, los usuarios y el público en general.