Una investigación del Senado en Australia se enfocó en examinar a fondo la ética y la responsabilidad social de la industria de consultoría en el país, incluyendo a prestigiosas empresas consultoras como KPMG y Deloitte, para considerar cambios regulatorios amplios. Sin embargo, esta investigación ha desencadenado un debate sobre la reputación en la industria, en medio de acusaciones por parte de KPMG de que la inteligencia artificial (IA) ha dañado su reputación.
El informe presentado por un grupo de académicos señalaba a las principales empresas de consultoría, incluyendo a KPMG, como supuestas involucradas en una serie de escándalos y prácticas cuestionables. Sin embargo, se descubrió que estas acusaciones eran completamente infundadas y habían sido generadas por una herramienta de IA conocida como Google Bard, de acuerdo con The Guardian.
Implicación de KPMG en escándalos
El informe sostenía que KPMG estaba involucrada en un supuesto «escándalo de robo de salarios de 7-Eleven de KPMG» que resultó ser completamente inexistente. Además, acusaba a KPMG de auditar al Commonwealth Bank durante un escándalo de planificación financiera, una afirmación que carecía de fundamento. La gravedad de estas acusaciones radicaba en el hecho de que estaban protegidas por el privilegio parlamentario, lo que dificultaba la capacidad de KPMG para defenderse y proteger su reputación.
La respuesta de KPMG a esta situación no se hizo esperar. Andrew Yates, director ejecutivo de KPMG, escribió al comité parlamentario conjunto de corporaciones y servicios financieros, que había aprobado y cargado el documento, expresando su profunda preocupación y descontento.
Yates también subrayó que las vidas de más de 10,000 empleados de KPMG podían verse afectadas negativamente cuando se difundía información evidentemente incorrecta respaldada por el privilegio parlamentario y presentada como un hecho. La firma acusó a la IA de dañar su reputación y resaltó en riesgo de confiabilidad de las herramientas de IA en la generación de información.
Confianza en la IA
El escándalo ha planteado importantes cuestionamientos y responsabilidad social en el uso de la IA sin una verificación adecuada de los datos generados por estas herramientas. En la declaración del Senado, este destaca que, aunque las herramientas de IA pueden parecer una forma de reducir la carga de trabajo, si no se comprenden adecuadamente ni se aplican con supervisión detallada y una verificación rigurosa, pueden poner en peligro la integridad y la precisión del trabajo.
En este caso, la información arrojada por Google Bard, es un ejemplo de cómo las nuevas tecnologías están transformando la forma en que se produce y se difunde información. Si bien pueden generar grandes cantidades de datos y texto de manera eficiente sin una adecuada verificación corre el riesgo de dañar más que ayudar.
Responsabilidad en la generación de información
En una carta al Senado, el profesor emérito James Guthrie asumió la responsabilidad por los errores generados por la IA y se disculpó en nombre de los académicos involucrados. Guthrie destacó que, dada la utilización de la IA, el equipo de autores entero se disculpaba sinceramente con el comité y con las principales empresas de consultoría por haber dañado su reputación.
La académica de la Universidad de Sídney, Jane Andrew, quien no estaba directamente involucrada en la investigación de la IA, pero sí contribuyó a la presentación, ya había expresado previamente preocupaciones sobre el creciente papel de la IA en la publicación académica. En un artículo de 2022 titulado «Los peligros de la inteligencia artificial en la publicación académica,» se centró en cómo la creciente influencia de la IA en tareas históricamente realizadas por seres humanos, como la edición y revisión de artículos académicos, planteaba desafíos a la comunidad académica.
La Universidad de Sídney señaló que Jane Andrew no tuvo la oportunidad de revisar la presentación antes de ser enviada y que se habría opuesto a la inclusión de partes generadas por la IA si hubiera tenido la oportunidad de hacerlo. Esto destaca la importancia de la supervisión y revisión humanas en los procesos que involucran la generación de información y la toma de decisiones basadas en datos generados por la IA.
KPMG acusa a IA de dañar su reputación
Deloitte, otra firma de consultoría, también presentó una queja al comité del Senado sobre la presentación inexacta. La asesora general de Deloitte, Tala Bennett, expresó su preocupación por la presentación que acusaba erróneamente a su empresa de ser demandada por los liquidadores de la empresa constructora Probuild que colapsó por supuestamente no auditar adecuadamente sus cuentas. Deloitte nunca auditó a Probuild.
Esta queja pone de manifiesto que la situación no se limita a un caso aislado y que otras empresas de consultoría también se ven afectadas por la proliferación de información inexacta generada por la IA.
James Guthrie, a pesar de reconocer la lamentable naturaleza de los errores generados por la IA, insistió en que los argumentos sustantivos y las recomendaciones de reforma presentadas en la investigación seguían siendo importantes para garantizar un sector de consultoría sostenible basado en valores compartidos por la comunidad.
La noticia de que KPMG acusa a IA de dañar su reputación pone de manifiesto la importancia de utilizar la IA con responsabilidad y con un enfoque riguroso en la verificación de datos. La integridad y la reputación de las empresas son activos críticos, y su protección debe ser una prioridad en la era de la IA. Este incidente debe servir como un recordatorio de los desafíos y riesgos que conlleva la implementación de la IA en procesos críticos y la necesidad de una supervisión adecuada.