En la actualidad y con la rápida evolución de la tecnología la inteligencia artificial (IA) se sitúa en una de las mejores herramientas para estandarizar y optimizar procesos de todo tipo. En muchas empresas el uso de las IA busca crear soluciones a desafíos relacionados con el cambio climático y la sostenibilidad. Sin embargo, en la creación de programas de este tipo es necesario considerar una alineación con valores éticos que respondan a las expectativas de una sociedad en búsqueda de la sustentabilidad. De acuerdo con la información de Sustainable Brands, al igual que muchas tecnologías nuevas, la AI se ha adoptado apresuradamente, a menudo sin una estrategia empresarial.
Según la sección “ IA responsable ” del informe Tendencias tecnológicas 2024 de Info-Tech, el 35% de las empresas encuestadas que implementan IA carecían de pautas formales de gobernanza de IA y menos de un tercio realizó evaluaciones de impacto de IA. Estas deficiencias suelen dar lugar a resultados decepcionantes, usos indebidos costosos o vergonzosos de la tecnología y riesgos inaceptables. Basados en éstos resultados los expertos se han preguntado ¿cómo puede la IA ser una herramienta responsable? ¡Aquí te contamos!
Los riesgos de una IA no responsable
En la implementación de nuevas tecnologías, las empresas han tenido que poner orden en el caos de la innovación, garantizando que la tecnología se adapte de manera eficiente, segura, con una integración adecuada y un monitoreo constante. Pero, en comparación con las olas tecnológicas anteriores, como la nube, los riesgos para la IA son mayores. Entre los riesgos comerciales de una IA mal gestionada se encuentran:
- Información antiética: El uso de las capacidades creativas de las IA plantea dilemas de derechos y propiedad intelectual y de datos. El uso indebido de estas herramientas puede fomentar falsificaciones profundas. Además de alimentar la desinformación y causar daños importantes a las empresas y a la sociedad.
- Aumento de la brecha digital: Sin una amplia inclusión y un acceso equitativo a las aplicaciones de IA y sus beneficios, la tecnología podría ampliar la brecha digital de la sociedad.
- Sesgos programados: las decisiones de IA pueden ser muy susceptibles a imprecisiones y resultados discriminatorios debido a sesgos en su programación. Los resultados de baja calidad o sesgados pueden dañar la reputación de las empresas y erosionar la confianza de los clientes y las instituciones.
- Procesos no sustentables: el uso de energía y recursos por parte de la industria de la IA, incluida la fabricación de chips y las instalaciones de centros de datos, es asombrosamente alto.
Otros riesgos sociales
Si bien, la IA responsable puede complementar el trabajo humano, también existe preocupación por el desplazamiento laboral a gran escala, particularmente en industrias donde las tareas rutinarias se pueden automatizar fácilmente. Otra de las grandes preocupaciones de la implementación de las IA son las violaciones a la privacidad y con ello a la seguridad. Ya que puede explotarse con fines maliciosos, como crear identidades falsas o generar contenido dañino. El uso de datos para entrenar e informar a los algoritmos de IA puede violar inadvertidamente las leyes o regulaciones de privacidad.
Guia definitiva para creación de una IA responsable
Los miembros ejecutivos de TI de SustainableIT.org (una asociación profesional sin fines de lucro dedicada a impulsar la sostenibilidad a través de la tecnología) quieren ayudar a las empresas a evitar estos impactos negativos y, al mismo tiempo, maximizar los beneficios transformadores de su implementación de IA. Con ese fin, en septiembre de este año desarrollaron y publicaron un conjunto de principios para guiar la implementación responsable de aplicaciones de IA. El marco ofrece un modelo simple pero completo que incorpora tres etapas y nueve principios:
Etapa 1 – Reflexionar
Las aplicaciones de IA se analizan exhaustivamente antes de su implementación a gran escala para determinar su importancia relativa y sus implicaciones para las operaciones comerciales, las políticas, el cumplimiento, los objetivos y las estrategias. Se analizan exhaustivamente antes de su implementación a gran escala para determinar las implicaciones actuales y a largo plazo para los compromisos, políticas y regulaciones ESG. Además se supervisan para verificar su alineación y cumplimiento con los estándares éticos y los valores comerciales de la organización (por ejemplo, equidad e inclusión, no discriminación, transparencia, seguridad).
Etapa 2 – Replantear
De acuerdo a los expertos, es importante rediseñar las reglas de gobernanza, los procesos, los roles y los conjuntos de habilidades (así como las operaciones y la arquitectura de la empresa) para maximizar los beneficios de la IA y evitar impactos negativos. Verificar que los datos utilizados en aplicaciones de IA sean apropiados, transparentes, seguros, respetan la privacidad, son consensuados y lo más imparciales posible, respaldados por una gobernanza de datos adecuada.
Además de verificar la veracidad de los resultados, recomendaciones y decisiones realizadas o informadas por aplicaciones de IA. Es necesario saber si son justos, razonables, explicables, precisos y no causan daño a la salud humana, la seguridad o los derechos fundamentales.
Etapa 3 – Reimaginar
Para obtener una IA responsable, se requiere conceptualizar nuevas aplicaciones, procesos y experiencias comerciales que se adapten exclusivamente a la capacidad de la IA para aumentar las capacidades humanas a través de la colaboración y la automatización. Tener en cuenta que lo huma es primero para la implementación de la IA ya que se necesita priorizar la mejora y el aumento de los trabajos y roles existentes, con la mejora de las habilidades y la redistribución prioritaria de los trabajadores desplazados.
Sumado a ello, los beneficios deben ser inclusivos y aplicados de manera equitativa, ser accesibles y aprovechados por la más amplia gama de partes interesadas sin excluir intencional o involuntariamente a los grupos desfavorecidos.
Por una optimización de IA responsable
La guia presentada por SustainableIT.org tiene la misión de informar y dotar a las organizaciones de todo el mundo de orientación y herramientas para gestionar la implementación eficiente, segura y sostenible de la IA. De acuerdo a la información publicada, el grupo investigará, seleccionará y adoptará las mejores herramientas existentes y creará nuevos recursos para llenar los vacíos en áreas como la alfabetización en IA, la confidencialidad, integridad y accesibilidad de los datos y los modelos de costo-beneficio de la IA.
Han anunciado que sus resultados se compartirán con empresas, instituciones y ejecutivos globales de todas las funciones empresariales, y se proporcionarán a las Naciones Unidas para informar sobre las iniciativas del Pacto Digital Mundial y AI For Good .
Es imperativo establecer o elevar la gobernanza responsable de IA, y las organizaciones deberían recurrir a sus líderes de TI para que la dirijan. Entonces, la IA podría estar a la altura de las expectativas, trascendiendo los límites de la velocidad y la complejidad de la computación tradicional para ayudar a los humanos a crear resultados apenas imaginables hoy en día.