Durante la cumbre del Foro Económico Mundial 2024 celebrado en Davos, el secretario general de la ONU, António Guterres, alertó sobre los peligros de la IA (Inteligencia Artificial) en manos de empresas tecnológicas que buscan beneficios sin tener en cuenta los derechos humanos, la privacidad individual y el impacto social de sus avances.
Además, Guterres destacó que el despliegue ilimitado de la inteligencia artificial representa una amenaza existencial, equiparable al calentamiento global, y subrayó la necesidad urgente de establecer redes de gestión de riesgo para supervisar el desarrollo actual de la IA. ¿Cuáles son los desafíos de esto? ¡Te contamos!
¿Por qué la ONU aborda los peligros de la IA?
La decisión de la Organización de las Naciones Unidas (ONU) de abordar activamente los peligros asociados con la inteligencia artificial (IA) surge de la creciente conciencia sobre los riesgos éticos que esta tecnología implica. Por ello, en el Foro de Davos, el secretario general de la ONU, António Guterres, destacó la necesidad de atender este tema crítico debido a varias razones fundamentales.
En primer lugar, la IA, al ser una tecnología de utilidad general, tiene un alcance sin precedentes en la reconfiguración de la sociedad, desde la forma en que trabajamos hasta cómo nos relacionamos y vivimos. Puesto que la velocidad de cambio impulsada por la inteligencia artificial es equiparable a transformaciones históricas como la invención de la imprenta. Esta revolución tecnológica, si no se guía por principios éticos sólidos, corre el riesgo de perpetuar prejuicios, discriminación y amenazar los derechos fundamentales de las personas.
En segundo lugar, Guterres señaló la temeraria indiferencia hacia los derechos humanos por parte de empresas tecnológicas que buscan beneficios sin considerar los impactos sociales y éticos de sus avances en IA. Debido a ello, el secretario general subrayó la necesidad de establecer una estrategia global para abordar los riesgos éticos de la IA.
Sin embargo, la falta de liderazgo y la división geopolítica actual han contribuido a la ausencia de un enfoque unificado para enfrentar estos desafíos. Por lo cual, la ONU aboga por la colaboración entre gobiernos y compañías tecnológicas para crear redes de gestión de riesgo que controlen y supervisen el desarrollo futuro de la inteligencia artificial, mitigando sus posibles consecuencias negativas.
¿En qué debería basarse la ética en las compañías tecnológicas?
La ética en las compañías tecnológicas desempeña un papel crucial en el desarrollo y la implementación responsable de la inteligencia artificial. La UNESCO, con su mandato único sobre bioética y normas universales en diversas áreas científicas, establece un marco referencial valioso para guiar la ética en el ámbito de la tecnología, y así evitar los peligros de la IA.
En primer lugar, la ética en compañías tecnológicas debe fundamentarse en la maximización de los beneficios. Por ejemplo, la UNESCO ha abordado desafíos fronterizos en áreas como la ética de la neurotecnología y el Internet de las cosas, proporcionando directrices para equilibrar la innovación con la protección de los derechos humanos y la preservación de un mundo inclusivo, sostenible y pacífico.
Sin embargo, en el contexto específico de la inteligencia artificial, la ética debería centrarse en la eliminación de sesgos y prejuicios. Puesto que los sistemas basados en IA, al aprender de conjuntos de datos históricos, pueden replicar y amplificar inequidades existentes. Por ello, las compañías tecnológicas éticas deben trabajar activamente para identificar y corregir estos sesgos, asegurando que la IA promueva la equidad y la inclusión en lugar de contribuir a la discriminación.
Además, la UNESCO destaca la importancia de abordar los desafíos éticos de manera proactiva, anticipando posibles consecuencias negativas de la IA. Esto implica la implementación de medidas de gestión de riesgos y la participación activa en la creación de estándares éticos que orienten el desarrollo y la aplicación de la inteligencia artificial.
Usar la IA, ¿para cerrar brechas o aumentarlas?
El uso de la inteligencia artificial (IA) plantea una pregunta fundamental: ¿contribuirá a cerrar las brechas existentes en la sociedad o, por el contrario, las amplificará? Este dilema ético es crucial en el contexto de un mundo que ya enfrenta desigualdades preexistentes.
Es sabido que el rápido auge de la IA ha generado oportunidades significativas para cerrar brechas en varios aspectos, desde mejorar el acceso a la atención médica hasta facilitar la conectividad y el intercambio de información. Sin embargo, existe el riesgo inherente de que la IA reproduzca y amplíe desigualdades, ya que los sistemas pueden incorporar sesgos existentes presentes en los conjuntos de datos con los que son entrenados.
Por ello, las compañías tecnológicas tienen la responsabilidad de diseñar y aplicar sistemas de IA que no solo sean eficientes y avanzados, sino también equitativos. Esto implica abordar activamente los sesgos en los algoritmos, garantizar la representación diversa en el desarrollo de tecnologías y considerar el impacto socioeconómico en comunidades marginadas.
Asimismo, el secretario general de la ONU, António Guterres, ha advertido que un desarrollo sin restricciones de la IA podría aumentar las desigualdades. Por lo tanto, la clave radica en una implementación ética de la IA que priorice el bien común sobre las ganancias individuales. Esto requiere una colaboración estrecha entre gobiernos y empresas tecnológicas para establecer políticas y prácticas que fomenten el uso responsable de la IA y su capacidad para cerrar brechas en lugar de ampliarlas.