Escrito por: Rodrigo Ramele, ingeniero en Innovación y Tecnologías Emergentes de Baufest.
Las máquinas no son capaces de determinar qué es “bueno” o “malo”. Por el contrario, esa responsabilidad siempre debe mantenerse en los seres humanos que las usan, crean y programan, a fin de que sus acciones automatizadas para cumplir con alguna o varias tareas, siempre se ejecuten bajo un marco ético regulatorio.
Precisamente, este es uno de los temas que ha creado un gran debate en torno a la robótica: con el avance de la tecnología, ¿llegará el punto en que estos artefactos tengan la capacidad de determinar su propio marco ético?
Pero ¿qué son los robots desde esta perspectiva? Se los considera “computadoras con la capacidad de percibir, analizar y actuar”, además de que tienen una “corporización” física en el mundo real y cierto nivel de autonomía. Es decir, algo muy cercano a lo que hemos leído o visto en los relatos o cintas de ciencia ficción que los ilustran como máquinas inteligentes.
Al servicio de la humanidad
La discusión sobre qué puede ser ético para estos aparatos lleva 80 años. Las tres leyes de la robótica de Isaac Asimov (uno de los autores de ciencia ficción y divulgación científica más destacados) son bien conocidas por los aficionados a los relatos futuristas. Mediante sus postulados redactados en 1942, se iniciaron los esfuerzos por establecer la convivencia entre las máquinas y los seres humanos:
- Un robot no dañará a una persona; o, por inacción, no permitirá que sufra daño.
- Un robot obedecerá las órdenes que le sean dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la primera ley.
- Un robot protegerá su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley.
A ocho décadas de estos enunciados, los primeros indicios de intentos de regulación comienzan a hacer su aparición. El año pasado, el Ministerio de Ciencia y Tecnología de China publicó un código ético que pretende regular los modelos de Inteligencia Artificial (IA) existentes o en desarrollo. Por su parte, Europa tenía un prototipo de reglamento cuyo objetivo era establecer lineamientos para el desarrollo de una inteligencia artificial confiable. De esta forma la nación asiática dio un paso adelante en línea con su estrategia de liderar esta tecnología.
La guía del país oriental prioriza el “pleno poder de decisión’” de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica de Asimov.
De acuerdo con el periódico “The South China Morning Post” el documento elaborado por el gobierno chino “Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación” propone “asegurarse que la IA siempre esté bajo el control de los seres humanos” y que éstos tengan “pleno poder de decisión” sobre ésta.
El postulado describe seis principios básicos para los sistemas de IA, incluida la garantía de que sean “controlables y confiables”. A su vez, los otros puntos abarcan el uso de recursos digitales para:
- Mejorar el bienestar humano.
- Promover la equidad, la transparencia y la justicia.
- Proteger la privacidad y la seguridad.
- Aumentar la educación ética.
Otro punto para destacar es que los usuarios tendrán todo el derecho de aceptar o rechazar el servicio de una IA, al mismo tiempo que podrán detener las interacciones con este tipo de sistemas cuando lo deseen.
Cambios obvios
En lo inmediato, esta disposición responde a la necesidad de establecer un marco regulatorio para los algoritmos de recomendación de contenido de Internet, basados plenamente en IA, con los cuales es posible segmentar la publicidad que aparece en buscadores y mails.
Como empresa que impulsa la transformación digital y la innovación, entendemos que esta reglamentación es parte de la evolución hacia un desarrollo y comercialización más responsable de la tecnología en todo el mundo.
Por supuesto, mientras nuevas o mejores soluciones digitales aparezcan, será necesario tener regulaciones más precisas en torno a cómo las compañías utilizan modelos como el de la IA o la automatización en general.
Así, mientras estos temas se debaten, las empresas de todos los sectores deberán preocuparse por entender cuáles son las reglas que especifican el uso de este tipo de tecnología y cómo impactan en la relación con sus clientes y en la sociedad en general.
Como suele ocurrir con la mayoría de las tendencias, seguramente pronto América Latina comenzará a revisar y regular la ética de la IA. Con el tiempo lo descubriremos.