Bruselas auditará los derechos y deberes éticos de los robots

La CE inicia mañana las reuniones de expertos para aclarar el marco jurídico

Por Carlos Bueno/El Economista

La Comisión Europea (CE) celebrará mañana en Bruselas una de las primeras reuniones del grupo de 52 expertos de alto nivel que ha seleccionado para analizar los entresijos -que no son pocos- relacionados con la inteligencia artificial (IA) y la robótica. Tras la constitución de este grupo el pasado abril, ahora toca el turno de dirimir los derechos y obligaciones de unas máquinas y aplicaciones para las que se multiplican los usos en los gobiernos, en las empresas, en los hogares… Estos dispositivos están vivos y aprenden de forma autónoma gracias al machine learning. El debate sobre la necesidad de dotar a los robots de una ética o moral es cada vez más urgente.

Los posibles usos de la IA en la vida real van más allá del debate inicial sobre la conducción autónoma. Ya saben: si el vehículo debe proteger al conductor a toda costa o si, llegado el caso, podría sacrificarlo para salvar la vida de un grupo de peatones. Esa misma diatriba tendrán los trenes sin conductor -ya en activo en la Terminal 4 de Barajas o en los metros de Singapur y Vancouver-. Al igual que un avión no tripulado o dron que, tras un error en pleno vuelo, debería decidir por sí solo cuál es la zona más adecuada para estrellarse provocando el menor daño posible.

En las plantas industriales, decisiones estratégicas van quedando a merced de soluciones inteligentes que superarán con creces la capacidad de cálculo del intelecto humano. ¿Qué decir de los soldados-robot que ya han participado en algunas maniobras militares de las principales potencias armamentísticas? ¿En qué casos estarían autorizados para matar? ¿En qué otra situación debe optar esa máquina por la autodestrucción? Este último ejemplo de los robots soldados chocaría con la primera de las tres leyes que dejó formuladas Isaac Asimov en 1950: «Un robot no puede dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño».

El año de la IA

Los expertos no dudan en señalar este año como el de la inteligencia artificial. «Las empresas están haciendo pruebas de todo tipo con ella y ya hay procesos instaurados y algoritmos que están dando soluciones, interactuado con usuarios… Saber cómo asignar culpabilidades y responsabilidades en caso de cualquier accidente es clave para este desarrollo. En la actualidad, hay una responsabilidad implícita en el fabricante y programador de la máquina o solución y, por otro lado, en el usuario», nos explica Enrique Serrano, vicepresidente de la comisión de IA y Big Data de Ametic y director general de Tinámica.

Los consultores de PWC calculan que estas tecnologías incrementarán el PIB global en 15.700 millones de dólares, con un crecimiento del 14% anual entre el pasado 2016 hasta el año 2030. Según ellos, la productividad aumentará de forma drástica gracias a las soluciones de IA. Ya hay ejemplos claros de ello: el principal retailer francés ha empleado herramientas basadas en esta tecnología para calcular sus previsiones de ventas para los próximos cinco años, lo que se ha traducido en importantes ahorros.

Algunas empresas se plantean incorporar las soluciones utilizadas en el último Mundial de Rusia para medir el rendimiento de los futbolistas e incorporarla a los trabajadores de su planta. Así podrían monitorizar los movimientos de sus empleados. Esto mejoraría el sistema de geolocalización ya utilizado por plantas de logística para asignar a cada operario en tiempo real nuevos encargos de pedidos, según donde se encuentren, para ahorrarles desplazamientos innecesarios.

El crédito del algoritmo

Las entidades financieras se ayudan ya de algoritmos para saber qué cliente va a necesitar un crédito. De igual modo, cuando pedimos un préstamo, ese robot -oculto en este caso en un software- decide si lo merecemos o no y en qué condiciones. Para todas esas decisiones que ya están en manos de máquinas y que pueden afectarnos de lleno, la GDPR (General Data Protection Regulation) de la UE que entró en vigor el pasado mes de mayo ya establecía algo que pasó inadvertido para muchos: el derecho de explicación. Esto significa que si un algoritmo nos niega un crédito, nos rechaza en un proceso de selección de personal, nos impide la entrada en un país por sospechoso de algo o incluso nos impone una sentencia judicial -como sucede ya en Estados Unidos gracias al software COMPAS, que calcula la posibilidad de reincidir en el delito-, tenemos derecho a conocer qué criterios ha empleado ese algoritmo para tomar esa decisión. A partir de ahí, tendremos la posibilidad de mejorar nuestro perfil, de presentar un recurso…

El abogado Fernando Ruiz-Beato expresa sus dudas de que la IA no sea capaz, llegado el momento, de fijar normas éticas por ella misma. «¿Esta moral quién la fijaría? ¿Un presidente de Gobierno? ¿Trump o Putin? Mi ética o moral no tiene por qué ser igual que la de otra persona. Y tampoco tiene por qué ser mejor…». Recuerda Ruiz-Beato la evolución que han tenido solo en las últimas décadas cuestiones antes irrebatibles. ¿Programamos a esas máquinas para que estén a favor o en contra del aborto o de la eutanasia? Me preocupa que una persona tenga la capacidad de ser dios y que dictamine qué está bien y qué está mal…», añade. Reconoce también este jurista que «aún habrá que evolucionar mucho y convivir mucho con los robots para poder establecer si estas máquinas pueden tener moral o no».

 

Comentarios de Facebook
Comparte en tus redes sociales
Share on Facebook
Facebook
Tweet about this on Twitter
Twitter
Print this page
Print

Acerca de Expreso de Tuxpan

El sitio de noticias líder de Tuxpan, todo lo importante de la política, cultura, mundo, desarrollo, ciencia, tecnología y más.

Ver todas las entradas de Expreso de Tuxpan →