Buscar:
Bruselas auditará la ética de la Inteligencia Aritificial - Kokoro World, FI
Creada en Febrero de 2015, Kokoro World Trends Sicav S.A. es una de las primeras sociedades de inversión de capital variable (SICAV) españolas que invierte en las Macro Tendencias de Futuro bajo criterios de sostenibilidad y contemplando, en su globalidad, las variables de ambientales, sociales y de gobierno corporativo.
Macro Tendencias de Futuro Sicav Fondos de Inversión Madrid
22102
post-template-default,single,single-post,postid-22102,single-format-standard,edgt-core-1.0.1,ajax_fade,page_not_loaded,,hudson-ver-2.0, vertical_menu_with_scroll,smooth_scroll,blog_installed,wpb-js-composer js-comp-ver-5.4.5,vc_responsive

Bruselas auditará la ética de la Inteligencia Aritificial

Sep 19 2018

Bruselas auditará la ética de la Inteligencia Aritificial

Expertos se reúnen en Bruselas para aclarar el marco jurídico de la Inteligencia Artificial

 

Ante la necesidad de dotar a los robots de una ética o moral, la Comisión Europea (CE) celebrará mañana en Bruselas una de las primeras reuniones del grupo de 52 expertos de alto nivel que ha seleccionado para analizar los derechos y obligaciones relacionados con la Inteligencia Artificial (IA) y la Robótica.

 

Estos dispositivos están vivos y aprenden de forma autónoma gracias al machine learning. Los posibles usos de la IA en la vida real van más allá del debate inicial sobre la conducción autónoma.

 

Ya están funcionando trenes sin conductor en la Terminal 4 de Barajas o en los metros de Singapur y Vancouver. Pero qué pasará cuando un avión no tripulado o dron que, tras un error en pleno vuelo, debería decidir por sí solo cuál es la zona más adecuada para estrellarse provocando el menor daño posible.

 

En las plantas industriales, decisiones estratégicas van quedando a merced de soluciones inteligentes que superarán con creces la capacidad de cálculo del intelecto humano. ¿Qué decir de los soldados-robot que ya han participado en algunas maniobras militares de las principales potencias armamentísticas? ¿En qué casos estarían autorizados para matar? ¿En qué otra situación debe optar esa máquina por la autodestrucción? Este último ejemplo de los robots soldados chocaría con la primera de las tres leyes que dejó formuladas Isaac Asimov en 1950: “Un robot no puede dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño”.

 

El año de la IA

 

Los expertos no dudan en señalar este año como el de la inteligencia artificial. El Vicepresidente de la Comisión de IA y Big Data de Ametic y Director General de Tinámica, Enrique Serrano, explica que actualmente muchas empresas ya están haciendo pruebas de todo tipo y ya hay procesos instaurados y algoritmos que están dando soluciones. Saber cómo asignar culpabilidades y responsabilidades en caso de cualquier accidente es clave para este desarrollo. En este momento, hay una responsabilidad implícita en el fabricante y programador de la máquina o solución y, por otro lado, en el usuario.

 

Los consultores de PWC calculan que estas tecnologías incrementarán el PIB global en 15.700 millones de dólares, con un crecimiento del 14% anual entre el pasado 2016 hasta el año 2030. Según ellos, la productividad aumentará de forma drástica gracias a las soluciones de IA. Ya existen ejemplos claros de ello: el principal retailer francés ha empleado herramientas basadas en esta tecnología para calcular sus previsiones de ventas para los próximos cinco años, lo que se ha traducido en importantes ahorros.

 

También algunas empresas se plantean incorporar las soluciones utilizadas en el último Mundial de Rusia para medir el rendimiento de los futbolistas e incorporarla a los trabajadores de su planta.

 

El crédito del algoritmo

 

Las entidades financieras ya se ayudan de algoritmos para saber qué cliente va a necesitar un crédito. De igual modo, cuando pedimos un préstamo, ese robot -oculto en este caso en un software- decide si lo merecemos o no y en qué condiciones. Para todas esas decisiones que ya están en manos de máquinas y que pueden afectarnos de lleno, la GDPR (General Data Protection Regulation) de la UE que entró en vigor el pasado mes de mayo ya establecía algo que pasó inadvertido para muchos: el derecho de explicación. Esto significa que si un algoritmo nos niega un crédito, nos rechaza en un proceso de selección de personal, nos impide la entrada en un país por sospechoso de algo o incluso nos impone una sentencia judicial -como sucede ya en Estados Unidos gracias al software COMPAS, que calcula la posibilidad de reincidir en el delito-, tenemos derecho a conocer qué criterios ha empleado ese algoritmo para tomar esa decisión. A partir de ahí, tendremos la posibilidad de mejorar nuestro perfil o de presentar un recurso.

 

En definitiva, muchas son las preguntas que el sector de la Inteligencia Artificial debe responder en términos de ética y moral. Sin embargo, la inversión en este tipo de tecnología sigue aumentando de forma acelerada. Desde Kokoro World Trends, consideramos clave que nuestros inversores puedan participar en aquellas empresas que apuestan por el futuro.

 

Fuente: El Economista

 

Compartir


Translate »