Cuando la inteligencia artificial falla ¿quién es el culpable?

En octubre de 2018, Amazon tuvo que detener el uso de un motor de inteligencia artificial dedicado a filtrar candidatos para vacantes dentro del gigante de eCommerce, el algoritmo funcionaba de maravilla solo que tenía un problema: detestaba a las mujeres.

En años recientes los desarrollos de IA han creado soluciones novedosas a problemas humanos reales y su crecimiento; sin embargo, también traen una serie de posibilidades de las cuales no podemos medir las consecuencias, por eso en Fujitsu estamos proponiendo una nueva forma de sistemas de inteligencia artificial que no sólo den resultados, sino que expliquen al ser humano cómo llegaron a ellos”, comentó Hirotaka Hara, presidente de Fujitsu.
Al ser cuestionado sobre dónde debería residir la responsabilidad cuando un sistema de inteligencia artificial falla o se vuelve imparcial, Hara comentó a Expansión que “ese es uno de los debates más complejos en la actualidad en el que aún no hay respuestas claras”.
¿Deben ser las empresas tecnológicas como Google, Fujitsu, Microsoft o Amazon que desarrollan las plataformas de inteligencia artificial? ¿Deben ser las empresas que buscan desarrollar nuevos servicios, productos, curar el cáncer o incluso evitar el cambio climático? o ¿Deben ser los usuarios finales que pueden llegar a mal utilizar los sistemas, llenándolos de información que busque corromper su comportamiento?
No tenemos la respuesta, yo creo que esa responsabilidad debería caer en las empresas.