Inteligencia artificial para el reconocimiento facial: Aspectos éticos

Inteligencia artificial para el reconocimiento facial: Aspectos éticos

12 de agosto de 2020 by

Desde LPS Ingeniería ya hemos escrito con anterioridad sobre las posibles implicaciones del desarrollo de la inteligencia artificial en nuestra sociedad y de cómo la Unión  Europea intenta crear una legislación que nos proteja de sus posibles peligros.

En esta coyuntura, y en medio de los disturbios raciales que están arrasando Estados Unidos, nos encontramos con la carta abierta que ha dirigido Arvind Krishna (CEO de IBM) al congreso de los Estados Unidos. En ella, IBM se propone dejar de comercializar su software dedicado al reconocimiento facial al entender que su uso puede destinarse a la promoción de “racismo y de la injusticia social”.

Porque si bien es cierto que la IA se presenta como una revolución tecnológica que posiblemente transforme nuestra vida a un nivel que solo podemos llegar a imaginar, desde perspectivas como la educación, la economía o la salud. Por ejemplo, la inteligencia artificial aplicada en el área médica permite realizar un diagnóstico precoz en base al análisis de sus datos cotidianos minimizando los riesgos para el paciente.

Si sus posibilidades son esperanzadoras, no es menos cierto que sus peligros son considerables, ya no sólo por la consiguiente destrucción de mano de obra que conlleva, sino porque en su desarrollo se puede incurrir en acciones de corte racista o clasistas, dado que la Inteligencia Artificial se desarrolla por su propia cuenta más allá de las decisiones de los programadores.

Todo ello se resume perfectamente es las declaraciones que Bill Gates realizó durante un meeting de la Universidad de Stanford: “El mundo no presenció muchas tecnologías que sean, a la vez, prometedoras y peligrosas

Con esta carta (aunque sin explicar el calendario que se maneja ni la estrategia que se pretende llevar a cabo) IBM se posiciona como una de las primeras empresas más importantes del sector en liderar el debate ético de la implantación de la inteligencia artificial en nuestra sociedad.

No debemos olvidar que ya en 2018 los investigadores Joy Buolamwini y Timnit Gebru descubrieron que el software de reconocimiento de IBM era de los que peores resultados conseguían en cuanto al reconocimiento de raza y género.

En su carta, Krishna dice que IBM “se opone de manera firme […] a la videovigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas”. De esta manera IBM se posiciona junto a todas esas voces que ya han advertido de la necesidad de regular esta nueva tecnología de tal forma que se “ayude a las fuerzas de seguridad a mantener a salvo a los ciudadanos”.

Por qué tal y como ya habíamos comentado con anterioridad un de los potenciales peligros de la IA es su capacidad de caer en sesgos desconocidos por sus programadores por lo que “los vendedores como los usuarios de los sistemas de IA tienen la obligación de asegurar que se compruebe la imparcialidad de la IAm en particular cuando se utiliza en la aplicación de la ley, y que se audite y se informe sobre dicha prueba de parcialidad”.

Pese a las críticas que han surgido ante esta carta, que la ven como una estrategia comercial al hecho de ver el software de IBM superado por el de la competencia, no podemos más que estar de acuerdo en cuanto a la necesidad de una jurisprudencia internacional para que, tal como decía el creador de Skype Jaan Tallinn,  “[Que] los sistemas de IA altamente autónomos deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos mientras desarrollan sus operaciones”.

Esta entrada tiene un comentario

Deja una respuesta