¿Cuáles son los retos éticos, legales y sociales en el uso de Inteligencia Artificial?

“¿Incluiríais la nacionalidad como parámetro si construyeseis un modelo de Inteligencia Artificial?”

Raja Iqbal inaugura su charla con esta pregunta, que rápidamente abre debate entre los asistentes: “No”, “Sí”, “Depende de para qué sirviese el modelo…”.

Raja Iqbal es fundador y CEO de Data Science Dojo, empresa de formación en Data Science. Asistimos a su charla “Ethical, Legal and Social dimensions of AI”, que pretende analizar los principales retos en el uso de la Inteligencia Artificial para la construcción de una sociedad mejor.

Raja Iqbal nos lanza otra pregunta: ¿alguien sabe qué es lo que acostumbran a hacer los Data Scientists?

Según Iqbal, éstos trabajan mayormente en tareas como la sugerencia de anuncios, la recomendación de vídeos, o en el análisis de posibles tasas de cancelación de servicios para volver a “conquistar” a los clientes. ¿Por qué? Porque hay mucho dinero detrás (trabajan para empresas), asegura.

 

IA: UN UNIVERSO DE POSIBILIDADES PARA CONSTRUIR UN MUNDO MEJOR

“Hay muchos campos donde la Data Science puede hacer el mundo mejor”, asegura Iqbal. En la siguiente diapositiva aparecen algunos de ellos: Justicia, Educación, Seguridad pública, Sostenibilidad

Nos menciona un paper publicado por la Universidad de Stanford. Los investigadores han creado un modelo donde el algoritmo, sólo con una foto, puede clasificar lesiones de la piel como cancerosas o benignas. Y lo hace de forma tan precisa como lo harían expertos dermatólogos.

Otro ejemplo: la app nEmesis, desarrollada por la Universidad de Rochester, es capaz de detectar los restaurantes donde se han producido intoxicaciones alimentarias mediante el rastreo de la geolocalización de tweets publicados por usuarios. Esta inteligencia artificial sirve de ayuda para los departamentos de salud y contribuye a mejorar las inspecciones, y ha conseguido incrementar del 9% al 15% la identificación de malas praxis relacionadas con la alimentación.

La app nEmesis geolocaliza los tweets que indican intoxicación alimentaria
La app nEmesis geolocaliza los tweets que indican intoxicación alimentaria

Los esperanzadores ejemplos se suceden: hospitales que reciben alertas basadas en registros electrónicos de salud de pacientes, aplicaciones que mediante IA y drones monitorizan la salud de cosechas…

Raja Iqbal nos plantea una cuestión: ¿Por qué está tan en boga la Inteligencia Artificial? ¿Ha cambiado algo radicalmente en los últimos años para que sea así? Hay algunos factores que, asegura, pueden explicarlo:

  • Descenso del precio de las Intraestructuras de IT: 1 millón de transistores costaban 222$ en 1991. Ahora, menos de 6 céntimos. En 1991, el almacenamiento de 1GB de datos valía 569$. Actualmente, menos de 1 céntimo. Un último ejemplo: en los ’90, la transferencia de 1GBps de datos costaba 1245$. En este momento, menos de 10$. Además, las APIs y SDK para recolectar, procesar, transmitir y almacenar datos ahora son ubicuos.
  • Generación de grandes cantidades de datos: El uso que hacemos de herramientas como mail, Whatsapp, Google o Instagram en nuestro día a día genera enormes cantidades de datos. Facebook, por ejemplo, genera 3,3 millones de Terabytes cada segundo.

 

DILEMAS ÉTICOS Y LEGALES EN EL USO DE IA

Sin embargo, en el uso de IA no todo es un camino de rosas:

Iqbal plantea algunas preguntas que lo ilustran: ¿Quién es responsable si un vehículo inteligente atropella a una persona? ¿Y si un arma inteligente dispara a un civil? ¿Qué hacer si un conjunto de datos vincula el crimen o el terrorismo a un determinado grupo de población?

En línea con este último punto, por ejemplo, encontramos el caso del algoritmo COMPAS, creado para ayudar a los jueces de EEUU a analizar las probabilidades de reincidir de los arrestados. En mayo de 2016, la corporación americana Propublica, dedicada al periodismo de investigación, denunció la existencia de un sesgo racial en el algoritmo: El sistema predecía que los acusados negros tenían un mayor riesgo de reincidencia.

Este caso da muestra de la necesidad de analizar los posibles sesgos existentes en los datos que van a alimentar a los algoritmos, para que éstos no los reproduzcan.

El caso de Cambridge Analytica también pone en evidencia el peligro de un mal uso de la IA: la venta de datos de Facebook a la consultora política Cambridge Analytica podría haber influenciado los resultados de las elecciones presidenciales de EEUU en 2016, así como el referéndum del Brexit ese mismo año.

PARÁMETROS ÉTICOS PARA UN BUEN USO DE LA IA

“Hay mucha tentación con los datos porque dan mucho dinero. Es necesario que haya alguien que pare los pies”, asegura Iqbal.

En su opinión, la entrada en vigor en Europa de la General Data Protection Regulation (GDPR) es un paso en la dirección correcta. Sin embargo, asegura que aún queda mucho camino por recorrer: “A muchos gobiernos les da igual el tema.  Les importa ganar las siguientes elecciones. No tienen intereses a largo plazo, sólo a corto”. Remarca que, por lo menos, Europa está haciendo algo.

Raja Iqbal subraya a lo largo de toda su charla la importancia de tener a profesionales comprometidos, responsables a la hora de elaborar modelos de IA y trabajar con datos: “Como compañía tienes una responsabilidad. La seguridad de tus datos es tu responsabilidad.”

Remarca la importancia de la adquisición de competencia profesional: alfabetización de datos, entender las limitaciones de la data science y estar al tanto de las posibles “trampas” que pueden encontrarse en esta ciencia.

Los datos, asegura, tienen que cumplir tres parámetros: cantidad, calidad y variedad, además de evitar los posibles sesgos, y deben tener en cuenta factores o variables importantes que puedan influir en ellos.

Añade que es vital que los ciudadanos sean conscientes (y den su consentimiento) cuando vayan a usarse sus datos y que los datos personales se enmascaren o se hagan anónimos. También que existan sistemas de seguridad robustos para autenticar a los usuarios y controlar el acceso a los datos.

La proyección de una frase de la película Jurassic Park da por finalizada la charla, y resume a la perfección los retos que debe afrontar la IA:

“A tus científicos les preocupaba tanto si podían o no hacerlo que no se pararon a pensar si debían”.

 

Escrito por Eugenia Basauli

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *