lunes, 27 de noviembre de 2023

Ni inteligencia, ni artificial

 

[He publicado esta entrada en el Blog de Inteligencia Emocional de Eitb el 27.11.2023]

El pasado 26 de octubre Deusto Forum organizó una sugerente sesión, con el título “Los retos éticos ante la Inteligencia Artificial”, que contó con la Dra. Gemma Galdon Clavell, directora ejecutiva de Eticas Research & Consulting (consultoría especializada en auditoría de algoritmos), como ponente, y el Dr. Pedro M. Sasia, responsable de transferencia del Centro de Ética Aplicada de la Universidad de Deusto, como moderador. Paso a compartir las principales ideas de la sesión.

El acto comenzó con unas palabras del Rector, Juan José Etxeberria Sagastume S.J. que sirvieron para contextualizar el evento: “En estos tiempos, es difícil pensar en un espacio social, una institución o incluso una persona para quien los efectos de la irrupción de lo que ya todos denominamos coloquialmente Inteligencia Artificial no sean relevantes. Privacidad, libertad, igualdad, consentimiento, algoritmos, datos… la ética y la técnica se miran de frente una vez más, como lo han venido haciendo a lo largo de toda la historia de la Humanidad, pero en esta ocasión con diferentes e importantes matices que surgen de la profundidad, velocidad, alcance y contenidos de este fenómeno. Empresas, gobiernos, sociedad civil… todos experimentamos cada vez con más claridad esta realidad, y las Universidades no somos, ni mucho menos, una excepción” (para leer texto íntegro, Universidad de Deusto, 2023a)

Es muy interesante la trayectoria de Gemma. De formación es Doctora en Historia. Lleva 15 años dirigiendo equipos técnicos. Su bagaje y conocimientos aportan valor a la hora de buscar soluciones a posibles riesgos. Hacen auditorías a quienes desarrollan los algoritmos (auditorías internas) y también trabajan con la sociedad civil (auditoría inversa). Su trabajo es explorar posibilidades para desarrollar una Inteligencia Artificial (IA) responsable, “construir los cinturones de seguridad de la IA”. Durante siglos hemos sabido proteger a la humanidad de la innovación. Por eso es importante entender bien cómo funciona.

El nombre de Inteligencia Artificial lleva a confusión social. No es ni lo uno ni lo otro. La idea que siempre hay que tener presente es que para la IA la ‘normalidad’ es muy importante. La IA recoge grandes bases de datos y los procesa buscando ‘patrones de normalidad’ que intenta reproducir. Pensemos qué hay detrás de un GPS. Se procesan datos del pasado, qué ruta han elegido la mayoría de personas y recomienda ese. Entiende que el trayecto óptimo es el más transitado. Algo similar ocurre con las recomendaciones que nos hacen empresas como Netflix empresas como Netflix o semejantes tras analizar lo que han visto después las personas que han estado viendo la misma película o serie que nosotras/os y nos hacen una sugerencia. La IA está entrenada para dejar fuera a quienes han hecho algo diferente. La buena noticia es que la IA se puede entrenar, se pueden añadir normas a la lógica que utiliza; se pueden cambiar los patrones de diseño de los algoritmos.

¿Por qué es importante tener en cuenta la ética?

Los algoritmos trabajan con información privada, lo que a veces se desprecia, o no se tiene suficientemente en cuenta desde ámbitos técnicos.

Los resultados de la IA se reintroducen en el sistema, con lo cual se eliminan las formas/opciones diferentes (outsiders), se reproducen los sesgos. En el ámbito del entretenimiento no es grave que me recomienden algo que no me gusta, lo dejo de ver y ya está. Sin embargo, hay ámbitos de alto riesgo. Pensemos, por ejemplo, en nuestra relación con los bancos. Todas las personas tenemos asignado un riesgo a nuestro perfil. Las mujeres tienen entre 10 y 20 veces menos servicios bancarios, con lo que disminuyen sus posibilidades de acceder a créditos, por ejemplo. Otro ejemplo muy evidente es la selección de CVs (hace tiempo que el primer filtro lo hace la IA) que se realiza atendiendo a la información de quienes están trabajando y tienen un buen desempeño. En una auditoría de algoritmo en una empresa de EE.UU. vieron que el algoritmo privilegiaba a quienes jugaban Lacrosse, eran de una determinada zona o habían ido a universidades muy concretas. “¿Serían esos los criterios con los que elegiríamos a una nueva incorporación para la empresa?

Es peligroso tomar decisiones sobre temas complejos en función de un algoritmo. [Hizo alusión al libro Armas de destrucción matemática de Cathy O’Neil, en el que se cuentan muchos casos]. Puso como ejemplo la auditoría que hicieron en un hospital sobre el triaje en emergencias. Vieron que las decisiones se estaban tomando con base en los datos financieros (según el coste del tratamiento) y no médicos (gravedad de la persona atendida). Cómo entrenamos el algoritmo determina qué problema estamos solucionando. Muchas veces se reproducen discriminaciones no deseadas. Si nuestro algoritmo contiene errores tomará peores decisiones que sin IA. Existen, según su experiencia y lo que han detectado, hasta 15 momentos de error (al introducir datos, al introducir variables, etc.). Si los errores se trasladan a ámbitos sensibles es una tragedia.

Un espacio de preocupación es incorporar a los outsiders (quienes están fuera del radar, de la ‘normalidad’). Gemma explicó que ella misma lo es. Su madre la tuvo con 14 años. Sus abuelos eran refugiados de la Guerra Civil. Si un algoritmo le hubiera asignado riesgo nadie habría creído en ella, no se le habría permitido “jugar”. Algo parecido le pasó a Rafa Nadal hace dos años en la Copa América. Las casas de apuestas le daban un 4% de probabilidad de éxito, pero ganó.

Los retos de la IA no son problemas técnicos con soluciones técnicas. Los retos del presente y del futuro son sociotécnicos, las experiencias humanas son muy complejas.

Me gustaría terminar con unas palabras de Noam Chomsky, Ian Roberts y Jeffrey Watumull [el resaltado es mío] (Chomsky et al., 2023):

“Aquí, el ChatGPT demuestra algo parecido a la banalidad del mal: plagio, apatía y omisión. Resume los argumentos estándar de la materia mediante una especie de superautocompletado, se niega a tomar partido en nada, alega no solo ignorancia sino falta de inteligencia y, en última instancia, ofrece una defensa de “solo cumplía órdenes”, trasladando la responsabilidad a sus creadores.

En resumen, el ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la responsabilidad. O bien sobredimensionan (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o bien minimizan (al mostrar falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, falsa ciencia e incompetencia lingüística de estos sistemas, solo podemos reír o llorar ante su popularidad”.

Nota – Están disponibles los siguientes vídeos:

  • Conferencia íntegra y espacio de preguntas (pinchar aquí)
  • Entrevista realizada por Peru Sasia. Reflexiones sobre la innovación tecnológica y la urgencia de desarrollar un sistema regulatorio y de prácticas responsables de las empresas (pinchar aquí)
  • Entrevista a Gemma Galdon Clavell realizada por Lorena Fernández Álvarez, Directora de Comunicación Digital de la Universidad de Deusto. Reflexiones sobre el impacto social de los sistemas algorítmicos, la reproducción de los sesgos de la sociedad en los procesos de la Inteligencia Artificial (pinchar aquí)

Referencias

No hay comentarios:

Publicar un comentario