Esto no lo vimos venir: así está cambiando nuestra forma de pensar por los errores de la Inteligencia Artificial
A medida que van avanzando los modelos de Inteligencia Artificial y se populariza su uso, también somos más conscientes sobre algunos de los riesgos inherentes a estos avances. Ahora un estudio científico demuestra que uno de los riesgos es contagiarnos de los prejuicios que tiene la IA y comenzar a usarlos en el razonamiento humano.
El nuevo estudio de la Universidad de Deusto ha puesto en claro cuál es uno de los peligros de la Inteligencia Artificial que no habíamos visto venir hasta ahora.
La Inteligencia Artificial cambia nuestra forma de pensar
Una nueva investigación realizada por las psicólogas Lucía Vicente y Helena Matute de la Universidad de Deusto en Bilbao proporciona evidencias de que las personas pueden heredar sesgos de la Inteligencia Artificial (errores sistemáticos en los resultados de la IA) en sus decisiones.
Los sorprendentes resultados obtenidos por los sistemas de Inteligencia Artificial, que pueden, por ejemplo, mantener una conversación como lo hace un humano, han dado a esta tecnología una preocupante imagen de alta fiabilidad. Cada vez más campos profesionales están implementando herramientas basadas en IA para apoyar la toma de decisiones de los especialistas para minimizar los errores en sus decisiones.
Sin embargo, esta tecnología no está exenta de riesgos debido a sesgos en los resultados de la IA. Debemos considerar que los datos utilizados para entrenar los modelos sobre los que se cimenta esta tecnología reflejan decisiones humanas pasadas. Si estos datos ocultan patrones de errores sistemáticos, el algoritmo de IA aprenderá y reproducirá estos errores. De hecho, existen evidencias que indican que los sistemas de IA heredan y amplifican los prejuicios humanos.
El hallazgo más relevante de la investigación de Vicente y Matute es que también puede ocurrir el efecto contrario: que los humanos hereden sesgos de IA. Es decir, la IA no sólo heredaría sus sesgos de los datos humanos, sino que las personas también podrían heredar esos sesgos de la IA, con el riesgo de quedar atrapadas en un bucle peligroso. Scientific Reports publica los resultados de las investigaciones de Vicente y Matute.
Un bucle infinito de prejuicios y sesgos
En la serie de tres experimentos realizados por estas investigadoras, los voluntarios realizaron una tarea de diagnóstico médico. Un grupo de participantes fue asistido por un sistema de IA sesgado (mostraba un error sistemático) durante esta tarea, mientras que el grupo de control no recibió ayuda. La Inteligencia Artificial, la tarea de diagnóstico médico y la enfermedad eran ficticias. Todo el escenario fue una simulación para evitar interferencias con situaciones reales.
Los participantes asistidos por el sistema de IA sesgado cometieron el mismo tipo de errores que la IA, mientras que el grupo de control no cometió estos errores. Por tanto, las recomendaciones de la IA influyeron en las decisiones de los participantes. Sin embargo, el hallazgo más significativo de la investigación fue que, después de la interacción con el sistema de IA, esos voluntarios continuaron imitando su error sistemático cuando pasaron a realizar la tarea de diagnóstico sin ayuda.
En otras palabras, los participantes que fueron asistidos por primera vez por la IA sesgada replicaron su sesgo en un contexto sin este apoyo, mostrando así un sesgo heredado. Este efecto no se observó en los participantes del grupo de control, que realizaron la tarea sin ayuda desde el principio.
Estos resultados muestran que la información sesgada procedente de un modelo de Inteligencia Artificial puede tener un impacto negativo duradero en las decisiones humanas. El hallazgo de una herencia del efecto de sesgo de la IA apunta a la necesidad de realizar más investigaciones psicológicas y multidisciplinarias sobre la interacción entre la IA y los humanos. Además, también se necesita una regulación basada en evidencia para garantizar una IA justa y ética, considerando no sólo las características técnicas de la IA sino también los aspectos psicológicos de la IA y la colaboración humana.