El desarrollo actual de la tecnología de Inteligencia Artificial (IA) genera inquietudes en algunos sectores de la sociedad. Algunos se preocupan por los puestos de trabajo, otros por los posibles plagios o uso en la academia. En nuestro caso abordaremos el tema del sesgo en el diseño, desarrollo y uso de estas herramientas.

Las herramientas de IA usan métodos de aprendizaje automático (ML), mediante los cuales se analizan patrones y estructuras de datos, para razonar y tomar decisiones sin interacción humana. Para lograr esto, uno o muchos repositorios de información deben alimentar el conocimiento de la IA para poder tomar decisiones por sí misma. 

¿Qué consecuencias conlleva que el diseño de IA esté sesgado en alguna dirección?

Las aplicaciones desarrolladas con IA han ganado cada vez más influencia. Según el sitio web de la comunidad de CompTIA (The Computing Technology Industry Association), para el 2025 el 50 % de los trabajadores en áreas del conocimiento usarán asistentes virtuales, por otra parte, el 23 % de las compañías de servicio al cliente usan en la actualidad dichos asistentes.

Puede que algunos usuarios de estas herramientas sean vulnerables, pues en su mayoría no conocen las formas en las que se han programado, entrenado, ni han analizado críticamente las herramientas de IA que utilizan. Dado el crecimiento exponencial de la IA, la sociedad no ha tenido el tiempo suficiente para considerar las consecuencias del uso de esta tecnología, dados los prejuicios o distorsiones de la realidad que podrían existir; optamos por confiar en las respuestas de estas herramientas sin considerar que las decisiones y resultados puedan incluir sesgos de diversos tipos.

Respecto a los sesgos mencionados, por ejemplo, en la programación de estas tecnologías pueden pesar las ideologías o pensamientos puntuales de las empresas o personas desarrolladoras. Esta situación es indeseada pues el diseño de herramientas de IA debería ser imparcial, principalmente por el impacto que estas pueden tener en quienes las usan. El desarrollador no solo es crucial en la creación de los programas, sino también en la retroalimentación constante para garantizar su alineación con los principios éticos y sociales.

La Oficina de las Naciones Unidas contra la droga y el delito resalta la importancia de promover un uso ético de esta tecnología, en términos de transparencia e imparcialidad. Darle relevancia a la ética, no solo es crítico, sino que también debe acompañarse de una mayor conciencia entre los desarrolladores. Actualmente, muchas organizaciones han adoptado la IA para optimizar y agilizar diversos procesos, como puede ser su implementación en procedimientos judiciales, como evidencia el artículo de la UNODC, pero pueden surgir dilemas éticos.

El Instituto de Ingeniería del Conocimiento destaca la importancia de la justicia en el desarrollo de IA, y a la vez señala sesgos y discriminación, especialmente de tipo no intencional. Estas herramientas pueden generar inconvenientes en el acceso a información verídica, especialmente para niños y adolescentes que pueden aceptarla sin cuestionamientos. En este sentido, se requiere de un análisis exhaustivo de datos para garantizar la imparcialidad y coherencia con la realidad de los resultados generados.

Otro riesgo de sesgo en la tecnología es inherente a los conjuntos de datos usados para su entrenamiento. Acá quisiéramos recalcar la importancia de la responsabilidad ética en la selección y manipulación de información. Por ejemplo, el entrenamiento de IA con datos que reflejan distintas ideologías, algunas discriminatorias, podría resultar en la amplificación de desigualdades y prejuicios existentes. Estas tecnologías pueden estar tomando información de bases de datos que están adaptadas a un modelo de sociedad particular y, por lo tanto, los datos utilizados podrían replicar sesgos inherentes al enfoque de dicha sociedad. Es el caso de problemáticas de racismo, machismo, discriminación a la comunidad LGTBIQ+, entre otras, que han luchado históricamente por una aceptación social.

En este sentido, las bases de datos y las imágenes utilizadas para entrenar software deben observarse con detenimiento. Como lo definió la revista TIME en el artículo denominado “Artificial Intelligence Has a Problem With Gender and Racial Bias. Here’s How to Solve It” en el cual el diseño de un software de análisis facial no era capaz de distinguir el rostro de una persona de raza negra, solo por el color de su piel. Este es un caso particular que evidencia una conducta discriminatoria o excluyente.

La inclusión de información de entrenamiento (textos, imágenes, videos, entre otros) requiere un enfoque ético y responsable para garantizar su contribución positiva a la sociedad. Nos parece contraproducente el uso de datos e información de modelos que han normalizado algún tipo de segregación.

Hoy en día es cada vez más común el uso de estas tecnologías en diversos sectores de la economía, como pueden ser el mercadeo, publicidad, medicina, en procesos de selección de recursos humanos o como asistentes en procesos judiciales. Como hemos visto, puede suceder que algunas poblaciones puedan estar subrepresentadas, o que algunos patrones no tan deseables de la sociedad actual se manifiesten de una manera más fuerte o se normalicen. No es aceptable que la tecnología evolucione mientras mantenga prejuicios propios, ya sean actuales o del pasado, en su modelo de conocimiento interno.

Para finalizar, quisiéramos dejar algunas preguntas para la reflexión: ¿Qué se puede hacer para mejorar esta situación? ¿Qué pasa cuando el sesgo se da sin intención? ¿Es deseable que el entrenamiento de inteligencias artificiales se base en un modelo de sociedad que es cambiante constantemente?

Por:

Wilmer Daniel Herrera Vargas, estudiante de Ingeniería de Sistemas

Gabriel Eduardo Ávila Buitrago, docente de la Escuela de Tecnologías de la Información y las Comunicaciones

Semillero CRITIC

Politécnico Grancolombiano

 

Referencias bibliográficas: