Cerrar Menú Blogs
Las opiniones de los blogueros son de su estricta responsabilidad y no representan la opinión de este portal.
Profile image

Ingresa o regístrate acá para seguir este blog.

Seguir este blog

El desarrollo actual de la tecnología de Inteligencia Artificial (IA) genera inquietudes en algunos sectores de la sociedad. Algunos se preocupan por los puestos de trabajo, otros por los posibles plagios o uso en la academia. En nuestro caso abordaremos el tema del sesgo en el diseño, desarrollo y uso de estas herramientas.

Las herramientas de IA usan métodos de aprendizaje automático (ML), mediante los cuales se analizan patrones y estructuras de datos, para razonar y tomar decisiones sin interacción humana. Para lograr esto, uno o muchos repositorios de información deben alimentar el conocimiento de la IA para poder tomar decisiones por sí misma. 

¿Qué consecuencias conlleva que el diseño de IA esté sesgado en alguna dirección?

Las aplicaciones desarrolladas con IA han ganado cada vez más influencia. Según el sitio web de la comunidad de CompTIA (The Computing Technology Industry Association), para el 2025 el 50 % de los trabajadores en áreas del conocimiento usarán asistentes virtuales, por otra parte, el 23 % de las compañías de servicio al cliente usan en la actualidad dichos asistentes.

Puede que algunos usuarios de estas herramientas sean vulnerables, pues en su mayoría no conocen las formas en las que se han programado, entrenado, ni han analizado críticamente las herramientas de IA que utilizan. Dado el crecimiento exponencial de la IA, la sociedad no ha tenido el tiempo suficiente para considerar las consecuencias del uso de esta tecnología, dados los prejuicios o distorsiones de la realidad que podrían existir; optamos por confiar en las respuestas de estas herramientas sin considerar que las decisiones y resultados puedan incluir sesgos de diversos tipos.

Respecto a los sesgos mencionados, por ejemplo, en la programación de estas tecnologías pueden pesar las ideologías o pensamientos puntuales de las empresas o personas desarrolladoras. Esta situación es indeseada pues el diseño de herramientas de IA debería ser imparcial, principalmente por el impacto que estas pueden tener en quienes las usan. El desarrollador no solo es crucial en la creación de los programas, sino también en la retroalimentación constante para garantizar su alineación con los principios éticos y sociales.

La Oficina de las Naciones Unidas contra la droga y el delito resalta la importancia de promover un uso ético de esta tecnología, en términos de transparencia e imparcialidad. Darle relevancia a la ética, no solo es crítico, sino que también debe acompañarse de una mayor conciencia entre los desarrolladores. Actualmente, muchas organizaciones han adoptado la IA para optimizar y agilizar diversos procesos, como puede ser su implementación en procedimientos judiciales, como evidencia el artículo de la UNODC, pero pueden surgir dilemas éticos.

El Instituto de Ingeniería del Conocimiento destaca la importancia de la justicia en el desarrollo de IA, y a la vez señala sesgos y discriminación, especialmente de tipo no intencional. Estas herramientas pueden generar inconvenientes en el acceso a información verídica, especialmente para niños y adolescentes que pueden aceptarla sin cuestionamientos. En este sentido, se requiere de un análisis exhaustivo de datos para garantizar la imparcialidad y coherencia con la realidad de los resultados generados.

Otro riesgo de sesgo en la tecnología es inherente a los conjuntos de datos usados para su entrenamiento. Acá quisiéramos recalcar la importancia de la responsabilidad ética en la selección y manipulación de información. Por ejemplo, el entrenamiento de IA con datos que reflejan distintas ideologías, algunas discriminatorias, podría resultar en la amplificación de desigualdades y prejuicios existentes. Estas tecnologías pueden estar tomando información de bases de datos que están adaptadas a un modelo de sociedad particular y, por lo tanto, los datos utilizados podrían replicar sesgos inherentes al enfoque de dicha sociedad. Es el caso de problemáticas de racismo, machismo, discriminación a la comunidad LGTBIQ+, entre otras, que han luchado históricamente por una aceptación social.

En este sentido, las bases de datos y las imágenes utilizadas para entrenar software deben observarse con detenimiento. Como lo definió la revista TIME en el artículo denominado “Artificial Intelligence Has a Problem With Gender and Racial Bias. Here’s How to Solve It” en el cual el diseño de un software de análisis facial no era capaz de distinguir el rostro de una persona de raza negra, solo por el color de su piel. Este es un caso particular que evidencia una conducta discriminatoria o excluyente.

La inclusión de información de entrenamiento (textos, imágenes, videos, entre otros) requiere un enfoque ético y responsable para garantizar su contribución positiva a la sociedad. Nos parece contraproducente el uso de datos e información de modelos que han normalizado algún tipo de segregación.

Hoy en día es cada vez más común el uso de estas tecnologías en diversos sectores de la economía, como pueden ser el mercadeo, publicidad, medicina, en procesos de selección de recursos humanos o como asistentes en procesos judiciales. Como hemos visto, puede suceder que algunas poblaciones puedan estar subrepresentadas, o que algunos patrones no tan deseables de la sociedad actual se manifiesten de una manera más fuerte o se normalicen. No es aceptable que la tecnología evolucione mientras mantenga prejuicios propios, ya sean actuales o del pasado, en su modelo de conocimiento interno.

Para finalizar, quisiéramos dejar algunas preguntas para la reflexión: ¿Qué se puede hacer para mejorar esta situación? ¿Qué pasa cuando el sesgo se da sin intención? ¿Es deseable que el entrenamiento de inteligencias artificiales se base en un modelo de sociedad que es cambiante constantemente?

Por:

Wilmer Daniel Herrera Vargas, estudiante de Ingeniería de Sistemas

Gabriel Eduardo Ávila Buitrago, docente de la Escuela de Tecnologías de la Información y las Comunicaciones

Semillero CRITIC

Politécnico Grancolombiano

 

Referencias bibliográficas:

  • Matzelle, E. (2024). Top artificial intelligence statistics and facts for 2024. Default. https://connect.comptia.org/blog/artificial-intelligence-statistics-facts
  • e-intelligent. (2023). Pasos para utilizar aplicaciones de Inteligencia Artificial para el análisis de información. E-intelligent.es; e-intelligent. https://www.e-intelligent.es/es/blog/pasos-para-utilizar-aplicaciones-inteligencia-artificial-para-el-analisis-de-informacion
  • Ocanto Silva, I. (2009). La creación de imágenes mentales y su implicación en la comprensión, el aprendizaje y la transferencia. SAPIENS, 10(2), 243–254. https://ve.scielo.org/scielo.php?script=sci_arttext&pid=S1317-58152009000200013
  • Artificial intelligence has a problem with gender and racial bias. Here’s how to solve it. (s/f). Time. Recuperado el 24 de abril de 2024, de https://time.com/5520558/artificial-intelligence-racial-gender-bias/
(Visited 199 times, 1 visits today)
PERFIL
Profile image

Voces de la Academia es un espacio comprometido con la transformación social y el acceso a la educación superior de calidad.

Más posts de este Blog

Ver más

Lo más leído en Blogs

1

Este fin de semana, en el parque Simón Bolívar, de Bogotá,(...)

2

Hoy tengo un compromiso con mi sentir, más que con la(...)

3

Sucede mucho, posiblemente más de lo que uno quisiera. Y no(...)

0 Comentarios
Ingresa aquí para que puedas comentar este post
Reglamento de comentarios

ETCE no se responsabiliza por el uso y tratamiento que los usuarios le den a la información publicada en este espacio de recomendaciones, pero aclara que busca ser la sombrilla de un espacio donde el equilibrio y la tolerancia sean el eje. En ese camino, disponemos de total libertad para eliminar los contenidos que:

  1. Promuevan mensajes tipo spam.
  2. El odio ante una persona o comunidad por su condición social, racial, sexual, religiosa o de situación de discapacidad.
  3. Muestren o impulsen comportamientos o lenguajes sexualmente explícitos, violentos o dañinos.
  4. Vulneren o atenten contra los derechos de los menores de edad.

Además, tenga en cuenta que:

  • - El usuario registrado solo podrá hacer un voto y veto por comentario.
Aceptar
¿Encontraste un error?

Para EL TIEMPO las observaciones sobre su contenido son importantes. Permítenos conocerlas para, si es el caso, tomar los correctivos necesarios, o darle trámite ante las instancias pertinentes dentro de EL TIEMPO Casa Editorial.


Debes escribir el comentario
¡Gracias! Tu comentario ha sido guardado
Tu calificación ha sido registrada
Tu participación ya fue registrada
Haz tu reporte
Cerrar
Debes escribir tu reporte
Tu reporte ha sido enviado con éxito
Debes ser usuario registrado para poder reportar este comentario. Cerrar