Una decisión correcta en un momento crítico puede ser una cuestión de vida o muerte, razón por la cual es necesario desarrollar tecnologías confiables de inteligencia artificial (IA) que mantengan a los humanos en el centro del proceso de toma de decisiones.
Es de vital importancia no pasar por alto la dimensión humana de los sistemas basados en IA. El diálogo entre humanos y máquinas es una cuestión de importancia estratégica y hay que desarrollar e implementar sistemas de inteligencia artificial que respalden la interacción y el diálogo intuitivo entre estos.
Esto ha llevado al desarrollo de una nueva estrategia de IA, diseñada para resolver problemas de complejidad cada vez mayor, que pone al ser humano en el centro: la Inteligencia Aumentada, es decir, que la inteligencia humana puede mejorarse mediante tecnologías basadas en IA adaptadas a un propósito siempre que tenga sentido para la sociedad.
La Inteligencia Aumentada es capaz de amplificar esa combinación hombre-máquina y, lo más importante, ofrecer a los humanos nuevas herramientas para desarrollar mejor su juicio y capacidades de resolución de problemas, particularmente en situaciones críticas. Sin embargo, no puede reemplazar al ser humano, especialmente cuando hay vidas en juego.
Por ejemplo, en un triage médico, la inteligencia aumentada podría ayudar a los equipos médicos a analizar cantidades masivas de información, como señales fisiológicas capturadas por sensores, lo cual sería imposible para los humanos. Sin embargo, la tecnología lo realiza fácilmente y este sistema de detección podría ofrecer apoyo a las decisiones de los trabajadores de la salud para concentrarse en los pacientes en situaciones más críticas.
Para estar seguros que podemos confiar en la IA, en campos en donde está de por medio la vida de las personas, los sistemas digitales basados en ella son particularmente estrictos en sus requisitos y hay que demostrar que se puede confiar en la IA, no solo decirlo. Si la aplicación de contador de pasos de nuestro teléfono inteligente produce una lectura inexacta porque el algoritmo es solo aproximado, no es gran cosa. Pero para los sistemas que hacen que los aviones despeguen de manera segura, el estándar es diferente.
Cuando se desarrolla un sistema basado en IA, la prioridad es demostrar su validez, es decir, asegurarse de que funcione según lo previsto. ¿Cómo se puede demostrar que un sistema hará exactamente lo que se espera que haga en su dominio de diseño operativo o en las condiciones precisas para las que fue diseñado para funcionar? Imagínense el problema si el algoritmo no calcula la longitud de pista necesaria para aterrizar un avión de pasajeros.
Ahora bien, ¿cómo eliminar las vulnerabilidades y asegurar que estos sistemas puedan resistir los ciberataques y otras amenazas? Es importante demostrar que los sistemas de IA son lo suficientemente robustos para resistir ciberataques y otros actos maliciosos. Hoy, la relación entre seguridad e IA funciona en ambos sentidos: además de construir sistemas ciberseguros basados en IA, también se utiliza IA para desarrollar algoritmos de ciberseguridad. Cuando se trata de ciber fraude y otras formas de actividad maliciosa, la tecnología de inteligencia artificial avanza al mismo ritmo que las amenazas.
Asimismo, es importante poder demostrar que un sistema ha aprendido lo que queríamos que aprendiera porque el aprendizaje erróneo puede ser un problema real para las tecnologías de inteligencia artificial. Hay suficientes casos ilustrados de cómo la IA ha leído erróneamente algunas señales proporcionando información imprecisa.
Dado que la ciencia es una búsqueda constante de verdades simples y universales, el desarrollo de una IA confiable es una oportunidad perfecta para aprovechar el poder de la tecnología para construir un mundo mejor para todos.