La guerra en el mundo ha cambiado, el mercadeo en el mundo ha cambiado, incluso la medicina en el mundo ha cambiado, porque le hemos entregado a la probabilidad observada, a la racionalidad eficiente y a la deshumanización de las cosas la razón, porque decidimos creer más en la evidencia fáctica y en la eficiencia sin moral, que en el instinto y sensibilidad humana.
Portafolio menciona que “El domingo China acordó devolver un dron submarino que le había incautado a un buque de la marina estadounidense. Trump dijo que había sido robado. China lo acusó de “exagerar” el incidente. La próxima vez, probablemente Beijing no le permita salirse con la suya tan fácilmente.”, mostrándonos no sólo el potencial cambio en la política exterior de los Estados Unidos, sino el desarrollo tecnológico de un dron submarino, que podría actuar militar o estratégicamente contra enemigos en el mar, sin que nadie se diera cuenta. En el mismo sentido que los drones de observación y ataque que Lucas planteó en Star Wars hace más de 30 años.
El desarrollo tecnológico nos ha llevado al punto del avance continuo en los procesos algorítmicos para la toma de decisiones, comenzando con el simple ejercicio de programatic de Amazon que nos dice que deberíamos comprar, hasta el avanzado desarrollo de Watson de IBM, que le dice a un médico que posibles diagnósticos tiene una morbilidad, en un listado priorizado por probabilidades, y los mejores tratamientos para cada caso.
El desarrollo de lo que se ha querido llamar inteligencia artificial, no es otra cosa diferente a un algoritmo que calcula probabilidades sobre lo observado y que tiene la capacidad de aprender sobre lo que observa, permitiéndole recalcular continuamente sus resultados, hasta lograr el mejor en términos racionales y de eficiencia. Esto lo plantea de manera muy clara y precisa Kevin Kelly (2016) en su más reciente charla en TED, donde deja ver como el ser humano no tiene un solo sentido de inteligencia, sino cientos del ellos, y que sin lugar a dudas los seres humanos superamos la inteligencia artificial de los algoritmos y los robots, porque somos expertos en perder el tiempo, porque somos ineficientes, debido a que no buscamos siempre la eficiencia ni la productividad, sino la solución a un problema y debemos probar muchas veces hasta encontrar la respuesta, y esta solución es filtrada por nuestros instintos y valores, que nos hacen considerar si es la mejor opción o no. Por esto la inteligencia artificial nunca será superior a la humana, porque al buscar la eficiencia y productividad sobre evidencia existente, no sabrá cómo actuar ante fenómenos nuevos o moralmente complejos.
El avance tecnológico no se compadece del avance moral, y este es el enorme riesgo de la humanidad. Muchas cosas que se pueden considerar eficientes o altamente productivas, no son necesariamente moral ni éticamente válidas, como es el caso de un carro sin conductor, que siempre obedecerá las normas de tránsito y le dará prioridad a otros vehículos, salvaguardando la vida de los peatones y pasajeros, pero no comprenderá que en algunos casos, deberá convertirse en un vehículo de emergencia, porque se está llevando a alguien al hospital en una emergencia. Por esto, sus creadores, que no tienen inteligencia artificial sino humana, les ponen un sistema de manejo manual, para evitar que las decisiones racionales de la programación, superen las decisiones emocionales que se deben tomar.
Este debate que hoy vemos en un dron o en los algoritmos de Amazon y muchas otras tiendas en línea, aún está en manos de un ser humano que toma las decisiones y que maneja la tecnología. Detrás de cada dron, hay un piloto que lo maneja y que es quien determina el curso de las acciones, en función de las recomendaciones de las máquinas y las probabilidades, pero en sus manos está el disparar o no al objetivo, y está sujeto a las órdenes de sus superiores. Más, cuando la guerra llegue a ser un estado sin humanos, con la lógica de salvar sus vidas y donde los controles morales sean remplazados por resultados de modelos de probabilidad observada, la deshumanización nos llevará a un punto donde la tecnología nos quitará lo más importante que tenemos como seres humanos: nuestra conciencia.
Aún tenemos la tranquilidad, que detrás de cada arma hay un ser humano, que siente y sabe las consecuencias de sus acciones, y pese a ser entrenado como militar y estar dispuesto a matar y morir por su país, sabe que matar es la última opción, pese a ser la menos eficiente.
Isaac Asimov vio este problema hace años, y sin duda inspiró a muchos de los autores de ciencia ficción del siglo XX, con la proposición de las 3 leyes de la robótica, donde se deja ver que el robot debe estar en función del bienestar del ser humano y jamás puede hacerle daño, por acción o por omisión.
No debemos permitir que la búsqueda de la eficiencia y la productividad, nos lleve al fin de la humanización. Quizás esto comenzó con las leyes de oferta y demanda de Marshall (1890), que planteó de manera “algorítmica” el concepto de la “mano invisible” de Adam Smith (1767), al matematizar el principio de la utilidad marginal, donde se maximiza el beneficio de las personas, sin importar sus impactos en la comunidad, bajo la premisa que si todos buscan su propio beneficio, esto al final será beneficioso para todos; concepto que afortunadamente fue refutado en sus bases fundamentales por John Nash (1950) con su modelo de equilibrios no dinámicos, donde deja ver que el beneficio de uno, es posible un mal para muchos.
Hoy los algoritmos pueden pensar de manera eficiente y con alta productividad, sobre lo que conocen, pero no sobre lo que no están programados, y por eso, es completamente necesario que detrás de cada máquina, cálculo y análisis de resultados, haya un ser humano para la toma de decisiones; un buen ejemplo de esto es el mundo de la política, donde se pueden ver dos mindsets muy diferentes que actúan con el mismo objetivo, pero con diferentes sensibilidades. El técnico, que desde a evidencia y su conocimiento, recomienda un curso se acción eficiente, con los mejores resultados para todos, y el político, que pese a comprender que la propuesta técnica es impecable, no tiene la sensibilidad social requerida y espera el momento correcto para ejecutarla, con algunas modificaciones.
Muchas veces un médico ha pensado que es momento que un paciente muera, y otro colega piensa diferente, y el curso de los hechos muestra que el paciente se recupera de manera inesperada, porque paso algo que no se había considerado, o incluso, no se conocía en el momento, y muchos años después se podrá explicar lo que pasó.
La inteligencia artificial, no es gran reto de la humanidad en el futuro; el gran reto es mantener nuestra moral natural, pese a la lógica de la eficiencia.
Bienvenido el futuro, la IA es una realidad ineludible. Estará esto tan integrado a nosotros que seremos los mismos siempre.
Califica:
Muy interesante es el tema de las consecuencias éticas y morales de la IA. Aunque yo discrepo con ud, creo que eventualmente (digamos 50 años) se dará a luz a una IA como ningún otra, una que tiene muchos tipos de inteligencia como los humanos y que ademas es autoconciente y quizá con emociones, y que nos podra superar y poner en riesgo de extinción como especie.
Califica: