José Carlos Hernández Zuluaga, docente del programa de Derecho del Politécnico Grancolombiano sede Medellín.
La innovación y la tecnología han dado vida a nuevos productos que facilitan la vida de las personas, incrementan la productividad y hacen más efectiva la gobernabilidad. Uno de los más impresionantes resultados de esta nueva etapa de la evolución humana son los programas que ofrecen la posibilidad de hacer de las máquinas objetos inteligentes. Cuando ello sucede, éstas actúan de manera autónoma y pueden causar daños a personas o bienes, lo que puede generar, en sistemas de alta complejidad técnica, un confuso juicio de responsabilidad patrimonial dirigido al productor, proveedor, propietario, programador o a la misma máquina, incluso, con pena de muerte. Se habla hoy de la necesidad de una modernización tecnológica del derecho de la responsabilidad.
- ¿Qué es la Inteligencia Artificial?
Sin entrar en disquisiciones técnicas propias de la ciencia de la computación, se ha definido la Inteligencia Artificial (IA) como la forma de hacer las máquinas inteligentes mediante la programación de una serie de comandos digitales lógicos denominados “algoritmos” y cuya finalidad es poder resolver problemas a través de sistemas computacionales. Esta programación, se realiza a través de hardware –input-, con algoritmos especiales de autoaprendizaje donde la máquina actúa según modelos, datos, procesos o experiencias anteriores. La tecnología tiene la particularidad de replicar mejorando: El programa se vuelve el programador (Lemley y Casey, 2019).
Este aprendizaje surge a partir de la utilización de herramientas estadísticas, programaciones, complementos, feedback o Big Data y en el cual internet, como Servicio de la Sociedad de la Información (González de Alaiza, 2013), sirve de catalizador y medio para que las máquinas puedan interpretar, planear, descifrar lenguaje y reconocer objetos de forma independiente.
La IA se encuentra en juegos -información aplicada en gaming- ,redes neuronales -réplica de sistemas cerebrales humanos de aprendizaje-, modelos de interpretación de lenguaje natural -como en el caso de chatbots que reconoce solicitudes-, programación robótica y sistemas expertos -resuelven con alto grado de especialización un problema especial- (Almonacid y Coronel, 2019).
En el campo jurídico se puede encontrar IA en algunos sistemas que permiten resolver problemas jurídicos a través de la búsqueda de jurisprudencia, la revisión de contratos, la automatización de procesos en la administración pública, entre otras aplicaciones. Ejemplo de ello es “Ross”, el sistema de Baker & Hostetler que resuelve consultas a partir de experiencia e información a la que tiene acceso a través de internet (López, 2019). En el ámbito local se tiene “Siarelis”, que asesora a la Superintendencia de sociedades en materia de conflictos societarios y el cual fue inspirado en el programa Cyberjustice Laboratory de la Universidad de Montreal (Supersociedades, 2018). Este sistema, denominado “robot” por el entonces Superintendente, resuelve litigios a partir de antecedentes – estilo tradicionalmente anglosajón- y responde preguntas. No obstante la creencia generalizada de que todo sistema que integra IA es un robot, éstos tienen unas características muy particulares, entre otras: la capacidad de interactuar materialmente con el mundo y como consecuencia, dañar físicamente la propiedad o las personas (Lemley y Casey, 2019).
Independientemente de la manifestación corpórea o digital de la IA, las ventajas de su aplicación son cada vez más notorias. Desde el reconocimiento facial hasta los rankings universitarios, todo integra IA. Ella hace de los procesos, además de efectivos; más baratos y menos complejos. Se puede pensar como hasta hace unos años, un asistente personal era un lujo, hoy día, la mayoría de los teléfonos móviles permiten el acceso a uno.
Sus virtudes técnicas sin embargo pueden llegar a ser sus mayores falencias. Los algoritmos pueden estar mal diseñados, ser manipulables o sus datos ser imperfectos, lo que, en un mundo hiperconectado, supone la multiplicación de sus efectos dañinos en segundos. Hace poco “Tay”, un robot de Microsoft que respondía mensajes en Twitter fue distorsionado por usuarios y en cuestión de horas replicaba obscenidades, por lo cual tuvo que ser desconectado.
Por cuanto la IA depende completamente de datos, la influencia que estos tienen en el sistema o el robot pueden llegar a ser catastróficos. Se puede pensar en la utilización de un investbot que realice o proponga adquisiciones a partir de información tergiversada o sesgada y con ello, genere un daño patrimonial a una empresa, sus clientes o el caso de un sistema que proponga candidatos para un trabajo y que discrimine por sexo, edad o raza.
Por la multiplicidad de eventos en que la IA puede y va a repercutir en el tráfico jurídico y por los efectos que ya se advierten en el derecho patrimonial, en el año 2017, el Parlamento Europeo emitió la resolución 2015/2103 en la que llama a la actualización de las normas de Responsabilidad Civil en el contexto de las tecnologías digitales, ámbito en que ha comisionado un grupo de expertos que presentará informes que permitan una normativa comunitaria ajustada a las nuevas realidades.
En el trabajo adelantado por algunos de esos expertos, se ha identificado que existen cuatro aspectos que hacen que estas situaciones jurídicas no puedan ser tratadas bajo las reglas tradicionales (Rodriguez de las Heras, 2019).
La primera de ellas tiene que ver con la complejidad del sistema, a partir del intrincado comando lógico estructural de la IA, la cantidad de personas o entes que pueden interferir en su configuración –v.g. usuarios, empresarios, internet, operadores del sistema, programadores, fabricantes del hardware- y la abundancia de sus componentes –v.g. software, plataformas, redes, etc. Todo esto tiene impacto en la atribución de la responsabilidad a partir de un daño con múltiples causas que incluso pueden no ser evidentes. Cuando interfieren diversos actores, el alcance de la responsabilidad depende de la política que se adopte en el tratamiento de cada uno de ellos. En una relación de consumo, por daños derivados de productos defectuosos donde la solidaridad legal se impone, el asunto puede resolverse a favor del consumidor cuando es claro quien hace parte de la cadena de comercialización, en otras situaciones, por la complejidad técnica derivada del sistema como un todo, la cuestión deberá analizarse por cada interviniente.
En segundo lugar, se habla de la autonomía en punto de sus características inherentes. Como la máquina aprende, aplica, tomando decisiones que pueden no atribuirse a su fabricante o programador -como es el caso de “Tay”. Aquí la previsibilidad como factor de imputación objetiva es clave para determinar la obligación del fabricante, programador y comercializador. Esta autonomía genera también que el sistema pueda tomar decisiones por el usuario, lo que debe analizarse a partir del tradicional principio solus consensus obligat y en caso de los denominados Smart Contracts, en que se ejecuten acuerdos aislados de principios jurídicos tradicionales como la buena fe.
En tercer lugar, el efecto “Black Box” de la IA u opacidad del sistema. De acuerdo con este concepto, se conocen los principios por los cuales el sistema toma la decisión, mas no el cómo se toma. En efecto, las fake news, los spams, los datos intencionales, las condiciones de las redes de intercomunicación y todos aquellos factores que influyen en el resultado dañino no pueden siempre ser reconocidos individualmente como la causa del daño. Además, por ser un producto que integra no solo bienes sino servicios, puede no enmarcarse en lo que el Estatuto del Consumidor colombiano define como producto defectuoso ex artículo 5 (17).
Reconociendo que los cambios en las tendencias tecnológicas son una realidad cada vez más palpable y han evidenciado la complejidad de los efectos económicos que conlleva el diseño, la producción, la comercialización y la postventa de estos productos, se hace necesario profundizar y ampliar las discusiones en torno a ellos, especialmente, en punto del alcance de la responsabilidad patrimonial por los desbalances que generen en el mercado.
José Carlos Hernández Zuluaga. Máster en Derecho de Daños de la Universidad de Girona, Magíster en Derecho Procesal de la Universidad de Medellín, especialista en Derecho de los Negocios y Derecho Procesal Civil de la Universidad Externado de Colombia y abogado de la Universidad de Medellín. Profesor universitario y actualmente docente de tiempo completo del Politécnico Grancolombiano sede Medellín, adscrito al grupo de investigación: Derecho, sociedad e Industrias creativas avalado por la misma institución universitaria.
Comentarios