Reporta beneficios y utilidades en todos los sectores y servicios y va a transformar la vida cotidiana, pero la Inteligencia Artificial (IA) se ha convertido en una nueva amenaza y en un reto para la adecuada protección de los datos personales ante la capacidad de esta tecnología de recabar datos y trazar perfiles, y hacerlo además sin ningún consentimiento.
A través del «aprendizaje automático», de técnicas de «minería de datos» o de algoritmos predictivos, las máquinas son capaces de tratar millones de datos y hacer análisis y deducciones, pero pueden hacerlo con sesgos que, si no son revisados y reinterpretados, podrían incluso definir perfiles personales que ni siquiera sean exactos, almacenarlos y tratarlos sin autorización.
La IA está detrás de la personalización de anuncios en internet; de la predicción de hipotecas; del diagnóstico de pacientes a partir de sus datos; del reconocimiento facial en lugares donde prima la seguridad; de los asistentes inteligentes en el hogar; de la optimización del recorrido que hace una persona; o de los procedimientos de muchas empresas para seleccionar a sus trabajadores.
Para poner de relieve los aspectos más importantes que se deben tener en cuenta a la hora de diseñar productos y servicios que incluyen el tratamiento de datos a partir de la inteligencia artificial y adaptarlos al Reglamento General de Protección de Datos, la Agencia Española de Protección de Datos (AEPD) ha editado una guía que repasa las inquietudes que genera el uso de esta tecnología.
Luis de Salvador, responsable de la Unidad de Evaluación y Tecnologías de la AEPD, ha señalado que la Inteligencia Artificial puede implicar riesgos «pero también puede ser una herramienta para la protección de los datos personales» y ha apuntado que existen ya aplicaciones basadas en esa tecnología que podrían servir para reforzar la protección de los datos personales.
«Todo avance e innovación conlleva grandes beneficios y también posibles riesgos; el peligro de esos riesgos está en ignorarlos», ha expresado a EFE Luis de Salvador, quien ha manifestado que la IA supone desafíos y retos importantes «pero no insuperables».
Está seguro de que el Reglamento español es suficientemente flexible para hacer frente a este desafío e incluye los instrumentos necesarios para que todas las aplicaciones que usan ese tipo de inteligencia respeten los derechos y libertades de los ciudadanos.
Leyes fuera de juego
Miguel Ortego, profesor de Derecho en la Universidad Europea y experto en derecho tecnológico, ha subrayado sin embargo que el riesgo de que los datos personales estén indebidamente protegidos es «evidente», y ha opinado que la legislación actual se basa en modelos «muy antiguos» y no se adapta a las realidades y necesidades actuales.
«La legislación española está fuera de juego», ha declarado a EFE el profesor, y ha señalado que aunque la legislación europea y española es mucho más robusta que la americana, tienen «muchos déficits y lagunas» y no está en línea con la velocidad a la que avanza la tecnología, por lo que a su juicio va a quedar «desfasada» en pocos años.
La guía de la AEPD incide en la importancia de la «dimensión ética» de la Inteligencia Artificial y de proteger valores como la libertad, la dignidad, la justicia frente al «razonamiento mecánico», en el riesgo de que las máquinas utilicen sesgos que deriven en discriminaciones, y de que los resultados de esta tecnología sean aceptados como ciertos e inamovibles sin ningún espíritu crítico.
Este organismo ha incidido por ello en la importancia de la «exactitud» de los datos personales, y en que ésta es especialmente crítica cuando el tratamiento de los datos está basado en información biométrica -como el reconocimiento facial o la huella dactilar- o cuando se recogen datos de personas con alguna discapacidad o singularidad física.
Un riesgo real
El profesor Miguel Ortego ha advertido del riesgo «real» de almacenar información con sesgos y se ha referido al caso del sistema holandés que utilizaba el Gobierno para detectar posibles delincuentes y fraudes y usaba de forma sesgada datos sobre la raza y condiciones socio-económicas para determinar quién tiene más posibilidades de delinquir.
Ortego ha diferenciado la IA «débil» , que a su juicio es «muy predecible» y está ampliamente controlada por los programadores y las personas; y la IA «fuerte»: máquinas capaces de auto-aprender, de manejarse solas, de segmentar datos e información y hasta de vender datos sensibles por sí solas.
Ha incidido por ello en la importancia de la dimensión «ética» en una sociedad tan tecnológica y digitalizada, y se ha mostrado convencido de que en muy pocos años las maquinas van a tener una capacidad de procesar muy superior a la del cerebro humano, pero seguirán careciendo de la parte emocional. EFE