En las últimas semanas la Casa Blanca puso de manifiesto la intención de poner en cintura los desarrollos de Inteligencia Artificial siguiendo los pasos de EUROPA, dejando claro que la nación y sus ciudadanos debe asumir la responsabilidad de todo lo que implica la inteligencia artificial (IA).
¿Cómo pretende Estados Unidos regular la Inteligencia Artificial?
Estados Unidos alberga algunas de las empresas de tecnología de Inteligencia Artificial más grandes del mundo y, hasta ahora, ha sido uno de los pocos países occidentales sin una guía clara sobre cómo proteger a sus ciudadanos de las amenazas derivadas de esta tecnología, un campo en el que Europa lleva un largo recorrido con muchos avances en la materia.
Desde una perspectiva pragmática se podría afirmar que hasta ahora Estados Unidos se ha mostrado reacio a introducir nuevas regulaciones, incluyendo al gobierno Biden, que Hasta ahora se había limitado a pedir mayor protección de la privacidad y exigir de igual forma que las empresas tecnológicas dejen de recopilar datos privados de los ciudadanos[1].
Anteriormente durante el gobierno de TRUMP se había presentado un documento dirigido a todas las agencias estatales, compuesto por diez principios de referencia para la política pública y regulatoria sobre Inteligencia Artificial[2], sin mayores especificaciones y sin resolver los problemas de fondo.
Un giro en la política
Recientemente el presidente Joe Biden sorprendió al mundo al presentar una nueva Declaración de derechos de la IA que destaca cinco barreras de defensa que los estadounidenses deben conocer. Lo relevante de esta declaración, es que por primera vez se aborda una posible regulación integral, que incluiría a las empresas tecnológicas y los ciudadanos para que trabajen mancomunadamente en la formulación y regulación de los procesos de la denominado IA.
El tema en contexto
La Inteligencia Artificial (IA), hace referencia al tipo de procesamiento basado en algoritmos informáticos que puede desarrollar una máquina computacional, mediante un tipo de imitación electrónica de las funciones cognitivas humanas como: percibir, razonar, aprender y resolver problemas[3].
Según Takeyas (2007) la IA:
La Inteligencia Artificial hace parte de los algoritmos con los que se han diseñado las aplicaciones que usamos diariamente en nuestros móviles o computadores, siendo esencialmente programas que utilizamos en muchos aspectos de nuestra vida cotidiana. Por ejemplo, la detección de rasgos faciales para desbloquear los dispositivos móviles, o los asistentes virtuales de voz como Siri de Apple, o el mecanismo mediante el cual Netflix nos ofrece la oferta de contenidos en la pantalla de inicio o como Facebook ordena los contenidos publicados por nuestros amigos en el Feed que visualizamos cada vez que abrimos la aplicación.
La Inteligencia Artificial estará presente en prácticamente todos los aspectos de la vida humana y aunque en la mayoría de los casos se trata de soluciones para hacernos más fácil el mundo que habitamos, también existe un alto riesgo asociado a esta tecnología, no solo porque puede utilizarse para usos militares y geopolíticos, sino porque en un determinado momento dicha inteligencia puede llegar a ser tan autónoma que se vuelva en contra de la humanidad misma, al mejor estilo del argumento planteado por la trilogía de Matrix.
La nueva estrategia del gobierno Biden
Recientemente la administración de Biden anunció los principios básicos para la reforma tecnológica y la responsabilidad, incluida la reducción de las decisiones algorítmicas discriminatorias, la promoción de la competencia en tecnología y la protección federal de la privacidad.
La Declaración de Derechos de la IA, una idea presentada hace un año por la Oficina de Política Científica y Tecnológica (OSTP) del gobierno de los EE. UU., es un modelo de cómo lograr estos objetivos. Proporciona una guía práctica para las agencias gubernamentales y hace un llamado a las empresas tecnológicas, los investigadores y la sociedad civil para que tomen medidas para apoyar estas protecciones.
El gobierno norteamericano reconoce que la inteligencia artificial es una tecnología poderosa que está transformando nuestra sociedad. También tiene el potencial de causar daños graves, a menudo afectando de manera desproporcionada a los grupos minoritarios. Por ejemplo, la tecnología de reconocimiento facial utilizada para la vigilancia y los algoritmos para distribuir beneficios no son precisos para las minorías.
De acuerdo con lo expresado por el presidente, el nuevo plan tiene como objetivo restaurar ese equilibrio y dice que los estadounidenses deben estar protegidos de sistemas inseguros o ineficaces. Al mismo tiempo, establece que los algoritmos no pueden ser discriminatorios y deben usar el sistema tal como fue diseñado de manera justa. Además, argumenta que los ciudadanos deben tener el control de sus datos y que deben estar protegidos contra el uso abusivo de datos a través de defensas integrales. Los ciudadanos también deben saber cuándo usar sistemas automatizados con sus datos y comprender cómo esto afecta los resultados. Al final, las personas siempre deberían poder elegir alternativas que no utilicen sistemas de IA para apoyar a los humanos y obtener remedios cuando las cosas van mal.
La reacción de los expertos en la materia
La Declaración de Derechos de la OSTP es “impresionante”, dijo Mark Rotenberg, director del Centro sin fines de lucro para Inteligencia Artificial y Política Digital, que se especializa en la regulación de IA.
Willmary Escoto, analista de políticas de EE. UU. en el grupo de derechos digitales Access Now, señaló para MIT Tecnologhy Review que las nuevas pautas enfatizan sutilmente “la importancia de la minimización de datos”, al tiempo que “nombran y abordan lo que las personas experimentan en otras tecnologías de IA, como el reconocimiento de emociones y diversas lesiones”.
La industria de la tecnología ha acogido con beneplácito el reconocimiento de la Casa Blanca de que la IA también se puede utilizar para la buena voluntad.
Matt Schruers, presidente del grupo tecnológico CCIA, cuyos miembros incluyen empresas como Google, Amazon y Uber, dijo que apreciaba la “tendencia” del gobierno de que las agencias gubernamentales deberían predicar con el ejemplo en el establecimiento de principios éticos relacionados con la IA, evitando la discriminación y sirviendo a los ciudadanos.
Shaundra Watson, directora de supervisión de IA en el cabildeo tecnológico de BSA, cuyos miembros incluyen a Microsoft e IBM, apoyó el enfoque del documento en las evaluaciones de riesgo e impacto.
Las nuevas salvaguardas replican las introducidas por la Unión Europea, pero el documento no es vinculante y no constituye una regulación del gobierno de los EE. UU., ya que la OSTP no puede hacer leyes. Los legisladores tendrán que presentar nuevos proyectos de ley.
Russell Wald, director del Human-Centered AI Policy Institute de la Universidad de Stanford, cree que el documento carece de detalles o mecanismos de cumplimiento.
Rotenberg apoya la implementación de regulaciones en EE. UU., como la Regulación de IA de la UE, que tiene como objetivo incluir controles adicionales y equilibrar el uso de inteligencia artificial, que tiene el mayor potencial para causar daño a los humanos.
La Declaración de derechos de la IA podría sentar las bases para una legislación futura, como la aprobación de la Ley de responsabilidad de los algoritmos o la creación de una agencia para regular la IA, destaca Sneha Revanur, directora de Encode Justice, que se centra en la juventud y la inteligencia artificial.
En Conclusión, Estados Unidos es la potencia que mayor cantidad de compañías creadores de Inteligencia Artificial en el mundo alberga, sin embargo también es una de las naciones más tímidas en la reglamentación en esta materia, causando una deuda histórica significativa en regulación y protección de datos, una ecuación que el gobierno Biden quiere cambiar, a través de un ambicioso plan que buscaría replicar el modelo regulatorio europeo, saldando de esta forma una importante deuda histórica en la materia.