spot_img

Del gran hermano de 1984 a la Inteligencia Artificial de 2024

Gabriel Levy

Esta semana el presidente de Microsoft, Brad Smith, en una entrevista con la BBC, afirmó que, “Si los legisladores no protegen al público de la inteligencia artificial (IA), la vida tal y como la describe George Orwell en su novela ‘1984’ podría llegar a ser así en el año 2024″[1].

Si bien muchas organizaciones sociales han denunciado las amenazas que representa para la humanidad la falta de regulación sobre las tecnologías de Inteligencia Artificial, resulta muy preocupante que una de las empresas más grandes del sector TIC, a nivel global, sea quien prendas ahora las alarmas.

En 1949, el escritor británico George Orwell, escribió la que tal vez podría definirse como una de las obras cumbre de la ficción distópica, basada en el autoritarismo y las dictaduras. La obra la denominó “1984” y su tesis planteo la existencia de un sistema de control mediante pantallas, que le permitía a un tirano gobernante ver, escuchar y manipular a los ciudadanos, mediante un estado de control absoluto, carente de libertades y derechos[2].

Aprovechando el potente mensaje de Orwell y su novela, en el año de 1984, Steve Jobs como presidente fundador de Apple, lanzó durante la transmisión del Super Bowl, el comercial más costoso, hasta ese momento en la historia de la televisión, en donde una mujer deportista con un martillo destruyó las pantallas que utilizaba un gobernante tirano para controlar a su pueblo, mientras en la imagen apareció el mensaje:

“El 24 de enero Apple lanzará la computadora Macintosh, y tu verás que 1984 no será como 1984.”

Casi 37 años después, el presidente de Microsoft, Brad Smith, anunció en una entrevista para la BBC, que

“Si los legisladores no protegen al público de la inteligencia artificial (IA), la vida tal y como la describe George Orwell en su novela ‘1984’ podría “llegar a ser así en 2024”[3],

advirtiendo que ante el vertiginoso avance de las tecnologías asociadas a la Inteligencia Artificial, (especialmente las de reconocimiento facial), ante la falta de una regulación expedita por parte de los gobiernos en esta materia, la humanidad podría ver sustancialmente disminuida su privacidad, derechos y garantías sociales en los próximos tres años, de la misma forma o peor, de como ya está ocurriendo en países totalitarios como China, quien pareciera estar liderado la carrera tecnológica por los nuevos desarrollos en esta materia.

China busca convertirse en el líder mundial en inteligencia artificial para 2030, tal y como lo ha anunciado en múltiples escenarios internacionales, superando desde 2019 a EE.UU. en el número de patentes obtenidas por instituciones académicas para la innovación en tecnologías de IA[4].

Por su parte Estados Unidos no quiere quedarse rezagado y Recientemente el senado de este país aprobó una partida presupuestal de 250 mil millones de dólares, la cual fe presentada a través de un proyecto presidencial del gobierno Biden, que goza tanto del apoyo republicano como demócrata, y que busca fortalecer la innovación en la industria tecnológica en los Estados Unidos, haciendo especial énfasis en la Inteligencia Artificial, replicando el exitoso modelo que dio origen a Silicon Valley en los años ochenta[5].

Los peligros de la Inteligencia Artificial en manos de los gobiernos autoritarios:

La Inteligencia Artificial (AI, por sus siglas en inglés), hace referencia al tipo de procesamiento basado en algoritmos informáticos que puede desarrollar una máquina computacional, mediante un tipo de imitación electrónica de las funciones cognitivas humanas como percibir, razonar, aprender y resolver problemas[6].

La Inteligencia Artificial hace parte de los sistemas de algoritmos con los que se han diseñado las aplicaciones que usamos diariamente en nuestros móviles o computadores, incluyendo programas que utilizamos en muchos aspectos de nuestra vida cotidiana.

En la siguiente generación de desarrollos tecnológicos, la Inteligencia Artificial estará presente prácticamente en todos los aspectos de la vida humana, y aunque en la mayoría de los casos se trata de soluciones para hacernos más fácil el mundo que habitamos, también existe un alto riesgo asociado a esta tecnología.

Esto no solo porque puede utilizarse para usos militares y geopolíticos, sino porque en un determinado momento dicha inteligencia puede llegar a ser tan autónoma, que se vuelva en contra de la humanidad misma, al mejor estilo del argumento planteado por la trilogía de Matrix.

Adicionalmente el desarrollo de sistemas de reconocimiento facial y auditivo, que ya están disponibles alrededor del mundo, al incorporar tecnologías de IA, podrían rastrear todas las actividades públicas y privadas de los ciudadanos, lo cual resulta muy adecuado para el control del delito, pero muy peligroso cuando se trata por ejemplo de la vida privada, documentando los lugares que una persona frecuenta, las personas con las que se reúne, los alimentos que consume, entre muchos otros aspectos que podrían ser fácilmente utilizados para perseguir a contradictores políticos o ideológicos de un determinado gobierno y que tendrían como objetivo, mantener controlada a la población.

La urgencia de nuevos modelos regulatorios

Para el experto español Moisés Barrio, urge una regulación en materia de Inteligencia Artificial, pues los estados por ahora han dejado el tema en manos de particulares y con todos los antecedentes conocidos en esta materia, no ha existido la suficiente intervención y regulación, quedando muchos aspectos a la deriva.

“No está del todo claro quién debe ser considerado responsable si la IA causa daños (por ejemplo, en un accidente con un coche autónomo o por una incorrecta aplicación de un algoritmo): el diseñador original, el fabricante, el propietario, el usuario o incluso la propia IA. Si aplicamos soluciones caso por caso, nos arriesgamos a la incertidumbre y la confusión. La falta de regulación también aumenta la probabilidad de reacciones precipitadas, instintivas o incluso alimentadas por la ira pública”. Moisés Barrio en Retina del País de España[7]

Para Barrio los riesgos de la IA son múltiples y su gran variedad de posibles aplicaciones generan un igual número de posibles riesgos:

“Los sistemas de IA ya tienen la capacidad de tomar decisiones difíciles que hasta ahora se han basado en la intuición humana o en leyes y prácticas de los tribunales. Tales decisiones van desde cuestiones de vida o muerte, como la utilización de los robots asesinos autónomos en los ejércitos, hasta asuntos de importancia económica y social, como la forma de evitar los sesgos algorítmicos cuando la inteligencia artificial decide por ejemplo si se debe otorgar una beca a un estudiante o cuándo se le concede la libertad condicional a un preso. Si un ser humano tomara estas decisiones, estaría siempre sujeto a una norma legal o ética. No existen tales reglas en el presente de la IA”. Moisés Barrio en Retina del País de España[8]

Los intereses que se oponen a la regulación

Aunque a simple vista pareciera muy lógica la necesidad de regular la nueva generación de la Inteligencia Artificial, existen muchos intereses para que esto no se haga, ya que para algunos una intervención estatal limitaría el potencial económico, militar y político que puede derivarse de su implementación.

Al respecto, Moisés Barrio demuestra cómo los intereses corporativos se anteponen en muchos casos a los intentos regulatorios, ya sean de origen civil o gubernamental, algo que se evidencia en otros campos de la economía, como lo que ha ocurrido con el sistema financiero:

“La regulación de la IA está actualmente presidida por intereses corporativos. Y ello no siempre es conveniente. Basta con mirar a la crisis financiera mundial de 2008 para ver qué ocurre cuando la autorregulación de la industria se sale de control. Aunque los Estados han intervenido para exigir a los bancos que mantengan mejores activos para respaldar sus préstamos, la economía mundial sigue sufriendo las repercusiones de un régimen desregulado” Moisés Barrio en Retina del País de España[9]

En conclusión, si bien la Inteligencia Artificial supone un gran avance para la humanidad que podría mejorar significativamente la calidad de vida en múltiples aspectos, en la misma proporción representa un riesgo igual al planteado por Orwell en su novela 1984, tal y como recientemente lo advirtió el presidente de Microsoft, Brad Smith[10].

De no intervenirse de manera urgente mediante una adecuada regulación, correríamos el riesgo de que la IA se salga de control, tal y como ha ocurrido en otros campos como el del sistema financiero, que, con la crisis de 2008, dejó en evidencia el peligro de una ausencia de regulación, o en temas tecnológicos con los conflictos que han suscitados aplicaciones como Uber, Airbnb, blockchain y Netflix a nivel global.

[1] Artículo de BBC sobre la entrevista brindada por el Presidente de Microsoft
[2] Libro: 1984, George Orwell, Zig-Zag, 2021, ISBN – 9561235501, 9789561235502, 328 páginas
[3] Artículo de BBC sobre la entrevista brindada por el Presidente de Microsoft
[4] Artículo de BBC sobre la carrera de la Inteligencia Artificial
[5] Artículo de la BBC sobre el presupuesto aprobado por el senado de los Estados Unidos para IA
[6] Libro: Artificial intelligence: a modern approach (en inglés) Prentice Hall. ISBN 0-13-604259-7.
[7] Artículo: ¿Deben los estados regular la Inteligencia Artificial?
[8] Artículo: ¿Deben los estados regular la Inteligencia Artificial?
[9] Artículo: ¿Deben los estados regular la Inteligencia Artificial?
[10] Artículo de BBC sobre la entrevista brindada por el Presidente de Microsoft
spot_img

Lo + Nuevo

spot_img
spot_img
spot_imgspot_img