Mitigar los riesgos de la IA

Roldán Duarte Maradiaga

Tegucigalpa. – Quienes erróneamente piensen que la Inteligencia Artificial (IA) no está sometida a riesgos, pueden llevarse desagradables sorpresas al ser víctimas del uso malicioso de esa poderosa herramienta digital.

La empresa colombiana especializada en la gestión de riesgos ‘Pirani’, hace dos semanas atrás puso a disposición de sus clientes y asociados un valioso artículo titulado “9 Riesgos en la Inteligencia Artificial y Cómo Gestionarlos”, escrito por Esteban Guarin (piranirisk.com/es/blog/, 13/08/2024), en el cual se afirma que: “La inteligencia artificial (IA) está transformando rápidamente numerosos sectores, como la medicina, educación, seguridad y finanzas. Aunque esta tecnología ofrece una gran cantidad de beneficios, también plantea riesgos significativos que deben gestionarse adecuadamente para maximizar su potencial positivo y minimizar los efectos adversos” (Ídem).

Más adelante Guarin señala que existen varios riesgos asociados a la IA, tales como los siguientes: 1) Sesgos Algorítmicos y Discriminación. 2) Privacidad y Seguridad de los Datos. 3) Impacto en el Empleo y la Economía. 4) IA en Tareas Críticas y Sistemas Autónomos. 5) Manipulación de la Información y Noticias Falsas. 6) Ética y Responsabilidad en la IA. 7) Desafíos Regulatorios y Legales. 8) IA y Seguridad Nacional. Y 9) Imprevisibilidad y Complejidad de los Sistemas de IA.

Como no es posible resumir todos esos riesgos en un corto espacio, me limitaré a exponer cuatro: Los números 2, 3, 5 y 7.

2. Privacidad y Seguridad de los Datos

La inteligencia artificial (IA) depende en gran medida de la recopilación y el análisis de grandes volúmenes de datos, lo que plantea importantes preocupaciones sobre la privacidad y la seguridad. Los modelos de IA pueden ser vulnerables a ataques en los que los datos de entrenamiento son manipulados por atacantes para influir en los resultados del sistema. Algo que en nuestro medio no solo afecta las finanzas personales, sino que amenaza la transparencia del proceso electoral del país.

¿Cómo mitigar la gestión de riesgos en la privacidad y seguridad de los datos?: La gestión de estos riesgos requiere una combinación de enfoques técnicos y normativos. Es fundamental implementar técnicas de anonimización y cifrado de datos para proteger la privacidad de los usuarios. Además, las organizaciones deben seguir las mejores prácticas en ciberseguridad, como el monitoreo continuo y la evaluación de vulnerabilidades, para proteger los sistemas de IA contra amenazas externas. Lo mejor siempre consiste en adquirir los servicios de proveedores confiables.

3. Impacto en el Empleo y la Economía

La automatización impulsada por la IA tiene el potencial de transformar el mercado laboral, desplazando a trabajadores en ciertos sectores mientras crea nuevas oportunidades en otros. Este cambio puede generar desigualdades económicas y desafíos para las personas cuyas habilidades se vuelven obsoletas. Según el Fondo Monetario Internacional (FMI), la IA podría poner en peligro el 33 por ciento de los empleos en las economías avanzadas, el 24 por ciento en las economías emergentes y el 18 por ciento en los países de bajos ingresos como Honduras.

Para abordar las amenazas al empleo, es vital invertir en programas de reentrenamiento y educación que preparen a los trabajadores para los empleos del futuro. Las políticas públicas también deben fomentar un equilibrio entre la automatización y la creación de empleo, apoyando a las industrias emergentes y facilitando la transición de los trabajadores desplazados.

5. Manipulación de la Información y Noticias Falsas

La inteligencia artificial (IA) se ha utilizado para crear contenido falso o manipulado, como deepfakes y noticias falsas (fake news), lo que puede ser extremadamente perjudicial para la dignidad de las personas y la sociedad en su conjunto. Estos usos malintencionados de la IA pueden influir en la opinión pública, socavar la confianza en los medios de comunicación y desestabilizar procesos democráticos. No es que la IA sea mala en sí misma, sino más bien que se utiliza de forma abusiva e ilegal.

Para combatir este riesgo, es necesario desarrollar herramientas avanzadas capaces de detectar y neutralizar el contenido falso generado por IA. Además, las plataformas de medios sociales y las organizaciones de noticias deben adoptar políticas estrictas para identificar y mitigar la difusión de información falsa. La alfabetización mediática es también una herramienta crucial para ayudar a la población a discernir la veracidad de la información que consume.

7. Desafíos Regulatorios y Legales

La rápida evolución de la IA ha dejado a los marcos regulatorios tradicionales luchando por mantenerse al día. Esto crea un entorno donde la aplicación de la IA puede adelantarse a la legislación, lo que puede resultar en vacíos legales y la falta de responsabilidad en caso de fallos o abusos. En Honduras la Comisión Nacional de Bancos y Seguros (CNBS) se encarga de elaborar la normativa alusiva a los riesgos digitales vinculados al sistema financiero nacional, pero no existen regulaciones y normas aplicables a otras actividades económicas.

¿Qué medidas se pueden tomar para controlar este riesgo?: Es esencial que los gobiernos y organismos internacionales trabajen juntos para desarrollar marcos legales y regulaciones adaptadas a la IA. Estas regulaciones deben ser flexibles para adaptarse a las innovaciones tecnológicas, pero lo suficientemente robustas para proteger a la sociedad de los riesgos potenciales. La cooperación internacional también es clave para establecer estándares globales que aseguren el uso seguro y ético de la IA.

Al preguntarle a ChatGPT como se pueden reducir los riegos asociados al uso de la IA, sugirió diez acciones de mitigación entre las que sobresalen las estrategias siguientes:

1)      Desarrollo Ético y Responsable: Promover principios éticos en el diseño y desarrollo de sistemas de IA, como la transparencia, la equidad y el respeto a la privacidad. Es importante que las organizaciones y desarrolladores adopten códigos de conducta y estándares éticos para guiar el uso de la IA.

2)      Regulación y Políticas Públicas: Implementar regulaciones y marcos legales que supervisen el desarrollo y uso de la IA, asegurando que se adhieran a normas de seguridad y ética. Las políticas públicas deben incluir la evaluación de impacto de los sistemas de IA en la sociedad y los derechos individuales.

3)      Transparencia y Explicabilidad: Asegurar que los sistemas de IA sean transparentes y que sus decisiones puedan ser explicadas. Esto ayuda a aumentar la confianza y facilita la identificación y corrección de errores o sesgos en los algoritmos.

4)      Seguridad y Resiliencia: Diseñar sistemas de IA con medidas de seguridad robustas para protegerlos contra ciberataques y manipulaciones. Además, deben ser resilientes para funcionar correctamente en escenarios imprevistos.

5)      Evaluación y Mitigación de Sesgos: Los modelos de IA pueden heredar sesgos de los datos con los que son entrenados. Es fundamental evaluar y mitigar estos sesgos para evitar resultados injustos o discriminatorios.

6)      Participación Multidisciplinaria: Incluir a expertos de diferentes disciplinas (tecnología, ética, derecho, psicología, etc.) en el desarrollo y la evaluación de la IA. Esto ayuda a identificar y abordar riesgos desde múltiples perspectivas.

7)      Enfoque en la IA Centrada en el ser Humano: Desarrollar la IA con un enfoque centrado en el humano, asegurando que las tecnologías estén diseñadas para mejorar el bienestar humano y no para reemplazar de manera dañina las capacidades humanas.

Según ChatGPT: “Implementar estas estrategias puede ayudar a reducir significativamente los riesgos asociados con la IA y maximizar sus beneficios para la sociedad”.

spot_img

Lo + Nuevo

spot_img
spot_img
spot_imgspot_img