Por Antu – Dirigente de la UTE- Para Ute NOTICIAS 08-05-2025
VENTAJAS
En términos generales, la inteligencia artificial (IA) consiste en programar una máquina, sean algoritmos, modelos o sistemas informáticos, para que replique lo más posible la inteligencia humana, es decir, que pueda pensar, comprender y aprender como lo hacen los humanos para ayudar a resolver todo tipo de problemas de una manera más rápida y efectiva.
En los últimos años, la inteligencia artificial, se ha convertido en una de las herramientas que mayor interés genera en todo tipo de industrias debido a las ventajas que ofrece para hacer más eficientes y efectivas diferentes actividades que normalmente realizaría una persona. La inteligencia artificial ha sido diseñada para ofrecer un mejor conocimiento e información de valor a partir de grandes conjuntos de datos, lo que se conoce como Big Data, los cuales se caracterizan por su volumen, velocidad, variedad y veracidad.
El avance en la informática, el aprendizaje automático y otras tecnologías relacionadas, la inteligencia artificial (IA) cada vez es más utilizada en las organizaciones porque ayuda a resolver problemas complejos de negocio y a tomar decisiones mucho más informadas y precisas en una gran cantidad de áreas, incluida la gestión de riesgos. .
Es por esto que aplicar inteligencia artificial en las organizaciones sirve, por ejemplo, para automatizar tareas repetitivas y muy operativas, aumentar la eficiencia y la productividad, analizar grandes volúmenes de información para detectar patrones y tendencias que un humano podría ignorar, tomar mejores decisiones e impulsar nuevas innovaciones y desarrollos que respondan a las necesidades del mercado y de cada industria.
En este sentido, la IA tiene el potencial de transformar la manera en la que vivimos, trabajamos y cómo nos relacionamos con otros, pero siempre debe ser vista como una herramienta y no como un fin: la IA ayuda a resolver problemas complejos y a abordar de una manera más práctica los retos del mundo actual.
RIESGOS
- Sesgos algorítmicos y discriminación
Uno de los riesgos más preocupantes de la inteligencia artificial es la posibilidad de que los algoritmos perpetúen o amplifiquen sesgos preexistentes. Los sistemas de IA se entrenan utilizando datos históricos, que a menudo reflejan desigualdades sociales. Si no se abordan adecuadamente, estos sesgos pueden dar lugar a decisiones discriminatorias en áreas como la contratación, los préstamos bancarios o el sistema judicial.
¿Cómo se puede gestionar este riesgo? Para mitigar este riesgo, es esencial implementar medidas como la auditoría de algoritmos y la creación de equipos de desarrollo diversos, capaces de identificar y corregir los sesgos. Además, es importante utilizar datos balanceados y representativos durante el entrenamiento de los modelos, así como revisar constantemente el desempeño del algoritmo en busca de sesgos inadvertidos.
- 2. Privacidad y seguridad de los datos
La inteligencia artificial (IA) depende en gran medida de la recopilación y el análisis de grandes volúmenes de datos, lo que plantea importantes preocupaciones sobre la privacidad y la seguridad. Los modelos de IA pueden ser vulnerables a ataques en los que los datos de entrenamiento son manipulados por atacantes para influir en los resultados del sistema.
¿Cómo mitigar la gestión de riesgos en la privacidad y seguridad de los datos? La gestión de estos riesgos requiere una combinación de enfoques técnicos y normativos. Es fundamental implementar técnicas de anonimización y cifrado de datos para proteger la privacidad de los usuarios. Además, las organizaciones deben seguir las mejores prácticas en ciberseguridad, como el monitoreo continuo y la evaluación de vulnerabilidades, para proteger los sistemas de IA contra amenazas externas.
- Impacto en el empleo y la economía
La automatización impulsada por la IA tiene el potencial de transformar el mercado laboral, desplazando a trabajadores en ciertos sectores mientras crea nuevas oportunidades en otros. Este cambio puede generar desigualdades económicas y desafíos para las personas cuyas habilidades se vuelven obsoletas.
Se lleva hablando tiempo de que la IA supondrá la eliminación de millones de puestos de trabajo para sustituirlos por máquinas. Es obvio que este escenario genera una importante desmotivación entre los empleados de las empresas. De ahí que en muchos negocios se estén empezando a estudiar los efectos psicológicos que sobre las plantillas puede generar la incorporación de este tipo de herramientas
Para abordar este problema, es vital invertir en programas de reentrenamiento y educación que preparen a los trabajadores para los empleos del futuro. Las políticas públicas también deben fomentar un equilibrio entre la automatización y la creación de empleo, apoyando a las industrias emergentes y facilitando la transición de los trabajadores desplazados.
- IA en tareas críticas y sistemas autónomos
El uso de la IA en sistemas críticos, como vehículos autónomos, atención médica o infraestructura, conlleva riesgos significativos si estos sistemas fallan. Un error en un sistema autónomo puede tener consecuencias catastróficas, desde accidentes hasta la interrupción de servicios esenciales.
Un claro ejemplo de este tipo de riesgo fue la falla en CrowdStrike, ocurrida el pasado 19 de julio, que muchos calificaron como "la mayor falla en la historia de la ciberseguridad". Este incidente provocó la cancelación de vuelos, retrasos en trenes, fallos en bancos, y el colapso de varios servicios de emergencia debido a este error.
¿Cómo se puede tratar este riesgo? Para minimizar estos riesgos, es esencial garantizar que los sistemas de IA en aplicaciones críticas sean rigurosamente probados y validados antes de su despliegue. Además, deben establecerse protocolos de seguridad y planes de contingencia en caso de fallos. La regulación y supervisión de estos sistemas por parte de organismos gubernamentales también es crucial para garantizar su seguridad y fiabilidad.
- Manipulación de la información y noticias falsas
La inteligencia artificial (IA) se ha utilizado para crear contenido falso o manipulado, como deepfakes y noticias falsas, lo que puede ser extremadamente perjudicial para la sociedad. Estos usos malintencionados de la IA pueden influir en la opinión pública, socavar la confianza en los medios de comunicación y desestabilizar procesos democráticos.
La IA es capaz de generar instantáneas falsas de líderes políticos o empresariales y también de imitar la voz de cualquiera. Esta característica en manos de personas inadecuadas puede tener graves consecuencias hasta para el sistema político de un país. Y, también, puede generar perjuicios irreparables para las empresas al ver empeñada su imagen de marca por una campaña en contra creada por cualquiera con acceso a las herramientas de IA adecuadas.
Algunos expertos adelantan que la IA también podría propiciar inestabilidad política, ya que facilita la manipulación de los procesos democráticos. De hecho, un artículo de la revista Time firmado por el científico Eliezer Yudkowsky exige frenar la Inteligencia Artificial ya que podría generar una catástrofe a escala mundial
- Ética y responsabilidad en la IA
La toma de decisiones autónoma por parte de sistemas de IA plantea cuestiones éticas fundamentales, especialmente cuando dichas decisiones tienen un impacto significativo en la vida de las personas. El desafío radica en garantizar que las decisiones de la IA sean justas, transparentes y estén alineadas con los valores humanos.
¿Qué enfoques se pueden adoptar para manejar este riesgo? Para abordar este desafío, es crucial establecer marcos éticos sólidos que guíen el desarrollo y la implementación de la IA. Las organizaciones deben ser transparentes en la forma en que utilizan la IA y asumir la responsabilidad por las decisiones que estos sistemas tomen. Además, se debe fomentar un diálogo continuo entre desarrolladores, reguladores y la sociedad para asegurar que la IA evolucione de manera coherente con los principios éticos.
- Desafíos regulatorios y legales
La rápida evolución de la IA ha dejado a los marcos regulatorios tradicionales luchando por mantenerse al día. Esto crea un entorno donde la aplicación de la IA puede adelantarse a la legislación, lo que puede resultar en vacíos legales y la falta de responsabilidad en caso de fallos o abusos.
¿Qué medidas se pueden tomar para controlar este riesgo? Es esencial que los gobiernos y organismos internacionales trabajen juntos para desarrollar marcos legales y regulaciones adaptadas a la IA. Estas regulaciones deben ser flexibles para adaptarse a las innovaciones tecnológicas, pero lo suficientemente robustas para proteger a la sociedad de los riesgos potenciales. La cooperación internacional también es clave para establecer estándares globales que aseguren el uso seguro y ético de la IA.
- IA y seguridad nacional
La IA tiene el potencial de revolucionar la defensa y la seguridad nacional, pero también introduce riesgos significativos, como la carrera armamentista en IA o el uso de esta tecnología en ciberataques. La militarización de la IA podría conducir a una escalada en los conflictos internacionales y crear nuevas amenazas a la seguridad global.
Las aplicaciones de IA manejan gran cantidad de datos sensibles de los que buena parte no se sabe muy bien donde almacenan. Esto eleva su atractivo para los amigos de lo ajeno, que con un ataque pueden lograr un robo de información a gran escala. Los Estados, pero también las empresas, están empezando a tener en cuenta este peligro que puede generarse con un mal uso de esta tecnología.
¿Qué acciones se pueden llevar a cabo para gestionar este riesgo? La gestión de estos riesgos requiere un enfoque global y colaborativo. Los gobiernos deben participar en diálogos internacionales sobre la regulación de la IA en el ámbito militar y establecer acuerdos para limitar el uso de la IA en armas autónomas. Además, la inversión en ciberseguridad es crucial para proteger las infraestructuras críticas y evitar que los sistemas de IA sean utilizados con fines maliciosos.
- Imprevisibilidad y complejidad de los sistemas de IA
A medida que los sistemas de IA se vuelven más complejos y autónomos, surge el riesgo de que su comportamiento sea impredecible, incluso para sus propios creadores. Esta imprevisibilidad puede ser peligrosa si los sistemas de IA se utilizan en contextos críticos o si toman decisiones que los humanos no pueden comprender o controlar completamente.
¿De qué manera se puede mitigar este riesgo?: Es fundamental que los desarrolladores de IA diseñen sistemas con un alto grado de transparencia y trazabilidad. Esto incluye la capacidad de explicar cómo se toman las decisiones y de revertir acciones si es necesario. La implementación de sistemas de IA más simples y comprensibles en aplicaciones críticas puede ayudar a mitigar el riesgo de comportamientos inesperados.
LAS OPINIONES VERTIDAS EN ESTE ARTICULO, SON DE EXCLUSIVA RESPONSABILIDAD DEL AUTOR.