Riesgos de la IA en las empresas y cómo gestionarlos
REDACCIÓN NOTI-AMÉRICA (ECUADOR)
- La inteligencia artificial tiene el potencial de brindar “beneficios significativos” a sectores como la agricultura, la educación y la atención médica.
- Pero un nuevo informe del Foro Económico Mundial destaca los peligros potenciales de la IA para las empresas y la sociedad.
- Los profesionales del riesgo dicen que se necesita una mejor regulación que nos permita cosechar los beneficios de manera segura.
La inteligencia artificial (IA) promete brindar beneficios significativos a las empresas y la sociedad, pero también tiene el potencial de causar un daño significativo si no comprendemos los riesgos que plantea la tecnología.
Esa es la opinión de los directores de riesgos (CRO) de las principales corporaciones y organizaciones internacionales que participaron en la Encuesta de Perspectivas de Riesgos Globales del Foro Económico Mundial.
La encuesta se detalla en la Perspectiva de los directores de riesgos de mediados de año del Foro , que advierte que la gestión de riesgos no se mantiene al día con los rápidos avances en las tecnologías de IA.
Tres cuartas partes de las CRO encuestadas dijeron que el uso de la IA representa un riesgo para la reputación de su organización, mientras que nueve de cada diez dijeron que se necesitaba hacer más para regular el desarrollo y el uso de la IA.
Casi la mitad estaba a favor de pausar o ralentizar el desarrollo de nuevas tecnologías de IA hasta que se comprendan mejor los riesgos. AI “crea un entorno complejo e incierto en el que las organizaciones deben operar”, dice el informe.
“Los últimos meses han visto un fuerte aumento en la discusión de los riesgos relacionados con la tecnología, particularmente en el contexto de un aumento del interés en los avances exponenciales que están logrando las tecnologías de IA generativa”.
Beneficios significativos y daños significativos
Aunque las tecnologías de IA tienen el potencial de brindar “beneficios significativos” en sectores como la agricultura, la educación y la atención médica, “también tienen el poder de causar daños significativos”, dice el informe.
Entre los mayores riesgos identificados por las CRO se encuentra el uso malicioso de la IA. Debido a que son fáciles de usar, las tecnologías de IA generativa pueden estar abiertas al abuso por parte de personas que buscan difundir información errónea, facilitar ataques cibernéticos o acceder a datos personales confidenciales.
Lo que hace que la IA sea un riesgo grave es su «funcionamiento interno opaco». Nadie, dice el informe, entiende completamente cómo se crea el contenido de IA. Esto aumenta los riesgos destacados por las CRO de intercambio involuntario de datos personales y sesgo en la toma de decisiones basada en algoritmos de IA.
La falta de claridad sobre cómo funciona la IA también dificulta la anticipación de riesgos futuros, agrega el informe, pero los CRO dicen que las áreas comerciales que corren mayor riesgo por la IA son las operaciones, los modelos comerciales y las estrategias.
Todos los encuestados coincidieron en que el desarrollo de la IA estaba superando su capacidad para gestionar sus posibles riesgos éticos y sociales, y el 43 % dijo que el desarrollo de nuevas tecnologías de IA debería detenerse o ralentizarse hasta que se comprendiera mejor su impacto potencial.
Regulación del desarrollo de la IA
Más de la mitad de las CRO dijeron que entendían cómo la regulación podría afectar a su organización y el 90 % dijo que era necesario acelerar los esfuerzos para regular el desarrollo de la IA.
Más de la mitad planea realizar una auditoría de la IA que ya está en uso en sus organizaciones para evaluar su seguridad, legalidad y «solidez ética», aunque algunos dijeron que la alta gerencia no estaba dispuesta a ver la IA como un riesgo comercial.
Peter Giger, Director de Riesgos del Grupo en Zurich Insurance Group y uno de los CRO que contribuyeron al informe Outlook, dice que es incorrecto ignorar los riesgos, pero las empresas deben adoptar un enfoque más amplio y a más largo plazo.
Más de la mitad de las CRO dijeron que entendían cómo la regulación podría afectar a su organización y el 90 % dijo que era necesario acelerar los esfuerzos para regular el desarrollo de la IA.
“Demasiado y demasiado limitado enfoque en los riesgos que probablemente dominarán en los próximos seis meses puede llevarnos a distraernos fácilmente de lidiar con los grandes riesgos que determinarán el futuro”, dijo.
“AI ofrece un buen ejemplo, favoreciendo el enfoque de pensamiento a largo plazo. ¿Interrumpirá la IA la vida de todos hoy? Probablemente no. Para muchos de nosotros, no es una amenaza inmediata. Pero ignorar las implicaciones y tendencias que traerá la IA con el tiempo sería un gran error”.
Orientación para el uso responsable de la IA
En junio, el Foro publicó recomendaciones para el desarrollo responsable de la IA que instaba a los desarrolladores a ser más abiertos y transparentes y a utilizar una terminología más precisa y compartida.
La guía también instó a la industria de la tecnología a hacer más para aumentar la comprensión pública de las capacidades y limitaciones de la IA y generar confianza al tener más en cuenta las preocupaciones de la sociedad y los comentarios de los usuarios.
Obtenga más información sobre la AI Governance Alliance de Fourm aquí .
Más información sobre la Encuesta de Perspectivas de Riesgos Globales
La Encuesta de Perspectivas de Riesgos Globales se realizó entre la comunidad CRO del Foro, que incluye profesionales de riesgo de una amplia gama de empresas multinacionales que cubren campos que incluyen tecnología, servicios financieros, atención médica, servicios profesionales y fabricación industrial.
Aparte de la IA, los encuestados identificaron las condiciones macroeconómicas, los precios y las interrupciones en el suministro de materias primas clave, los conflictos armados y los cambios regulatorios como las principales preocupaciones de las organizaciones.
Fuente: Foro Económico Mundial