Las empresas tienen miedo a que sus empleados usen la IA (y ellos también)… ¿por qué muchos callan este secreto a voces?

El temor no solo corresponde a los líderes de las organizaciones. También se expande entre los mandos intermedios y empleados rasos de las compañías

Todo el mundo (o gran parte) se llena la boca en el presente hablando de las bondades de la inteligencia artificial (IA) y del impacto que puede causar para generaciones futuras. Pero existe una realidad que no condice con esa supuesta aceptación masiva de una tecnología que está llamada a revolucionar la humanidad.  

¿Por qué, realmente, a muchas empresas les da miedo o causa grandes reparos el uso de la IA generativa por parte de sus empleados? ¿Y por qué a ellos también? Siete de cada diez trabajadores en Estados Unidos que usan ChatGPT en sus puestos lo están haciendo a espaldas de sus jefes, según reveló recientemente una encuesta publicada por Fishbowl. Esto desnuda un escenario evidente: varias compañías han limitado o, incluso, prohibido el uso del juguete más famoso de la firma OpenAI por parte de sus empleados, por considerar que allana sus labores y podría provocar una suerte de “relajo” mientras cumplen su jornada laboral. 

Pero las compañías alegan varios motivos añadidos al confesar sus temores ante el uso expansivo de la IA. Algunas señalan que existe alta probabilidad de que la información que produzca la herramienta contenga sesgos o sea información errónea, por lo que generaría un efecto catarata de errores insalvables en el rumbo o proyectos de las empresas. 

Hay cifras insoslayables que plantean un secreto a voces, respecto a las férreas limitaciones que está experimentado la IA en las estructuras internas que presenta el mundo empresarial. 

Aquí van algunas: 

  • El 27% de las compañías del mundo hoy prohíben el uso de la IA generativa en el trabajo, según el último informe anual ‘Cisco Data Privacy Benchmark 2024’. 
  • El 31% de las organizaciones españolas consultadas en el trabajo han limitado completamente el uso de aplicaciones de IA generativa por el momento. 

Además de los mencionados anteriormente, hay otros argumentos que exponen los líderes empresariales para temer al uso de la IA en el trabajo. Destacan, entre otros, las amenazas a los derechos legales y de propiedad intelectual de la empresa (69% a nivel mundial) y el riesgo de divulgación de información al público o a los competidores (68% de media global). 

Resulta notorio que, si prácticamente hay una postura unánime de que la IA mejora la eficiencia, la personalización y la eficacia en muchos ámbitos, ¿a qué se debe el miedo que suscita en miles de empresas? Aquí, inevitablemente, aparece una contradicción de la que muchos no hablan. 

Dilemas por la seguridad, ética y privacidad 

Nadie puede negar que la IA, como herramienta poderosa y quizás el mayor exponente tecnológico disruptivo del siglo XXI, plantea enormes interrogantes todavía no resueltos en aspectos como la seguridad, ética y privacidad, lo que podría dar lugar a consecuencias graves como la amenazas a la privacidad, la falta de transparencia, sesgo y discriminación, daño social, e incluso riesgos para la seguridad en sistemas e infraestructuras para las organizaciones.  

Además, las empresas también están pendientes y muy atentas a una cuestión que es lógica y natural: los vaivenes de una legislación firme y afinada que delimite de forma clara la ética y aplicación de la IA se tornan aún borrosos y hasta confusos. 

Pero el temor no solo corresponde a los líderes de las organizaciones. También se expande entre los mandos intermedios y empleados rasos de las compañías. Muchos son los trabajadores que tienen miedo a darle uso a la IA por la impresión que pueden darle a sus jefes. 

Asana publicó su informe ‘El estado de la IA en el trabajo’ en el que la compañía encuestó a 4.500 trabajadores, incluidos gerentes medios y superiores, y ejecutivos, en Estados Unidos y en el Reino Unido. 

Una de las conclusiones más curiosas de la investigación es que el 26% de los trabajadores dijeron que les preocupaba que les consideraran perezosos por usar inteligencia artificial en sus labores, mientras que uno de cada cinco trabajadores admitió que se sentirían como un fraude por usar la tecnología. Llama la atención que un 92% está preocupado por el uso “poco ético” de la IA. 

La escasez de políticas internas y de orientación sobre el uso de la IA en el trabajo 

Volviendo al tema de las empresas que muestran excesiva cautela a la hora de incorporar IA en sus estructuras de manera constante, el referido informe de CISCO señala que -cuando se preguntó a los CEO o directivos sobre las políticas de IA de sus empresas-, sólo el 30% dijo que su empresa había establecido políticas u orientación sobre el uso de la IA en el trabajo, entre los encuestados en Estados Unidos. La cifra era aún menor para los del Reino Unido (27%). Hay más datos para tener en cuenta: el 61% de los máximos responsables de Recursos Humanos supervisan (de media, a nivel global) con qué herramientas de IA generativa pueden trabajar los empleados, y el 27% han prohibido su uso a escala planetaria. 

Y hay más: nueve de cada 10 organizaciones creen que la IA generativa requiere nuevas técnicas para gestionar los datos y los riesgos. 

El informe muestra otro matiz al menos singular: el gasto en materia de privacidad se ha duplicado en los últimos cinco años y casi la totalidad de las empresas mundiales encuestadas (95%) consideran que los beneficios de la privacidad superan sus costes en 1,6 veces.  

¿Enemigo o aliado incondicional? 

¿Es entonces la IA un enemigo íntimo de los empresarios? Claro que no, pero hay que avanzar en determinadas líneas para disipar dudas. Entre las grandes compañías multinacionales que directamente hoy prohíben el uso a sus empleados de herramientas para la generación de contenidos por IA figuran Apple o Samsung, solo por citar dos gigantes globales.  

Nuevamente, asoman como argumentos para estas medidas restrictivas tan drásticas el riesgo de filtraciones de información confidencial y las dudas sobre el uso de los datos. ¿Y cómo enfrentar este marco? 

Cierto es que, a medida que la adopción de la IA se acelera, se está volviendo cada vez más evidente que las compañías se encuentran en un terreno aún bastante desconocido. Se sabe: lo que no conocemos suele darnos miedo… Pero hay luz al final del túnel: la regulación europea de la IA en vigor este 2024 (EMAI4EU) tiene como uno de los objetivos principales abordar los riesgos generados por los distintos usos de la IA.  

No obstante, la denominada AI Act está centrada en proteger a los usuarios y controlar y regular tanto a los desarrolladores como a las compañías de software, pero no es tan incisiva en cómo estas tecnologías deben ser usadas en el ámbito corporativo. 

Uno de los caminos pasa porque las empresas desarrollen guías corporativas de uso de la IA de manera proactiva, según coinciden grandes expertos en la materia. También, que hagan un ejercicio de introspección, mediante la realización de talleres internos que permitan identificar los casos de uso adecuados de la IA y desarrollar flujos de trabajo eficientes y seguros para los equipos de personas seleccionados para su uso. 

El muro del miedo también se derrumba con una parte esencial, que aún sigue pendiente en miles de empresas: proporcionar formación específica a los empleados. Al hacerlo, se les permitirá explotar al máximo el potencial de las herramientas de generación de contenidos por IA, aumentando su productividad y eficiencia. 

Y no solo pasa por adecuar estrategias a lo que ya ha surgido en el mercado, como  ChatGPT, Bing, Bard o Midjourney, entre otras, sino anticiparse a las muchas que están por venir. Hay desarrollos de código abierto que pronto van a poder superar, o al menos igualar, a estas herramientas por lo que la oferta de soluciones basadas en la IA para todo tipo de tareas se va a multiplicar de una manera considerable en los próximos años. 

¿Es posible que la IA se integre próximamente en los paquetes de Microsoft y Google e incluso en los propios sistemas operativos, lo que cambiaría para siempre la forma en que trabajamos? No son pocos los que aventuran que eso llegará en breve. Por ello, para asegurar que todos los trabajadores -independientemente de su nivel de habilidad-, puedan utilizar estas herramientas de manera segura y efectiva, la regulación interna de la IA se torna una necesidad urgente. 

Tal vez, la clave para vencer las barreras del miedo que causa la IA sea recordar lo que Geoffrey Hinton dijo tras abandonar la vicepresidencia de Ingeniería de Google: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”. 

Mitigar temores y riesgos 

Las regulaciones internas de la IA no solo pueden mitigar los temores y riesgos, sino que también pueden permitir un uso más eficiente y productivo de esta tecnología revolucionaria. Las empresas que aborden de manera efectiva este proceso podrán adquirir una ventaja competitiva sobre aquellas que no lo hayan hecho con la profundidad y seriedad necesaria. Cuando los expertos recomiendan la elaboración de guías de uso interno, también sugieren que sean vivas, y se vayan actualizando al compás de todos los avances que surgen en este apasionante campo. 

Eso también alcanza los cambios legislativos y regulatorios que puedan afectar al uso de estas herramientas, y mostrarse abiertas al diálogo y a la colaboración con otras partes interesadas como gobiernos, organizaciones civiles o académicas. 

En definitiva, nadie disimula de que el rendimiento en el trabajo siempre ha sido objeto de vigilancia y supervisión de los empleados cuando el beneficio global de la empresa está en juego. Sin embargo, la relación laboral introduce desde ahora un nuevo player, que es la IA. 

Las máquinas están adquiriendo nuevas responsabilidades e incluso autonomía, y se espera que manifiesten diversas formas de inteligencia humana y tomen decisiones relacionadas con los trabajadores mismos en algún momento del futuro. Claro que esto puede ser objeto de debate eterno, pero los indicios están allí, a la vista… 

De este modo, la IA ofrece oportunidades emocionantes pero también presenta desafíos éticos que no pueden ser ignorados. La clave está en encontrar un equilibrio entre la innovación y la ética, lo que requiere un enfoque multidisciplinario que incluya a expertos en tecnología, ética y derecho. Ese, sin dudas, puede resultar el mejor cóctel contra el miedo. 

Tecnología
Add a comment

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *