Estos son los empleos que la IA no puede reemplazar
La siguiente contribución corresponde al portal del World Economic Forum y el autor es Ian Shine Senior Writer, de Forum Stories
Es poco probable que la IA pueda reemplazar empleos que requieren habilidades humanas como el juicio, la creatividad, la destreza física y la inteligencia emocional.
Como resultado, se espera que el mayor crecimiento laboral entre 2023 y 2027 se dé en operadores de maquinaria agrícola, conductores de camiones pesados y autobuses, y profesores de formación profesional, según el Informe sobre el Futuro del Empleo 2023 del Foro Económico Mundial.
Las habilidades más demandadas por los empleadores durante los próximos cinco años incluirán el pensamiento analítico, la empatía y la escucha activa, así como el liderazgo y la influencia social, según el informe.
Acabo de hacerle esta pregunta a ChatGPT: «¿Qué empleos no podrá reemplazar la IA?».
En cuestión de segundos, ha generado una respuesta de 275 palabras. Cuando le pedí que la redujera a menos de 50 palabras, fue mucho más lento. Muchísimo más lento.
Esto quizás confirma algunos de los puntos que ChatGPT planteó en su respuesta original, cuando me indicó que la IA no podrá reemplazar:
– Empleos que requieren juicio y toma de decisiones humanas
– Empleos que requieren una comunicación compleja y matizada
– También afirmó que la IA no desplazará los empleos que requieren:
– Inteligencia social y emocional
– Creatividad e innovación
– Destreza física y movilidad
Dado que ChatGPT y otras formas de IA generativa generan sus resultados sintetizando lo que encuentran en internet, no sorprende que su respuesta coincida con algunas de las conclusiones del Informe sobre el Futuro del Empleo 2023 del Foro Económico Mundial, un análisis exhaustivo de cómo evolucionarán los empleos y las habilidades en los próximos cinco años, elaborado por personas.

Los empleos más seguros frente a la IA
Las encuestas realizadas para el Informe sobre el Futuro del Empleo sugieren que el mayor crecimiento laboral entre 2023 y 2027 se registrará en operadores de maquinaria agrícola, conductores de camiones pesados y autobuses, y profesores de formación profesional.
Los mecánicos y reparadores de maquinaria ocupan el cuarto lugar.
Se prevé que el mayor crecimiento de empleos entre 2023 y 2027 sea para los operadores de equipos agrícolas.
Esto sugiere que una de las mayores ventajas del cerebro humano sobre la IA es su conexión con un cuerpo humano real.
De hecho, las expectativas de que el trabajo físico y manual pueda ser reemplazado por máquinas han disminuido, y las empresas encuestadas para el informe han revisado a la baja sus estimaciones para una mayor automatización: creen que el 42 % de las tareas podrían automatizarse para 2027, en comparación con las predicciones del Informe sobre el Futuro del Empleo 2020, que preveían que el 47 % podría hacerlo para 2025.
Empleos en la agricultura
Según el informe de 2023, se prevé un aumento del 30 % en el número de empleos para profesionales agrícolas en los próximos cinco años. Esto representa 3 millones de puestos de trabajo adicionales.
Esto se debe solo en parte a que los trabajadores de este sector tienen una probabilidad mucho menor de verse afectados por la IA generativa y los Modelos de Lenguaje de Gran Tamaño (MLM) como ChatGPT.
Otras razones incluyen la reducción de las cadenas de suministro, ya que cada vez más pequeñas explotaciones venden directamente a los consumidores en lugar de a través de intermediarios.
El creciente uso de tecnologías agrícolas y el aumento de las inversiones en adaptación al cambio climático también están impulsando una expansión de los empleos agrícolas.
Sin embargo, la llamada «agricultura climáticamente inteligente», que aborda los desafíos interrelacionados de la seguridad alimentaria y la aceleración del cambio climático, no solo está aumentando el empleo, sino que también está mejorando el nivel de vida y los resultados ambientales, así como la seguridad alimentaria y la resiliencia de los cultivos, según el Banco Mundial.
Empleos en educación
Según las encuestas del Informe sobre el Futuro del Empleo 2023, se prevé un crecimiento del empleo del 10 % en el sector educativo para 2027.
Esto podría significar otros 3 millones de empleos en la formación profesional y la educación superior.
“Este crecimiento es particularmente prevalente en países no pertenecientes al G20, donde se espera que sea aproximadamente un 50% mayor que en los países del G20”, señala el informe.
La alta adopción de tecnologías de educación y desarrollo laboral se considera un importante impulsor de la creación de empleo.

Cerrar la brecha de habilidades
El otro factor son los crecientes esfuerzos de las organizaciones para cerrar la brecha de habilidades, a medida que la IA y otras tecnologías redefinen las capacidades que necesitan empleados y empleadores.
Las habilidades más demandadas son, como mencionó ChatGPT, el pensamiento analítico y creativo. Otras habilidades que encabezan la lista de deseos de los empleadores son:
Empatía y escucha activa
Motivación y autoconciencia
Liderazgo e influencia social
Gestión del talento
Orientación al servicio y atención al cliente.
Todas estas son habilidades altamente humanas que quedan fuera del conjunto de habilidades de la IA.
Las empresas están ampliando sus programas de capacitación a medida que la IA altera los requisitos de habilidades.
Empleos en la cadena de suministro y la logística
Al igual que en el sector agrícola, se prevé que la transición hacia la localización de las cadenas de suministro sea uno de los mayores generadores brutos de empleo en la industria logística.
Sin embargo, el Informe sobre el Futuro del Empleo 2023 señala que también podría provocar la pérdida de empleos, así como la escasez de suministro, el aumento de los costes de los insumos y una desaceleración económica mundial, al menos a corto plazo.
“Se espera que la nueva geografía económica generada por la transformación de las cadenas de suministro y un mayor énfasis en la resiliencia frente a la eficiencia genere un crecimiento neto del empleo, con beneficios especialmente para las economías de Asia y Oriente Medio”, afirma Saadia Zahidi, directora general del Foro Económico Mundial.
Según las encuestas del informe de 2023, se prevé un aumento neto de 2 millones de empleos
equivalente al 12,5 % de la fuerza laboral, en el sector de la cadena de suministro y la logística.
Las tendencias en este ámbito se están viendo afectadas por la escasez de conductores de camiones pesados y de camiones pesados a mediados de 2022.
Sin embargo, las expectativas relativamente bajas sobre el impacto de los vehículos autónomos en la creación de empleo, también sugieren que es improbable que la profesión de conductor desaparezca en un futuro próximo.
Existen expectativas relativamente bajas sobre el impacto de los vehículos autónomos en la creación de empleo.
«El futuro del empleado administrativo está más amenazado que el del conductor de Uber, porque aún no tenemos coches autónomos, pero la IA sin duda puede redactar informes», declaró a la BBC Martin Ford, autor de «La regla de los robots: cómo la inteligencia artificial transformará todo».
«En muchos casos, los trabajadores con mayor nivel educativo se verán más amenazados que los menos cualificados. Piensen en la persona que limpia habitaciones de hotel: es realmente difícil automatizar ese trabajo».
En general, el 50 % de las organizaciones espera que la IA genere crecimiento laboral, mientras que solo el 25 % cree que provocará la pérdida de puestos de trabajo, según el informe del Foro.
Cuando pregunté a ChatGPT su opinión sobre si se crearán o perderán más empleos debido a la IA, esto fue lo que dijo:
“El impacto de la IA en la creación o pérdida de empleo es un tema complejo y multifacético, y la respuesta dependerá de diversos factores, como el sector específico, el tipo de trabajo y el nivel de implementación y adopción de la tecnología de IA”.
Quizás sea hora de que ChatGPT realice uno de esos cursos de reciclaje que abarquen el pensamiento analítico.
Más de 120 empleos que la IA no reemplazará
La siguiente contribución corresponde al portal de UpWork que se define así: Durante más de dos décadas, Upwork ha sido pionero en una mejor manera de trabajar. Hemos ayudado a empresas y profesionales a prosperar a través de importantes cambios, desde la migración a la nube, aprovechando el potencial de la tecnología móvil y creando nuevo valor a través de las redes sociales. Independientemente de cómo evolucionen las necesidades y las habilidades, nuestro propósito sigue siendo el mismo: crear oportunidades en cada era laboral.
Hoy, nos encontramos en una nueva frontera. La IA está transformando las posibilidades tanto para las empresas como para las carreras profesionales. Una vez más, Upwork es el punto de encuentro entre empresas y talento en este momento. Nuestra plataforma permite a todos, desde empresas de la lista Fortune 100 hasta startups ambiciosas, acceder a la experiencia humana y de IA que necesitan para actuar con rapidez, resolver problemas y crecer. Facilitado por nuestro agente de trabajo de IA consciente, Uma™, nuestro sistema operativo impulsado por IA acompaña cada paso para convertir tus aspiraciones en realidad.
Y la autora es Emily Gertenbach que es una redactora B2B que crea contenido SEO para personas, no solo para algoritmos. Como excorresponsal de noticias, le encanta investigar a fondo y analizar temas técnicos. Se especializa en ayudar a profesionales de marketing independientes y empresas SaaS de tecnología de marketing a conectar con sus clientes ideales a través de la búsqueda orgánica.
Existen muchos empleos que la IA no reemplazará; de hecho, la automatización con IA podría incluso ayudar a los profesionales de estos campos a realizar su trabajo mejor que antes.
La inteligencia artificial tiene muchas aplicaciones excelentes en el ámbito laboral, desde la automatización de los flujos de trabajo de atención al cliente hasta el procesamiento rápido de grandes conjuntos de datos científicos.
Pero esto no significa que la IA vaya a desplazar por completo a los trabajadores humanos; de hecho, de inmediato, podemos pensar en al menos 120 empleos que la IA no reemplazará.
Empleos en el sector sanitario que la IA no puede reemplazar

Las herramientas de IA como ChatGPT no pueden reemplazar
la interacción humana individual ni las habilidades interpersonales que poseen los profesionales sanitarios.
Desde la atención directa hasta el apoyo a la salud mental, las personas seguirán siendo una parte esencial de la atención sanitaria.
Dicho esto, la atención médica no es inmune al impacto de la IA.
La IA generativa en la atención médica es útil por muchas razones, entre ellas, porque ayuda a los equipos de atención con tareas repetitivas como la transcripción de notas clínicas o la organización de conjuntos de datos en Excel.
Puestos clínicos de nivel avanzado a medio
Enfermeros y enfermeras practicantes
Psiquiatras y terapeutas
Matronas y ginecólogos
Fisioterapeutas
Farmacéuticos
Veterinarios
Dentistas
Puestos de bienestar y salud preventiva
Nutricionistas y dietistas
Instructores de salud y consultores de bienestar
Consejeros de salud mental
Terapeutas ocupacionales
Puestos de nivel inicial y de apoyo
Auxiliares médicos
Auxiliares y cuidadores de salud a domicilio
Recepcionistas médicos
Especialistas en apoyo mutuo
Técnicos veterinarios
Higienistas dentales
Empleos en el sector sanitario que la IA no puede reemplazar
Empleos creativos que la IA no puede replicar
Muchas iniciativas creativas implican crear algo con las manos; esas iniciativas imaginativas e inventivas serán difíciles de reemplazar con cualquier tipo de IA.
Es improbable que incluso el trabajo creativo basado en computadora, como el que realizan escritores y diseñadores gráficos, sea reemplazado por completo por máquinas.
Si bien las herramientas de IA, como un generador de imágenes de IA, pueden parecer que crean contenido creativo o artístico único, en realidad solo recombinan elementos que se les han proporcionado mediante datos de entrenamiento.
El resultado de una herramienta de IA siempre es predictivo, basado en algoritmos y en la experiencia a la que ha estado expuesto hasta el momento.
Este software simplemente no puede emular la creatividad humana y carece de lo que los científicos llaman neuroplasticidad (la capacidad del cerebro para formar nuevas conexiones entre neuronas) y para ajustar el funcionamiento y la comunicación entre las diferentes regiones cerebrales.
Puestos artísticos consolidados
Actores y bailarines de teatro
Diseñadores de joyas y sopladores de vidrio
Muralistas y músicos en vivo
Puestos creativos de nivel inicial y emergente
Ilustradores y dibujantes
Asistentes creativos
Creadores de contenido para redes sociales
Maquilladores y pintores faciales
Artistas y emprendedores del bricolaje

Trabajos especializados que la IA no puede realizar
Un chatbot de IA podría proporcionar información sobre cómo instalar correctamente una tubería o cablear una toma de corriente, pero no puede realizar las tareas necesarias ni ser confiable para la resolución práctica de problemas en tiempo real.
Siempre se necesitarán profesionales con experiencia en oficios especializados, construcción, ingeniería y otras disciplinas relacionadas con la construcción de viviendas o infraestructuras.
Estos profesionales pueden recurrir a la IA y la automatización para agilizar tareas como el procesamiento de datos, el envío de facturas y la gestión de cuentas de clientes, pero los trabajadores humanos seguirán realizando el trabajo práctico.
Puestos de trabajo cualificados establecidos
Electricistas
Fontaneros
Técnicos de climatización
Mecánicos de automóviles
Puestos de trabajo y apoyo de nivel inicial
Aprendices de carpintero y carpintero
Obradores de la construcción
Marcadores de servicios públicos y guías de obra
Auxiliares de pintura y preparadores
Trabajos de trabajo cualificados que la IA no puede realizar
Trabajos docentes y académicos a salvo de la IA
Si bien la IA es sin duda una herramienta útil para la investigación y el estudio, o incluso un compañero para practicar idiomas, no puede reemplazar la instrucción impartida por una persona con conocimientos. Aprender directamente de alguien con experiencia en un campo específico puede brindarte información que no obtendrás interactuando con la IA, leyendo un libro o viendo una película.
Los humanos también seguirán siendo una parte vital de la investigación académica.
Dado que las herramientas de IA generativa solo pueden extraer información de conjuntos de datos existentes, no pueden encontrar nueva información (ni realizar una excavación arqueológica, en realidad).
Es probable que los profesores y catedráticos utilicen IA en su trabajo, ya sea para organizar planes de clase, transcribir audio y más.
Sin embargo, seguiremos necesitando personal para trabajar en educación e investigación.
Roles educativos consolidados
Docentes de aula (K-12)
Profesores universitarios
Tutores y asesores de aprendizaje
Investigación y conocimiento académico
Historiadores y antropólogos
Arqueólogos
Investigadores educativos
Roles de nivel inicial y de apoyo
Asistentes de profesor (TA)
Técnicos de biblioteca
Facilitadores de programas extraescolares
Docentes de museos y auxiliares educativos
Lo que la IA puede hacer en educación vs. lo que solo los humanos pueden hacer
La IA puede: Solo los humanos pueden:
Generar cuestionarios
Liderar debates y discusiones grupales
Calificar exámenes de opción múltiple
Apoyar el bienestar emocional de los estudiantes
Traducir texto
Leer señales visuales y físicas que indican angustia o confusión
Resumir datos
Enseñar valentía, empatía y creatividad

Trabajos de servicio que la IA no reemplazará
Desde planificar y supervisar eventos hasta cortar el pelo o limpiar una casa, innumerables trabajos de servicio y cuidado personal seguirán requiriendo un toque humano.
Algunos de estos profesionales pueden usar tecnologías de IA para recopilar datos o realizar tareas como planificar horarios y crear materiales de marketing.
Sin embargo, en última instancia, todos estos trabajos seguirán requiriendo una conexión humana y empatía.
Puestos de servicio con experiencia:
Masajistas
Peluqueros y barberos
Manicuros
Tatuadores
Esteticistas
Sastres
Puestos de nivel inicial y de apoyo
Asistentes de salón
Recepcionistas de spa
Asistentes de peluquería canina
Asistente de peluquería canina
Roles de liderazgo, legales y empresariales que la IA no reemplazará
Aprovechar el poder de la IA generativa es un indicador de éxito empresarial potencial
nuestro informe «Innovadores en el Trabajo» reveló que el 57 % de las empresas más innovadoras están listas para integrar la IA en sus operaciones, en comparación con solo el 42 % de las empresas innovadoras no relacionadas con el trabajo.
Pero si bien el software de IA puede impulsar la innovación empresarial, no puede reemplazar el liderazgo humano ni la inteligencia emocional. Investigadores del MIT descubrieron que los modelos de IA pueden emitir juicios más severos que los humanos.
Esto indica que las personas capaces de percibir matices que los conjuntos de datos de entrenamiento no pueden proporcionar son cruciales en los negocios, recursos humanos, derecho y otros campos donde se requiere una toma de decisiones equilibrada.
Puestos con experiencia
Jueces y mediadores legales
Estrategas empresariales y directores ejecutivos
Gerentes de RR. HH. y líderes de DEI
Oficiales de ética y responsables de políticas
Puestos de nivel inicial y de apoyo
Asistentes legales y asistentes legales
Asistentes ejecutivos y jefes de personal
Coordinadores de RR. HH. y asociados de operaciones de personal
Analistas de cumplimiento
Da el primer paso hacia una estrategia de talento más inteligente
Encuentra talento
Trabajos deportivos y de aventura que la IA no puede replicar
En 2020, la COVID-19 puso en pausa los deportes en vivo, por lo que la Liga Nacional de Hockey (NHL) transmitió partidos de esports televisados en los que jugadores profesionales de hockey probaron suerte en un videojuego de la NHL.
Los aficionados vieron los partidos, pero, como era de esperar, estaban encantados de que los deportes en vivo volvieran ese mismo año… al igual que los atletas.
Los partidos deportivos generados por software no pueden competir con ver a profesionales entrenados jugar en persona.
La IA no reemplazará a deportistas profesionales, entrenadores, guías de turismo de aventura
ni a ninguna otra persona involucrada en actividades físicas especializadas (y potencialmente peligrosas).
Roles profesionales y de mediana edad
Atletas profesionales
Entrenadores de equipo
Instructores de deportes de aventura
Guías de buceo y vela
Entrenadores personales
Roles de nivel inicial y de apoyo
Entrenadores deportivos y auxiliares de acondicionamiento físico
Líderes recreativos
Socorristas
Entrenadores auxiliares y monitores de campamentos deportivos
¿Por qué la IA no puede competir en los deportes?
¿Habilidades necesarias en los deportes?
¿Puede la IA lograr esto?
Toma de decisiones instantánea ✅ ⛔
Capacidad para interpretar las reacciones de la multitud ✅ ⛔
Memoria muscular ✅ ⛔
Empatía ✅ ⛔
Capacidad para el coaching presencial ✅ ⛔

Empleos verdes que la IA no puede gestionar
Agricultores, conservacionistas y defensores del medio ambiente suelen realizar trabajos prácticos, desde visitar bosques y ríos hasta labrar la tierra y plantar cultivos. Este tipo de trabajo no puede ser completamente reemplazado por el aprendizaje automático y la automatización; alguien debe recolectar muestras, interactuar con la población local y explorar nuevos descubrimientos.
Dicho esto, los avances tecnológicos relacionados con la IA pueden ayudar a los conservacionistas a monitorear los patrones migratorios, detectar a los cazadores furtivos y limitar el contrabando o la tala ilegal. La tecnología de IA también puede ayudar a los agricultores a monitorear la salud de los cultivos y el ganado.
Puestos de carrera media y especializados
Agricultores y administradores de cultivos
Arboristas y cirujanos de árboles
Científicos de la conservación
Ingenieros ambientales
Puestos de nivel inicial y de campo
Guardabosques y administradores de senderos
Asistentes de investigación de campo
Técnicos agrícolas urbanos
Coordinadores de divulgación de sostenibilidad
Trabajos de servicio público y respuesta a emergencias que la IA no puede realizar
Los trabajos que requieren una interacción cercana con la comunidad, incluyendo salvar vidas, seguirán requiriendo también la presencia humana.
Desde personal de primera respuesta hasta trabajadores de ONG y carteros, una amplia gama de trabajos implica habilidades como el trabajo manual, la toma de decisiones y la empatía… todas ellas características que las máquinas no pueden replicar.
Sin embargo, no se sorprenda de ver que estas profesiones utilizan la IA para mejorar su trabajo
Al igual que en el ámbito académico, el conservacionismo y otros campos, los trabajadores del servicio público pueden recurrir a la IA para optimizar partes de su trabajo, como realizar diagnósticos, encontrar la mejor ruta de conducción o traducir idiomas sobre la marcha en el mar.
Puestos con experiencia y de alto riesgo
Paramédicos y técnicos de emergencias médicas (TEM)
Bomberos
Negociadores de crisis policiales y personal de primera respuesta
Trabajadores sociales
Despachadores del 911
Puestos de nivel inicial o de cara a la comunidad
Organizadores comunitarios
Trabajadores de salud pública
Coordinadores de refugios y defensores de la vivienda
Enlaces interculturales y traductores en ONG
¿Por qué la IA no puede reemplazar al personal de primera respuesta?
Tarea: ¿Se necesita personal? ¿Está preparado para la IA?
Confortar a un niño en crisis ✅ ⛔
Tomar decisiones de triaje ✅ ⛔
Reducir la intensidad de una disputa doméstica ✅ ⛔
Registrar la ubicación de las bocas de incendio ⛔ ✅
Trabajos de infraestructura que la IA no puede reemplazar
Si bien es posible que en el futuro veamos una gran parte de las operaciones de servicios públicos mejoradas por la IA, la supervisión del sistema y las reparaciones prácticas seguirán requiriendo un toque humano.
Por ejemplo, una compañía de gas natural podría usar estas nuevas tecnologías para monitorear tuberías y detectar fugas.
Si la IA detecta un riesgo potencial, expertos humanos pueden examinar, reparar y asegurar la parte de la infraestructura detectada por la tecnología.
Roles técnicos y especializados:
Instaladores de líneas eléctricas
Inspectores de gasoductos
Operadores de centrales hidroeléctricas
Técnicos de instalaciones nucleares
Roles de nivel inicial y de soporte
Técnicos de campo de servicios públicos
Aprendices de mantenimiento
Asistentes de sala de control
Lectores de medidores y verificadores de activos de campo
Roles de espiritualidad y ética que la IA no puede alcanzar
Una vez más, la falta de empatía presente en los grandes modelos de lenguaje significa que es poco probable que la IA reemplace trabajos relacionados con la religión, la ética y la filosofía.
A diferencia de los humanos, las máquinas no pueden sentir empatía ni compasión por otro ser ni ofrecer apoyo emocional ni mentoría. La IA tampoco puede considerar la moral durante la toma de decisiones complejas que requieren juicio humano.
Puestos con experiencia
Sacerdotes y pastores
Etistas y filósofos
Puestos de nivel inicial y de aprendizaje
Asistentes de ministerio juvenil y auxiliares de educación religiosa
Capellanes en formación y seminaristas
Asistentes de investigación ética
Coordinadores de programas interreligiosos

Carreras en comunicación a salvo de la IA
Las plataformas de medios tradicionales y especializados están repletas de debates sobre cómo utilizar la IA en la investigación, el periodismo e incluso la producción de vídeo; sin embargo, la IA no sustituirá por completo todos los empleos relacionados con los medios y la comunicación.
Si bien un periodista de investigación puede utilizar la IA para el análisis de datos o un líder de seminario puede recurrir a ella para transformar discursos en material nuevo, la mayor parte de estas funciones seguirán siendo realizadas por personas.
Puestos con experiencia y alta confianza
Periodistas de investigación
Oradores y moderadores
Presentadores de televisión y presentadores de programas de entrevistas
Columnistas editoriales
Puestos de nivel inicial y emergente
Asistentes de periodismo y verificadores de datos
Gestores de redes sociales júnior
Asistentes de producción de podcasts
Maestros de eventos y ponentes en campus
Cómo pueden los humanos trabajar con IA en puestos de comunicación
La IA puede. Los humanos deben:
Escribir un guion. Leer un espacio.
Generar esquemas de contenido. Entrevistar a fuentes.
Reutilizar titulares. Descubrir nuevas verdades.
Ofrecer una narración básica. Modular el tono y la emoción según las reacciones del público en vivo.
Trabajos en el sector culinario y de bebidas que la IA no puede degustar.
La industria de alimentos y bebidas tiene muchos trabajos que la IA no podrá reemplazar.
Claro que chefs, panaderos y cerveceros pueden usar la IA para organizar recetas, desarrollar nuevas combinaciones de ingredientes y planificar menús.
Pero muchas de las tareas principales que realizan estos profesionales no pueden gestionarse únicamente mediante la automatización, el aprendizaje automático o incluso robots.
En el futuro, un profesional humano capacitado seguirá teniendo que ser quien saltee, glasee, pruebe, destile y realice otras tareas que requieren una combinación de destreza, adaptabilidad y buen gusto.
Puestos de experto y artesanal
Chefs y cocineros ejecutivos
Sumilleres
Panaderos y chocolateros artesanos
Cerveceros y destiladores artesanales
Puestos de nivel inicial y de apoyo
Cocineros de línea y cocineros de preparación
Baristas
Asistentes de catering
Estilistas de alimentos y asistentes de emplatado
Estos no son los únicos empleos que es poco probable que sean reemplazados por máquinas en el futuro.
El contacto humano seguirá siendo un requisito fundamental en muchas otras industrias y puestos.
Desde las habilidades requeridas por los diplomáticos que gestionan las relaciones internacionales hasta las tareas que realizan los inspectores de viviendas para garantizar que los propietarios realicen compras acertadas, muchos puestos prioritarios para las personas continuarán en el mercado laboral.

Rol: ¿Por qué la IA no puede hacer esto?
Diplomático: La diplomacia requiere comprender los matices verbales, físicos y culturales en entornos de alto riesgo y crisis, algo que un algoritmo preentrenado no puede hacer.
Inspector de viviendas: Un inspector evalúa señales estructurales (visualmente y con instrumentos), que una sola IA podría no ser capaz de interpretar adecuadamente.
Político: Los roles políticos implican la gestión de relaciones, emociones, percepción pública, comunicación intercultural y más, todo ello mientras se planifican los próximos pasos.
Trabajador humanitario: Los trabajadores humanitarios pueden brindar asistencia médica práctica, tomar decisiones que salvan vidas con poca antelación y desenvolverse en entornos de crisis de maneras que la IA no puede manejar.
Especialista en restauración: Un experto en restauración utiliza habilidades motoras finas, destreza, señales visuales e instrumentos físicos para crear ajustes precisos en documentos frágiles; la IA y los sistemas robóticos no pueden replicar esto.
Artista de improvisación: Los comediantes y actores de improvisación a menudo construyen conexiones emocionales con su público e incluso involucran a los espectadores en su actuación, todo ello mientras cambian su acto en función de señales externas.
También puedes seguir trayectorias profesionales relacionadas para ascender hasta un puesto con experiencia que esté a salvo de la pérdida de empleo relacionada con la IA. Estos incluyen:
Empezar como asistente diplomático y convertirse en miembro sénior del servicio exterior.
Trabajar como becario inmobiliario y, finalmente, convertirse en inspector de viviendas con licencia.
Trabajar como asistente legislativo antes de postularse a un cargo político.
Utilizar la experiencia práctica como artista para orientar una carrera como asistente de arteterapia o arteterapeuta con licencia.
Trabajar como voluntario como consejero de crisis antes de dedicarse al trabajo social.
Roles tecnológicos mejorados, no reemplazados, por la IA.
También hay muchos roles que se ven afectados por la IA, pero no completamente reemplazados. Muchos profesionales de la tecnología utilizan cada vez más herramientas basadas en IA en su trabajo para aumentar la eficiencia, probar nuevas ideas y más.
Estos puestos tecnológicos pueden beneficiarse de la IA, pero aún requieren habilidades centradas en el ser humano:
Desarrolladores de software
Analistas y científicos de datos
Ingenieros de aprendizaje automático
Expertos en ciberseguridad
Fortalezas de la IA vs. ventajas humanas: por qué algunos trabajos son a prueba de IA
Fortalezas de la IA Ventajas humanas
Reconocimiento de patrones
Inteligencia emocional
Velocidad de procesamiento de datos
Juicio moral
Automatización de tareas
Adaptación sensorial
Generación de lenguaje
Improvisación creativa
Recuerdo de información
Pensamiento crítico
Trabajo humano en un mundo de IA
Todos los trabajos de esta lista requieren habilidades que solo un ser humano puede ofrecer, como empatía, toma de decisiones morales, interpretación de señales visuales, respuesta a situaciones improvisadas, desarrollo de nuevas ideas filosóficas y desarrollo de la creatividad.
Pero eso no significa que no haya espacio para que creativos, filósofos, actores, electricistas y otros se beneficien de los sistemas de IA que ayudan con la entrada de datos, el análisis, la lluvia de ideas, la escritura de guiones y otras tareas.
Todo se reduce a encontrar el equilibrio entre la eficiencia de la IA y las habilidades humanas. Encuentra carreras freelance con visión de futuro que te permitan combinar tus cualidades humanas únicas con tecnología innovadora y emocionante: crea tu perfil en Upwork hoy mismo.
11 empleos que la IA podría reemplazar en 2025 y más de 15 empleos seguros
La siguiente contribución corresponde al portal de Forbes y la autora es Rachel Wells, colaboradora. Rachel Wells es escritora y cubre temas de liderazgo, IA y desarrollo de habilidades.
Antecedentes tecnológicos abstractos. Marketing empresarial en redes globales. Concepto empresarial global.
La IA está creando 97 millones de nuevos empleos.
La IA está transformando los empleos a un ritmo mayor que cualquier otra revolución conocida en la historia reciente de la fuerza laboral.
A principios del siglo XX, la automatización industrial reemplazó las funciones de miles de artesanos y trabajadores de pequeñas fábricas. A finales del siglo XX, los cajeros automáticos comenzaron a revolucionar el sector bancario y afectaron temporalmente el trabajo de los cajeros.
A principios de la década de 2000, la ola del comercio electrónico e internet impactó a amplios sectores de trabajadores minoristas y de empresas como Blockbusters (¿quién se acuerda de eso?).
Apenas hemos superado el primer trimestre de 2025, y Meta ya ha anunciado que recortará aproximadamente el 5% de su plantilla global, o 3600 empleados, siendo los primeros en irse los de bajo rendimiento. (Y la IA no saltó a la palestra hasta 2022; reflexionemos sobre esto).
Sin embargo, como señala Jason Snyder para Forbes, «no se trata de rendimiento, sino de prioridades. Si bien Meta presentó los despidos como una forma de eliminar a los empleados de bajo rendimiento, muchos trabajadores afectados se han opuesto, argumentando que la empresa prioriza la eficiencia impulsada por la IA sobre el trabajo humano».
Snyder continúa: “Mark Zuckerberg ha declarado abiertamente que Meta quiere elevar el nivel de talento y acelerar la contratación en puestos de IA y aprendizaje automático inmediatamente después de los recortes.
Los despidos comenzaron el lunes. La contratación para puestos centrados en IA comenzó el martes”.
Recuerde también que Meta no es la única empresa en esta postura. Varias otras grandes empresas han hecho lo mismo, despidiendo a miles de trabajadores en un intento por ser más eficientes y priorizar la IA.

Claramente, la fuerza laboral se está reestructurando en otra revolución industrial de la IA.
Los datos del Foro Económico Mundial (FEM) muestran una contrapartida positiva.
Si bien es cierto que se están eliminando puestos, un informe del FEM de 2020, previo a ChatGPT, sugiere que, a pesar de que se están eliminando 85 millones de puestos, se espera que surjan 97 millones de nuevos empleos, específicamente en campos como la ciencia de datos, el desarrollo y la monitorización de IA, y la IA y los puestos de colaboración humana.
Hemos visto evidencia de los resultados positivos de una revolución industrial en la historia.
Con los ejemplos de las revoluciones industriales del pasado, es cierto que los puestos de trabajo se han erradicado por completo, pero han sido reemplazados por cargos más adecuados a la época y a la ola de nuevas tecnologías e innovación.
Por lo tanto, no debería ser difícil imaginar que la revolución de la IA y la robótica tendrá los mismos resultados: eliminará empleos y creará un mercado laboral completamente nuevo.
11 empleos con mayor riesgo de ser reemplazados por IA en 2025
Los empleadores ya han señalado que la implementación de la inteligencia artificial es una de sus prioridades comerciales clave para 2025 y años posteriores. Nueve de cada diez afirman que esperan utilizar soluciones basadas en IA e IA generativa durante los próximos cinco años, y el 73 % admite priorizar la contratación de talento en IA. La pregunta es, a medida que más empresas adoptan esta nueva era, ¿qué empleos corren mayor riesgo de desaparecer?
Esta es una pregunta crucial que preocupa a muchos trabajadores estadounidenses, ya que el 52 % está preocupado por el impacto de la IA en sus empleos, según un nuevo estudio de Pew Research realizado a más de 5000 profesionales estadounidenses.
La bolsa de trabajo Indeed acaba de publicar una nueva lista de empleos en riesgo de automatización y define los roles automatizados como «tareas que las máquinas o los programas de software pueden realizar sin intervención humana.
Suelen ser acciones rutinarias o repetitivas que requieren un alto grado de precisión. Pueden incluir tareas sencillas, como hacer llamadas telefónicas, o procesos complejos, como analizar datos o procesar transacciones. En entornos industriales, las tareas automatizadas suelen ser aquellas que los humanos perciben como indeseables».
Su lista incluye:
Empleos en manufactura (operación de maquinaria, manipulación de productos, pruebas, empaquetado, etc.)
Roles en comercio minorista y minorista (atención al cliente, gestión de inventario, análisis de fraude)
Empleos en transporte y logística (los conductores humanos están siendo reemplazados por vehículos autónomos, como ya vemos con Waymo)
Empleos básicos de entrada, análisis y visualización de datos
Roles de análisis y proyección financiera
Agentes de viajes y proveedores de itinerarios
Traductores
Preparación de impuestos y puestos de contabilidad de nivel inicial
Otros puestos en riesgo de caducidad o de menor demanda, que no se mencionan explícitamente en la lista de Indeed, incluyen:
Correctores
Asistentes legales
Diseñadores gráficos
Mujer de negocios, IA y portátil con holograma, experiencia de usuario y redes para el icono de trading de divisas en la oficina utilizando una plataforma virtual. Mujer que usa tecnología global para la comunicación e innovación futuristas
Las revoluciones industriales siempre traen cambios indeseados, pero si te escondes y finges que no existen o luchas contra ellos, tu carrera fracasará y no tendrás futuro en el mercado laboral.
Más de 15 empleos a salvo de la IA en 2025
Entonces, ¿qué roles están a salvo de la amenaza de la automatización para que puedas preparar tu carrera para el futuro y planificar en consecuencia?
Empleos en IA (Diseño de IA)
Bueno, obviamente, el primer grupo de empleos que esperarías que estuvieran a salvo de la automatización son los empleos de IA, o roles que permiten que la IA funcione como debería.
Esto incluye:
Ingenieros de aprendizaje automático
Desarrolladores de software
Científicos de datos
Ingenieros de ciberseguridad
Gerentes de agentes de IA
Empleos impulsados por IA (Colaboración con IA)
El siguiente grupo de roles a salvo de la IA son aquellos que trabajan en colaboración con ella, no de forma independiente ni en contra de ella, fingiendo que no existe o tratándola como una amenaza.
Estos son puestos que requieren altos niveles de especialización, un toque personal o que exigen específicamente la interacción en persona con una persona real. También tienden a ser más creativos y requieren la toma de decisiones o la perspicacia humana.
Le tranquilizará saber que existen muchos puestos que entran en esta categoría, que abarcan los ámbitos educativo, sanitario y empresarial. Por ejemplo:
Enfermeros titulados
Coreógrafos
Paramédicos
Especialistas y consejeros en salud mental
Docentes (desde primaria y secundaria hasta bachillerato) y superiores, docentes, instructores y catedráticos de educación superior
Ingenieros civiles
Cirujanos
Gerentes de proyecto
Directores y gerentes de operaciones
Músicos
Periodistas
Para ser claros, nadie dice que los puestos mencionados anteriormente no vayan a sufrir el impacto de la IA; más bien, cualquier persona que ocupe estos puestos deberá adaptar su trabajo, actualizar sus habilidades y conocimientos, y encontrar maneras de incorporar herramientas e inteligencia basadas en IA para ayudarles a centrarse en los aspectos más complejos del trabajo.
Lo que es aún más emocionante es que, para 2030, el 85 % de los puestos de trabajo serán nuevos empleos en el mercado, de los que ni siquiera hemos oído hablar, según el Foro Económico Mundial.
Se crearán nuevos puestos de trabajo (y ya están en proceso de creación), por lo que tendrás un amplio margen para aplicar tus habilidades y experiencia en colaboración con la nueva fuerza laboral impulsada por la IA.

¿Debería preocuparme?
No tiene sentido ignorar la realidad ni tratar la IA como un enemigo de tu carrera profesional.
En una entrevista en la sede de IBM en Londres para este artículo de Forbes, Justina Nixon-Saintil, vicepresidenta de IBM, enfatizó: «El aprendizaje no se detiene. Constantemente hay nuevas tecnologías; se están acelerando a un ritmo mucho más rápido que nunca. Hoy es IA, mañana podría ser cuántica. La IA impactará en casi todos los puestos de trabajo y afectará a todos los sectores».
Concluyó: “Ya sea que trabajes en el sector servicios, en una empresa tecnológica o en finanzas, todos necesitan mejorar sus habilidades y comprender lo que la IA significa para su puesto”.
Así que no, no deberías preocuparte
En lugar de eso, prepara un plan de acción profesional detallado para mantenerte a la vanguardia y asegurarte de que cada curso de mejora de habilidades que realices, cada nueva oferta de trabajo que aceptes o cada puesto que busques esté estratégicamente alineado con tus objetivos profesionales y con las necesidades de la fuerza laboral en constante evolución.
Tómate el tiempo para familiarizarte con la IA, especialmente considerando que a los empleadores les cuesta encontrar talento con habilidades en IA y prefieren contratar a un trabajador con habilidades en IA que a uno sin ellas.
Si actúas ciegamente como si nada fuera a pasar y esperas a que te desarraiguen el trabajo, entonces sí, deberías preocuparte.
Los puestos con menor riesgo de automatización son aquellos impulsados por humanos y requieren una profunda resolución de problemas e interacción.
Preguntas frecuentes sobre la pérdida de empleos con IA
¿Qué trabajos están en riesgo debido a la IA?
Si tu puesto es muy repetitivo o implica tareas que suelen ser aburridas y monótonas, probablemente sí.
Cuanto más esfuerzo e intuición humana se requieran, menor será tu riesgo.
¿Qué trabajos nunca reemplazará la IA?
Roles de liderazgo, cuidado infantil, educación, atención médica, diseño técnico como paisajismo y arquitectura, y puestos que requieren resolución de problemas e interacción humana, así como puestos que permiten el funcionamiento de la IA.
¿Qué debo hacer si mi trabajo está en riesgo?
No te asustes. Crea un plan de acción y céntrate en tres acciones o pasos rápidos que puedas tomar ahora para adaptarte fácilmente.
Aprende herramientas de automatización y practícalas para que tengas demanda cuando los empleadores requieran tu talento y mejore tus habilidades en áreas con futuro. También deberías obtener certificaciones relacionadas con la IA.
El peligroso impacto de la IA en la toma de decisiones
La siguiente contribución corresponde al portal de Forbes y el autor es Kamales Lardi, miembro del Consejo Empresarial de Forbes. También es director ejecutivo de Lardi & Partner Consulting, es un líder en transformación digital que aprovecha la neurociencia y la psicología human-tech.
La inteligencia artificial (IA) está en su apogeo: todos la desean o afirman tener algo que ver con ella. Y, francamente, el potencial transformador de la IA se puede observar en muchos sectores, transformando la forma en que las empresas operan y compiten.
A medida que las organizaciones se convencen del increíble potencial de las aplicaciones de la IA en los negocios, los equipos directivos la ven cada vez más como una solución milagrosa para los desafíos empresariales y las oportunidades de crecimiento.
A medida que las tecnologías basadas en IA se vuelven más sofisticadas y omnipresentes en el panorama empresarial global, la tendencia a confiar ciegamente en la IA como inherentemente «inteligente» y objetiva aumenta rápidamente.
La dependencia excesiva de la IA puede generar un comportamiento complaciente y reducir el pensamiento crítico, esencial para la toma de decisiones.
Comprendiendo la Toma de Decisiones Humana con el Modelo de Acumulación hasta el Umbral
Antes de comprender cómo la IA influye en la toma de decisiones, debemos comprender el proceso humano.
Desde una perspectiva neurocientífica, el modelo de acumulación hasta el umbral ofrece una forma sencilla e intuitiva de explicar cómo el cerebro humano toma decisiones.
Imagine que su cerebro tiene cubos que se llenan a medida que recopila información. Una vez que un cubo está lleno (se alcanza el umbral) y se ha recopilado suficiente información, se toma una decisión.
Veamos un ejemplo sencillo de cómo funciona esto. Si decide cruzar la calle, su cerebro recopila información del mundo circundante para llenar los cubos de «esperar» o «caminar». Cuando observas que el semáforo está en rojo o no hay coches, tu casilla de «caminar» se llena. Por otro lado, si ves coches acercándose o la luz está en verde, tu casilla de «esperar» se llena. Cuando hay suficiente evidencia en la casilla de «caminar», tu cerebro envía una señal de que es seguro cruzar la calle.
En este proceso, el acceso a información precisa, como señales visuales y datos creíbles, tiene una gran influencia en las decisiones. Como en el ejemplo anterior, en una noche con niebla, recibimos menos señales visuales.
Puede que no esté claro si el semáforo está en rojo o verde. Por lo tanto, la casilla se llena con más dificultad y la toma de decisiones se ralentiza, o aumenta la probabilidad de errores.
Además, nuestros valores, prioridades, creencias y sesgos personales
se reflejan en el proceso de toma de decisiones.
Actúan como palancas que controlan a qué casilla se dirige la información, así como la velocidad con la que fluye hacia ellas. Por ejemplo, una persona puede categorizar el semáforo en amarillo como «esperar», mientras que otra puede categorizarlo como «caminar más rápido».
Influencia de la IA en la toma de decisiones
¿Cómo impactan los sistemas de IA en el modelo de acumulación hasta el umbral y en nuestra capacidad para tomar decisiones objetivas?
Los sistemas de IA pueden influir en el tipo y la calidad de la información disponible.
Los algoritmos pueden potenciar las cámaras de eco al destacar datos o información que se alinea con preferencias específicas.
Esta exposición limitada a diversos puntos de vista o información resulta en decisiones sesgadas, lo que restringe la capacidad natural del cerebro humano para adaptarse y cuestionar los sesgos durante el proceso de toma de decisiones.
Un ejemplo común de esto son los motores de las plataformas de redes sociales que configuran la información que vemos en nuestros feeds e influyen en la evidencia que recopilamos.
Otro peligro de la IA es su capacidad para producir contenido hiperrealista, como videos deepfake y voces simuladas
Si bien estos avances tecnológicos son evidencia contundente del progreso de la IA, también pueden dañar la integridad de la información. Estos resultados convincentes generados por la IA pueden influir en nuestras emociones, impulsándonos a tomar decisiones impulsivas.
No solo puede hacernos confiar en la desinformación, sino que también puede erosionar la confianza en el contenido genuino.
Es evidente que estamos llegando a un punto crucial del desarrollo tecnológico, donde la IA puede difuminar la línea entre lo real y lo falso.
Con esto, nuestra capacidad para tomar decisiones basadas en contenido visual puede verse comprometida, con importantes implicaciones para nuestro mundo.

Garantizar una toma de decisiones responsable
Como usuarios de sistemas de IA, tanto las personas como las empresas deben ser educadas sobre sus limitaciones, especialmente las relacionadas con los sesgos y la fiabilidad.
Si bien la IA es una herramienta poderosa que puede ayudar en la toma de decisiones, se debe animar a las personas a evaluar críticamente sus recomendaciones y evitar la confianza ciega.
Esto implica fomentar proactivamente una cultura de escepticismo, garantizando que cuestionemos y pongamos a prueba eficazmente la credibilidad de los resultados generados por los sistemas de IA.
A medida que la IA se adopta cada vez más con fines empresariales, las organizaciones deben centrarse en fomentar la seguridad psicológica y capacitar a los empleados para que planteen sus inquietudes cuando los conocimientos de la IA difiera de las expectativas.
La clave para una adopción exitosa de la IA en las empresas reside en asegurar que podamos mantener un equilibrio al aprovechar su potencial, a la vez que salvaguardamos la capacidad humana de mantener la objetividad y el sentido común en la toma de decisiones.
Introducción a la Gobernanza de la IA
La siguiente contribución corresponde al portal de Modulos que se define así:
Misión
Ayudamos a las organizaciones a desarrollar y operar productos y servicios de IA en un nuevo entorno regulado.
Visión
Ofrecemos una Plataforma de Gobernanza de IA que integra a la perfección la gobernanza de IA, la gestión de riesgos y la ciencia de datos, garantizando que su organización cumpla con las normativas a la vez que innova.
La autoría es del equipo.
La gobernanza de la IA es un aspecto fundamental para el desarrollo responsable de la IA.
Su objetivo es crear un marco para su uso responsable y ético, protegiendo los derechos y libertades de las personas. Pero ¿qué es exactamente la gobernanza de la IA y por qué es importante?
Veamos lo básico.
¿Qué es la Gobernanza de la IA y por qué es importante?
La gobernanza de la IA es un conjunto de principios, regulaciones y marcos que guían el desarrollo, la implementación y el mantenimiento de las tecnologías de IA.
Considera diversos aspectos como la ética, el sesgo y la equidad, la transparencia, la rendición de cuentas, la gobernanza de datos y la gestión de riesgos.
Su objetivo principal es garantizar el uso ético y responsable de la IA.
Su importancia reside en la capacidad de mitigar los riesgos asociados a las aplicaciones de IA, incluyendo sesgos, violaciones de la privacidad y resultados inexplicables.
Una gobernanza adecuada de la IA genera confianza entre los usuarios y las partes interesadas. Garantiza que las tecnologías de IA se utilicen con fines beneficiosos y se ajusten a las expectativas legales y sociales.
Principios fundamentales de la Gobernanza de la IA
En el núcleo de la gobernanza de la IA se encuentran algunos principios fundamentales que guían su desarrollo e implementación. Estos incluyen:
Principios éticos
La gobernanza de la IA debe seguir principios éticos, garantizando que las aplicaciones de IA respeten los derechos humanos y las libertades fundamentales.
Transparencia
La IA debe ser transparente para los usuarios y las partes interesadas, promoviendo la confianza en el desarrollo, la implementación y el uso de la tecnología.
Responsabilidad
Quienes desarrollan o implementan tecnologías de IA deben ser responsables de cualquier daño que causen.
Equidad
La gobernanza de la IA debe promover la equidad, previniendo la discriminación y los sesgos en el desarrollo y el uso de aplicaciones de IA.
Gestión de riesgos
Necesitamos una evaluación y gestión de riesgos adecuadas para identificar y mitigar los riesgos potenciales asociados con las tecnologías de IA.
Auditabilidad
Los sistemas de IA deben ser auditables. Los procesos y las decisiones que toman deben ser fácilmente rastreables y explicables.
Supervisión humana
Los humanos deben tener cierto nivel de control y toma de decisiones en los sistemas de IA para garantizar un uso ético.
Estos principios son la base de una gobernanza responsable de la IA. Es esencial considerarlos en cualquier marco o regulación relacionada con la IA. Para comprender por qué las empresas y los gobiernos invierten en la gobernanza de la IA, analicemos con más detalle su desarrollo histórico.
Contexto histórico y desarrollo de la gobernanza de la IA
El concepto de gobernanza de la IA no es nuevo. Ha surgido y evolucionado a la par con el avance y la difusión de las tecnologías de IA.
En sus inicios, la gobernanza de la IA era un ámbito relativamente ignorado, dada su naturaleza experimental.
Sin embargo, a medida que se aclararon las posibles implicaciones e impactos de la IA, la necesidad de una gobernanza estructurada se volvió crucial.
En los últimos años, incidentes de alto perfil relacionados con la IA han puesto de relieve la necesidad de la gobernanza.
Por ejemplo, en un episodio preocupante, los Países Bajos sufrieron un escándalo significativo derivado del uso indebido de la IA.
Miles de vidas sufrieron graves consecuencias cuando una autoridad fiscal holandesa utilizó un algoritmo para identificar presuntos fraudes en las prestaciones sociales.
Este escándalo se conoció como el «toeslagenaffaire» o el escándalo de las prestaciones por cuidado infantil.
Las autoridades fiscales holandesas utilizaron un algoritmo de autoaprendizaje para crear perfiles de riesgo y detectar el fraude.
Sin embargo, el sistema presentaba deficiencias. Con base en los indicadores de riesgo del sistema, se sancionó a familias sospechosas de fraude.
Provocó el empobrecimiento de decenas de miles de familias, y algunas víctimas incluso recurrieron al suicidio.
Esta debacle pone de relieve la devastación potencial que pueden causar los sistemas automatizados sin las salvaguardias necesarias.

Amazon enfrentó desafíos similares con su herramienta de reclutamiento de IA
que se descubrió que presentaba sesgo contra las mujeres.
La herramienta, desarrollada en 2014, utilizaba aprendizaje automático para revisar currículums y calificar a las solicitantes de empleo.
Amazon la diseñó para agilizar el proceso de adquisición de talento, asignando puntuaciones a los candidatos de la misma manera que los compradores de Amazon califican los productos.
Sin embargo, para 2015, la compañía descubrió que el sistema no calificaba a las candidatas a puestos técnicos de forma neutral en cuanto al género.
Esto se debía a que los datos de entrenamiento estaban sesgados, ya que la mayoría de los currículums provenían de hombres, lo que reflejaba el predominio masculino en la industria tecnológica.
El algoritmo, por lo tanto, descubrió que los candidatos masculinos eran preferibles, incluso penalizando los currículums que incluían la palabra «de mujeres».
Esto finalmente llevó a Amazon a desmantelar el proyecto
Otro ejemplo es un acuerdo reciente con la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) relacionado con un presunto sesgo de IA en la contratación.
El caso EEOC contra iTutorGroup abordó la alegación de que la herramienta de reclutamiento de IA de iTutorGroup presentaba sesgo de edad y género.
Esto provocó el rechazo de solicitantes hombres mayores de 60 años y mujeres mayores de 55.
Los demandados negaron estas acusaciones. Sin embargo, el acuerdo destaca que las herramientas de IA que causan resultados discriminatorios no deseados pueden acarrear graves consecuencias legales.
Incidentes como estos han generado una creciente demanda de marcos y regulaciones para gestionar el desarrollo y la aplicación de la IA.
A lo largo de los años, diversas partes interesadas, como legisladores, líderes del sector e investigadores académicos, han propuesto diferentes marcos y modelos para la gobernanza de la IA, contribuyendo cada uno a su desarrollo.
Esto ha dado lugar a la reciente introducción del Reglamento de IA de la UE y otras leyes pertinentes.
Pero antes de profundizar en estas regulaciones, entendamos primero por qué las empresas deben invertir en la gobernanza de la IA.
¿Por qué las empresas necesitan gobernanza de la IA?
Sin técnicas de gobernanza adecuadas, las organizaciones corren un riesgo significativo de sufrir daños legales, financieros y reputacionales debido al uso indebido y a los resultados sesgados de su inventario algorítmico.
Por lo tanto, la gobernanza de la IA no es solo un requisito obligatorio, sino una necesidad estratégica para mitigar estas amenazas y, a mayor escala, promover la confianza en las tecnologías de IA.
Las empresas que utilizan IA en sus productos tienen la obligación de implementar estructuras de gobernanza responsables y cuentan con un incentivo estratégico para hacerlo.
Contar con la supervisión y un conocimiento exhaustivo de su inventario de IA mitigará las amenazas que plantea una gobernanza inadecuada y facilitará la supervisión y la actualización de las prácticas operativas de acuerdo con los riesgos y las regulaciones en constante evolución.
Además, con la introducción de la Ley de IA de la UE y regulaciones similares, las empresas que implementen de forma proactiva prácticas responsables de gobernanza de la IA tendrán una ventaja competitiva sobre las que no lo hagan. Demostrar responsabilidad y transparencia en el uso de las tecnologías de IA es cada vez más importante para
Transformando la toma de decisiones empresariales con IA centrada en el ser humano
La siguiente contribución corresponde al portal de TATA Consultancy Services que se define así: Ofrecemos excelencia y creamos valor para nuestros clientes y comunidades. Nuestro equipo experto y comprometido pone en práctica nuestros valores compartidos día a día. Con el mejor talento y la tecnología más avanzada, ayudamos a nuestros clientes a convertir la complejidad en oportunidades y a generar cambios significativos.
Y los autores son:
Siva Ganesan
Vicepresidente Sénior y Director Global de la Unidad de Negocio de IA y Datos, TCS
Ashok Krish
Vicepresidente y Director de la Práctica de IA, TCS
Sankaranarayanan “Shanky” Viswanathan
Vicepresidente de la Oficina de Tecnología Corporativa, TCS
Resumen
Existe una sensación colectiva de impulso en torno al panorama de la IA en rápida evolución.
Sin embargo, en medio de este avance, se ha arraigado una profunda incomprensión sobre su verdadero potencial transformador.
Si bien las organizaciones suelen considerar la IA como una herramienta para la automatización y la optimización de procesos, la verdadera revolución radica en reinventar la forma en que las personas trabajan y toman decisiones.
Los flujos de trabajo y procesos empresariales tradicionales están diseñados para humanos y sistemas de registro transaccionales.
Una transformación exitosa de la IA se centra en las personas, no en los procesos ni en los sistemas.
Para que humanos y máquinas colaboren de forma óptima, es necesario reinventar las cadenas de valor desde sus cimientos.
Las arquitecturas de elección inteligente (ICA) son el siguiente paso natural en las formas de trabajo
Intelligent choice architectures
Las ICA representan un cambio profundo donde los sistemas de IA se adaptan al ser humano, no al revés.
Las ICA se construyen sobre una base de datos (tanto información de sistemas como conocimiento tácito contextual humano), modelos que encapsulan el conocimiento y agentes que realizan el trabajo real.
Fundamentalmente centradas en el ser humano, las ICA aprovechan el poder de la IA predictiva y generativa y lo aplican a la naturaleza inherentemente subjetiva, matizada y contextual del trabajo del conocimiento.
De este modo, las ICA revolucionan la toma de decisiones, empoderando a las personas con opciones más inteligentes, rápidas e informadas.
De las mejores acciones a la toma de decisiones centrada en el ser humano
Parte del malentendido en torno a la toma de decisiones proviene de iteraciones tecnológicas anteriores, que eran más prescriptivas que empoderadoras.
Las herramientas de decisión tradicionales, si bien eficaces en algunas áreas, a menudo refuerzan la percepción de la IA como un mero impulsor de la productividad.
Codificadas con restricciones rígidas, las mejores acciones a las que se ofrecen a los humanos se derivan de opciones predefinidas y limitadas.
Pero así no es como funcionan los negocios (o no por mucho tiempo). En cualquier entorno empresarial, quienes toman las decisiones operan bajo parámetros muy subjetivos y con muchos matices.
Una decisión presupuesta basada en un conjunto limitado de opciones invariablemente omitirá perspectivas críticas adicionales: la experiencia del cliente, el riesgo empresarial, los ingresos o cualquiera de las docenas de parámetros que componen cualquier escenario.
Tomemos como ejemplo una reclamación de garantía de fabricación
La automatización tradicional espera que el mismo conjunto finito de variables de decisión determine si una reclamación se aprueba o no.
En realidad, cada reclamación tiene docenas de matices e interpretaciones individuales, lo que hace imposible encajarla en un conjunto preciso de doce categorías.
Peor aún, las mejores acciones posteriores no empoderan a los humanos, lo que sofoca su propia comprensión del contexto y su experiencia en la toma de decisiones.
Los expertos humanos aplican una cantidad significativa de matices subjetivos para tomar decisiones en diferentes áreas.
La información, las experiencias y las situaciones influyen en cómo sopesan las opciones y adaptan la toma de decisiones.
En el ejemplo de las reclamaciones de garantía de fabricación, la importancia del conocimiento del contexto hace imposible reducir las decisiones únicamente a procedimientos y reglas operativas estándar.
La mejor respuesta para el Cliente A podría ser completamente diferente a la del Cliente B, incluso con datos superficiales idénticos.
En cambio, los ICA generan dinámicamente nuevas alternativas basadas en patrones de datos en evolución y perspectivas contextuales.
Estos sistemas no solo ofrecen respuestas: permiten a los empleados tomar sus propias decisiones con mayor rapidez, a partir de una gama más amplia de opciones seleccionadas, con alternativas y compensaciones.
Lo que realmente distingue a los ICA es su capacidad para interactuar de forma innovadora con los responsables de la toma de decisiones y aprender a hacer mejores recomendaciones y elecciones.
Los ICA aprenden, evolucionan y se alinean continuamente con la organización, ofreciendo ciclos de retroalimentación entre las opciones y los resultados.
Cada decisión, y las elecciones que la respaldan, se convierten en oportunidades de aprendizaje que impulsan un ciclo autosostenible de éxito.
Vías progresivas hacia cadenas de valor reinventadas
En un entorno de rápidos cambios y disrupción, la capacidad de la IA para asistir, mejorar y transformar la toma de decisiones nunca ha sido tan valiosa.
El mayor valor se obtiene cuando la IA se adapta a la persona, mejorando la toma de decisiones con contexto, empatía y relevancia.
En lugar de imponer un modelo de interacción único a todos los usuarios, las ICA se alinean con las personalidades, preferencias y estilos de trabajo individuales, manteniendo al mismo tiempo la consistencia en la calidad de las decisiones subyacentes.
A través de etapas progresivas de madurez, los ICA crean nuevas vías hacia nuevas formas de trabajar y tomar decisiones:
Asistir: En este nivel fundamental, la IA proporciona asistencia en tareas específicas, donde los humanos delegan tareas a las capacidades de la IA para funciones discretas. La relación es transaccional, donde los humanos dirigen a la IA para que realice tareas bien definidas.
Aumentar: Aquí, la IA evoluciona hacia un compañero colaborativo que trabaja en conjunto con los humanos, ofreciendo opciones y recomendaciones, a la vez que facilita la colaboración humana. La relación se vuelve más equilibrada, con la IA funcionando como un asesor de confianza sin intereses creados más allá de mejorar el rendimiento humano.
Transformar: En el nivel más alto de madurez, la IA orquesta el trabajo en toda la cadena de valor, optimizando no solo el rendimiento individual, sino también los resultados de toda la empresa. En este nivel es donde surgen muchos malentendidos. No se trata de reemplazar a los humanos, sino de reimaginar cómo se toman los flujos de trabajo y las decisiones para maximizar los resultados colectivos.
Las personas siguen siendo fundamentales, pero su forma de trabajar está orquestada por los sistemas para lograr resultados óptimos. A nivel local, cada trabajador necesita personalización.
Sin embargo, la mejor opción para un trabajador individual podría no ser la mejor opción para la organización. A nivel global, las organizaciones necesitan garantizar que las optimizaciones individuales no generen suboptimización a nivel empresarial.
La verdadera transformación se produce cuando la IA orquesta el trabajo de forma que maximiza los resultados de toda la empresa y no solo la productividad individual.
Este marco representa una progresión organizacional
Cada etapa se basa en la anterior, creando un verdadero sistema de inteligencia centrado en el ser humano que orquesta las decisiones a nivel empresarial.
A medida que la capacidad colectiva de toma de decisiones empresariales mejora progresivamente, el conocimiento institucional se amplía a medida que los trabajadores escalan.
El conocimiento institucional se amplía rápidamente a medida que los trabajadores toman decisiones más inteligentes y rápidas mediante la mejora personalizada.

Construyendo una arquitectura de decisiones inteligente
Diseñar el entorno de decisión adecuado es tan crucial como la propia IA.
Diseñar los contextos en los que se toman decisiones estratégicas y operativas clave requiere un marco óptimo que permita tanto a los humanos como a las máquinas desenvolverse en entornos empresariales cada vez más complejos.
Esto no es trivial. Crear sistemas de ICA eficaces requiere un enfoque diferente al de la implementación tradicional de la IA.
La mayoría de los enfoques se centran inmediatamente en la construcción de un conjunto de componentes predefinidos. De hecho, priorizan las máquinas sobre las personas.
Las ICA dependen tanto de los factores humanos, la personalidad y los patrones de trabajo matizados que la propia arquitectura se convierte en una elección inteligente. Construir sistemas de ICA eficaces requiere inteligencia para determinar qué capacidades se necesitan para un trabajo de conocimiento específico y cómo deben orquestarse. No se trata de integrar componentes tecnológicos, sino de comprender a fondo cómo se trabaja y dónde la mejora puede aportar valor.
Cada persona tiene diferentes estilos de comunicación y trabajo, y una mejora eficaz requiere adaptarse a estas preferencias sin dejar de ofrecer una orientación óptima.
Para que las ICA tengan éxito, deben personalizarse no solo para roles y responsabilidades, sino también para las personalidades y estilos de trabajo individuales.
¿Qué hace que una persona sea particularmente eficaz en su puesto?
¿Qué mejoraría significativamente su día a día?
¿Cómo podría la experiencia de la persona escalar en toda la organización?
Este enfoque centrado en el ser humano revoluciona el modelo de implementación tradicional. En lugar de obligar a las personas a adaptarse a la tecnología, la tecnología se adapta a las personas.
El camino a seguir: De la solución puntual a la empresa cognitiva
Diseño centrado en el ser humano, impulsado por IA y orientado a resultados para la decisión, no para la herramienta.
Mapee las decisiones cruciales en cada rol, capture el razonamiento tácito que las sustenta y deje que esos conocimientos, y no el último lanzamiento del modelo, impulsen su hoja de ruta.
Establezca arquitecturas dinámicas: Ensamble capas modulares de datos, modelos y agentes que aprendan de cada decisión, mejoren de forma autónoma y se reimplementen a escala empresarial sin reconfigurar la pila.
Escale la sabiduría institucional: Incorpore la intuición experta en arquitecturas de decisión inteligente para que cada asociado, ya sea nuevo o veterano, actúe con la experiencia acumulada de la empresa.
Gobierne para una rendición de cuentas dinámica: Cambie de controles estáticos a barreras de seguridad en tiempo real que auditen las decisiones, detecten sesgos y corrijan el rumbo sobre la marcha, manteniendo a los humanos firmemente al mando del «porqué».
Carga de cierre
La próxima década no recompensará a las empresas que simplemente automaticen más rápido; recompensará a aquellas que combinen el juicio humano con la inteligencia artificial para que cada decisión sea más inteligente que la anterior. Cree la arquitectura, conecte los bucles de aprendizaje y permita que su empresa comience a pensar a la velocidad de su ambición.
Toma de Decisiones Responsable con IA
La siguiente contribución corresponde a DecisionBrain que se define así: En DecisionBrain, sabemos lo difícil que puede ser planificar. La cadena de suministro, la fabricación, la logística, la planificación de la fuerza laboral y el mantenimiento son solo algunos de los ámbitos en los que hemos llegado a apreciar la complejidad y singularidad de toda la organización.
- Introducción
¿Puede la inteligencia artificial (IA) tomar decisiones fiables y explicables para las empresas? Las empresas y los organismos gubernamentales dependen de la toma de decisiones precisas sobre las interacciones con los clientes, la elegibilidad de productos o servicios, la programación de la fuerza laboral y la planificación de la cadena de suministro. ¿En qué medida la IA moderna facilita la toma de decisiones cotidiana, esencial para las operaciones de toda organización?
Los sistemas modernos de IA Generativa (GenAI), como los Modelos de Lenguaje Largo (LLM), parecen ofrecer respuestas perspicaces a las preguntas de decisión, pero funcionan aprovechando patrones estadísticos en lugar de comprender el significado y aplicar el razonamiento formal.
Este fenómeno, a veces denominado efecto «Loro Estocástico», subraya las limitaciones de confiar en estos modelos en escenarios de alto riesgo.
Industrias que abarcan desde la salud hasta las finanzas dependen cada vez más de la IA para la toma de decisiones, lo que pone de relieve la urgencia de reconocer el potencial de la GenAI, así como sus limitaciones.
Técnicas como la inducción en cadena de pensamiento (CoT) y la generación aumentada por recuperación (RAG) mejoran los resultados de la IA, pero no abordan la ausencia fundamental de razonamiento genuino.
Los enfoques híbridos que combinan GenAI con marcos de decisión explícitos, como motores de reglas, herramientas de optimización y simulaciones, ofrecen una vía para obtener resultados más fiables.
- IA generativa y sus limitaciones en la toma de decisiones autónoma
2.1 El dilema del «loro estocástico»
Los modelos de lenguaje de IA generativa funcionan prediciendo la siguiente palabra en una secuencia basándose en probabilidades derivadas de datos de entrenamiento, generalmente masivos. Este enfoque probabilístico puede producir una fluidez lingüística similar a la humana y una amplia información en muchos dominios, pero presenta una debilidad inherente en la toma de decisiones autónoma.
Aunque los LLM puedan parecer razonar a través de tareas complejas, en realidad realizan una coincidencia de patrones avanzada en lugar de aplicar una comprensión fundamentada del mundo.
Se destacan en la generación de respuestas coherentes mediante la identificación de correlaciones lingüísticas y conceptuales en corpus textuales masivos.
Sin embargo, carecen de la capacidad de verificar la exactitud factual o interpretar el contexto en sentido semántico mediante la aplicación de reglas formales o la búsqueda de resultados correctos en un espacio de soluciones limitado.
Esta deficiencia se vuelve especialmente preocupante al abordar decisiones operativas o estratégicas que exigen un profundo conocimiento del dominio, consideraciones éticas o un estricto cumplimiento normativo.
2.2 Alucinaciones y resultados engañosos
Los LLM no pueden verificar la autenticidad de sus afirmaciones y, en ocasiones, inventan hechos inexistentes; fenómenos comúnmente conocidos como «alucinaciones», pero que mejor se podrían llamar «confabulación».
Este tipo de resultados puede ser peligrosamente engañoso cuando se aplica en sectores regulados como las finanzas, los servicios públicos o la sanidad, donde incluso un pequeño error puede tener consecuencias significativas.
El estilo refinado del contenido de GenAI dificulta que los lectores no expertos detecten inexactitudes, especialmente si carecen de conocimiento contextual.
Dado que los LLM están diseñados para maximizar la probabilidad de producir textos coherentes y atractivos, pueden inventar detalles con confianza en ausencia de datos que los corroboren.
Los usuarios pueden confiar inadvertidamente en estas afirmaciones engañosas, lo que aumenta el riesgo de errores en decisiones cruciales.
2.3 Sesgos en los Datos de Entrenamiento
La IA Generativa, como todas las técnicas de aprendizaje automático, refleja y amplifica los sesgos inherentes a su conjunto de entrenamiento. Incluso antes de la llegada de los LLM, empresas como Amazon se enfrentaron a este problema cuando un modelo de contratación basado en ML perpetuó la discriminación histórica por motivos de género.
Los esfuerzos por depurar datos problemáticos o ajustar las ponderaciones de los modelos pueden mitigar los sesgos hasta cierto punto, pero muchas correlaciones permanecen profundamente arraigadas en los grandes corpus de entrenamiento.
El sesgo no solo conduce a resultados discriminatorios, sino que también aumenta los riesgos legales y reputacionales, especialmente en jurisdicciones que aplican leyes estrictas contra la discriminación.
La supervisión humana y las restricciones lógicas explícitas desempeñan un papel crucial en la identificación, evaluación y corrección de estos sesgos ocultos antes de que se manifiesten en decisiones reales.
2.4 El Problema de la Caja Negra
Los motores GenAI, y en general los modelos de aprendizaje automático, suelen funcionar como «cajas negras» opacas, que ofrecen poca información sobre su razonamiento interno. Esta opacidad socava la rendición de cuentas y la confianza, especialmente cuando los sistemas de IA configuran políticas organizacionales críticas.
Los reguladores exigen cada vez más que las decisiones de IA sean explicables y trazables; la legislación de la Unión Europea, como la Ley de IA, exige justificaciones documentadas que respalden los resultados de IA de «alto riesgo».
Los métodos tradicionales de aprendizaje automático, especialmente las redes neuronales profundas, generalmente se resisten a una interpretación directa porque sus ponderaciones internas no se corresponden con los conceptos y medidas que los humanos utilizan para obtener explicaciones convincentes.
Si bien las técnicas de IA Explicable (XAI) y los flujos de trabajo agénticos pueden resaltar factores o rastrear pasos de decisión de alto nivel, no convierten una caja negra en un sistema transparente.
Este desafío complica tanto la gobernanza interna como el cumplimiento externo, obligando a las empresas a conciliar la promesa de GenAI con la necesidad legal y ética de explicabilidad.
Por otro lado, las tecnologías de razonamiento explícito, como las reglas o restricciones de negocio, permiten a los sistemas proporcionar explicaciones sensatas basadas en las reglas y ontologías utilizadas para describirlas, lo que los hace altamente responsables.
Sin embargo, estos sistemas carecen de las capacidades lingüísticas de los LLM. ¿Quizás una combinación de ambos sea un buen enfoque? Volveremos a este tema en breve.
2.5 Dependencia excesiva de la IA
Una dependencia excesiva de la GenAI puede dejar de lado importantes conocimientos humanos, razonamiento ético y conocimiento específico del contexto.
Si bien los LLM son expertos en resumir grandes volúmenes de texto e identificar patrones comunes, no se adaptan automáticamente a los cambios regulatorios continuos, las necesidades empresariales cambiantes ni los matices culturales.
En algunos casos, los términos críticos de los contratos o políticas requieren un modelado explícito y un control de versiones minucioso. Si estos puntos se pasan por alto y se delegan completamente en un LLM, pueden producirse errores con implicaciones de gran alcance.
Por otro lado, los expertos en el dominio siguen siendo esenciales para proporcionar conocimiento de la situación y garantizar que los resultados de la IA se alineen con los objetivos empresariales, las restricciones legales y las consideraciones éticas.
2.6 Gestión del Cambio
El mundo real cambia a diario: se introducen o modifican leyes y regulaciones; aparecen nuevos productos en el mercado; aparecen nuevos competidores que exigen cambios en el marketing y la interacción con el cliente.
Los modelos de IA basados en análisis estadísticos del pasado se ven obstaculizados cuando el presente cambia significativamente; los ejemplos utilizados para el entrenamiento ya no son relevantes, y generar nuevos datos de entrenamiento puede llevar meses, mucho más tiempo del necesario para responder a los cambios del entorno.
De hecho, si los sistemas se automatizan utilizando los modelos antiguos, puede incluso resultar imposible encontrar ejemplos de entrenamiento que tomen decisiones correctas utilizando las reglas o la situación actualizadas.
En estos casos, se necesita una representación explícita de las reglas y los procedimientos en el mundo real, junto con una gobernanza sólida.
- Mejora del Razonamiento de la IA con Técnicas Avanzadas
Estas limitaciones en los modelos de IA Gen se han observado desde su introducción y, de hecho, muchas también están presentes en todos los enfoques estadísticos o de aprendizaje automático para la IA.
En el ámbito de los LLM, se han sugerido varios enfoques para aumentar la precisión, la capacidad de razonamiento y la puntualidad de la inferencia de los modelos de IA Gen. A continuación, se presenta un breve resumen de algunos de estos enfoques.
3.1 Cadena de Pensamiento (CoT) y Árbol de Pensamiento (ToT)
La inducción por Cadena de Pensamiento requiere que un modelo describa los pasos intermedios antes de llegar a una conclusión, lo que podría reducir errores al hacer más explícito el proceso de razonamiento.
El Árbol de Pensamiento amplía esta idea explorando múltiples cadenas candidatas en paralelo, aunque las rutas de ramificación adicionales aumentan la sobrecarga computacional.
Si bien tanto CoT como ToT pueden ayudar a aclarar las respuestas del modelo, no garantizan la corrección lógica ni factual.
Dado que los LLM siguen dependiendo de sus datos de entrenamiento originales y de su arquitectura central, aún pueden producir razonamientos erróneos si la pregunta implica restricciones novedosas o una lógica compleja que no se encuentra en los patrones familiares.
Si bien estas técnicas mejoran significativamente las capacidades de razonamiento, tienen un costo. Llamar recursivamente a un LLM, especialmente para flujos de trabajo de CoT o ToT, aumenta los requisitos computacionales, lo que resulta en un mayor consumo de energía y costos de uso de la API.
También puede magnificar el impacto de las alucinaciones: al reinyectar los resultados de inferencias anteriores en el LLM, cualquier resultado alucinado inicial simplemente se integrará recursivamente en la cadena de pensamiento.
3.2 Generación Aumentada por Recuperación (RAG)
La Generación Aumentada por Recuperación aborda el problema del conocimiento obsoleto o incompleto del modelo incorporando fuentes de datos externas en el momento de la inferencia.
En lugar de basarse únicamente en parámetros preentrenados, la aplicación que llama al LLM consulta primero una base de datos, un motor de búsqueda o una base de conocimiento para ampliar su contexto antes de proporcionar una indicación más compleja al LLM.
Esto puede mitigar ciertas alucinaciones al proporcionar datos actualizados o específicos del dominio en la indicación.
Sin embargo, si el sistema de recuperación no localiza todos los registros relevantes o no distingue el contenido crítico del texto superfluo, la IA podría generar respuestas incompletas o incorrectas. Por lo tanto, una implementación eficaz de RAG requiere metadatos sólidos, repositorios bien gestionados y algoritmos robustos de indexación o búsqueda.
3.3 Llamadas a Funciones y Flujos de Trabajo Agenticos
Las llamadas a funciones y los flujos de trabajo agenticos integran los LLM con API externas o grafos dirigidos de tareas especializadas.
Estas capacidades permiten a los sistemas de IA consultar servicios actualizados, realizar cálculos específicos o verificar datos concretos.
Por ejemplo, un LLM puede obtener información meteorológica actual o precios de acciones en tiempo real, en lugar de depender de datos de entrenamiento obsoletos.
Si bien los flujos de trabajo agenticos automatizan procesos de varios pasos mediante la delegación de tareas entre diferentes «nodos» (p. ej., motores de reglas, llamadas a LLM o aplicaciones específicas del dominio), una gobernanza adecuada es crucial.
Si las restricciones no están bien definidas o si se otorga demasiada autonomía a la IA, pueden surgir resultados inesperados, lo que genera problemas de seguridad o responsabilidad.
Esta capacidad es emocionante: la capacidad de identificar servicios externos para llamar abre un enfoque potencial muy fuerte para crear sistemas híbridos que incorporen verdaderos motores de razonamiento en el flujo de una aplicación basada en LLM para combinar la destreza lingüística de los LLM con tecnología de toma de decisiones más precisa, explicable y manejable como reglas comerciales y optimización, como veremos a continuación.
- Enfoques de IA Híbrida para una Toma de Decisiones Confiable
4.1 Integración de IA Generativa con Modelos de Decisión
Dado que GenAI por sí sola presenta dificultades con la fiabilidad factual, la explicabilidad y la sensibilidad al contexto, muchas organizaciones adoptan estrategias híbridas que combinan las capacidades de LLM con motores de lógica estructurada, herramientas de optimización o sistemas de simulación.
En esta arquitectura, GenAI destaca en el análisis de datos no estructurados, por ejemplo, al resumir documentos legales o extraer referencias políticas relevantes. Una vez estructurados los datos, modelos explícitos como los Sistemas de Gestión de Reglas de Negocio (BRMS) y los motores de Optimización Matemática aplican restricciones verificadas o criterios de rendimiento. Este enfoque híbrido evita que los resultados «estocásticos» de un LLM prevalezcan sobre los imperativos legales o éticos y permite a los expertos en la materia adaptar las reglas según sea necesario para cambios regulatorios, prioridades corporativas o nuevas condiciones del mercado.
4.2 Ejemplo ilustrativo: Reclamaciones de seguros
Una compañía de seguros podría utilizar un LLM para analizar informes de incidentes por daños causados por agua, extrayendo detalles como números de póliza, plazos y descripciones de los daños.
El LLM luego pasa estos hallazgos estructurados a un motor de reglas que determina la elegibilidad y los pagos recomendados según los términos del contrato, el historial de los reclamantes y las regulaciones locales.
Si el LLM intenta introducir información superflua o especulativa (por ejemplo, imaginando una cobertura inexistente), el motor de reglas la invalidará, garantizando que la decisión final se ajuste a las directrices verificadas.
Al combinar la supervisión humana y las reglas de negocio explícitas con las capacidades de extracción de datos de GenAI, las aseguradoras disfrutan de un procesamiento de reclamaciones más rápido sin sacrificar la consistencia, la explicabilidad ni el cumplimiento normativo.
Al gestionar las interacciones de los clientes en relación con las reclamaciones de seguros, un enfoque híbrido también puede ser útil.
Un LLM puede interpretar los correos electrónicos o mensajes de los clientes para determinar la intención y extraer información clave.
La gestión de herramientas y RAG pueden enriquecer esta información con datos de un sistema de seguros central y CRM para proporcionar un contexto completo.
Estos datos también pueden incluir información sobre la segmentación y puntuación de clientes generada por modelos de aprendizaje automático.
Estos datos contextuales pueden incorporarse a un sistema basado en reglas para garantizar el cumplimiento de las políticas corporativas sobre la gestión de clientes, incluyendo normas sobre la gestión diferenciada para distintos segmentos de clientes, garantizando así la capacidad de respuesta y la rentabilidad.
Implicaciones éticas de la toma de decisiones con IA
La siguiente contribución corresponde al portal de RSM que se define así: En RSM, ayudamos a nuestros clientes a superar nuevos desafíos, afrontar el cambio y adaptarse para prosperar. Trabajando juntos, generando conocimientos profundos, combinando tecnología de vanguardia y experiencia práctica, ofrecemos una comprensión inigualable y una confianza que fortalece. Para un mundo cambiante. Para el futuro. Para todos.
RSM es una potente red de expertos en auditoría, impuestos y consultoría con oficinas en todo el mundo. Como equipo integrado, compartimos habilidades, conocimientos y recursos, además de un enfoque centrado en el cliente basado en un profundo conocimiento de su negocio. Así es como le empoderamos para avanzar con confianza y alcanzar su máximo potencial.
Autor
Jason Yau, Socio y Director de Tecnología en Hong Kong
Conclusiones clave:
- Los sistemas de toma de decisiones con IA, si bien ofrecen potentes capacidades y mejoras de eficiencia, conllevan riesgos significativos cuando las organizaciones dependen excesivamente de procesos automatizados sin las debidas garantías.
La complejidad inherente a los sistemas de IA modernos plantea desafíos para la transparencia y la rendición de cuentas, ya que los procesos internos de toma de decisiones suelen ser difíciles de interpretar o explicar.
La implementación exitosa de la IA requiere marcos sólidos de supervisión humana, que incluyan directrices claras y mecanismos de revisión, para garantizar que la tecnología sirva como herramienta complementaria y no como sustituto del criterio humano.
Quizás recuerdes o no que a finales de 2021, el gigante inmobiliario online Zillow abandonó el mercado de las compras online, despidiendo a cerca del 25% de su plantilla y desplomando su patrimonio neto. La compañía comenzó 2021 con una valoración máxima de 48 000 millones de dólares y terminó el año con 14 000 millones.
Pérdidas e interrupciones significativas que, en última instancia, pueden atribuirse a algoritmos de inteligencia artificial (IA) que tomaron decisiones muy equivocadas. En este caso, un sistema de IA estaba subvalorando las propiedades hasta tal punto que Zillow estaba malgastando efectivo a un ritmo sin precedentes, y su valor no se ha recuperado desde entonces.

La toma de decisiones mediante IA no es un concepto completamente nuevo
pero sí uno que ha cobrado gran importancia en los últimos años, especialmente con su repentino aumento de popularidad y casos de uso.
Dado que la IA influye cada vez más en las decisiones, ya sean humanas o totalmente autónomas, las implicaciones éticas de la tecnología plantean más que simples errores.
¿Dónde debería utilizarse la IA? ¿Dónde trazamos el límite?
La capacidad de la IA para tomar decisiones por nosotros aborda cuestiones fundamentales como la autonomía humana, la equidad, los prejuicios y nuestra confianza como especie en un mundo cada vez más automatizado que seguirá moldeando nuestra vida.
La IA es, sin duda, una tecnología revolucionaria que ofrece oportunidades inigualables y, si se utiliza correctamente, debería utilizarse donde corresponda. Sin embargo, la verdadera pregunta es: ¿cuánto control estamos dispuestos a ceder?
Las principales preocupaciones éticas de la toma de decisiones con IA
El debate ético en torno a la IA es un tema candente desde sus inicios. No existe una solución universal ni una única forma correcta de implementarla.
En esencia, es una tecnología que debe abordarse con pragmatismo y cuidado.
Sin embargo, esto no responde a las preguntas candentes sobre su capacidad para tomar decisiones, especialmente decisiones que pueden repercutir en nuestra sociedad:
¿quién asume la responsabilidad cuando la IA comete errores?
¿Cómo protegemos la privacidad individual al entrenar estos sistemas con grandes conjuntos de datos?
El delicado equilibrio entre el avance de las capacidades de la IA y el mantenimiento de la autonomía humana requiere una cuidadosa consideración de los marcos de rendición de cuentas y las prácticas de implementación justas.
Quizás, sobre todo, requiere una comprensión profunda de las implicaciones éticas que conlleva su uso. Analicemos, por tanto, un par de las principales preocupaciones.
La paradoja de la transparencia
En el corazón de la ética de la IA reside una paradoja fundamental y desafortunada: cuanto más potentes y complejos se vuelven los sistemas de IA, menos transparentes pueden ser sus procesos de toma de decisiones a la supervisión humana.
Este es el concepto fundamental que subyace al conocido como el problema de la «caja negra».
Este problema es especialmente frecuente en los modelos de IA de aprendizaje profundo que utilizan redes neuronales complejas donde los datos se procesan a través de múltiples capas de nodos interconectados, y las entradas se asignan a «tokens» que organizan los datos jerárquicamente.
El problema radica en que, en muchos casos, nadie puede determinar cómo una IA llega a sus conclusiones. Podemos conocer la entrada y la salida; todo lo intermedio es un misterio.
La incapacidad de ver cómo un modelo de IA llega a una decisión determinada plantea numerosos problemas éticos y técnicos. Técnicamente, esto significa que si hay un problema con los resultados de una IA, es difícil saber dónde fallan las cosas y qué solucionar.
Los problemas en el software estándar se pueden identificar más fácilmente y solucionar con un parche; la IA compleja es otra cosa. Éticamente, esto plantea la pregunta: ¿cómo podemos confiar plenamente en un sistema que no entendemos, especialmente si se trata de decisiones que pueden afectar drásticamente la vida de alguien?
Sesgo algorítmico y equidad
El sesgo algorítmico puede tener un impacto significativamente negativo en las personas por quienes se toman decisiones.
Se han dado casos de discriminación algorítmica en los que se ha negado la atención médica a personas de color o se ha favorecido a los hombres sobre las mujeres para puestos de trabajo.
Incluso si son involuntarios, estos sesgos perpetúan las desigualdades existentes y, si no se controlan y se confía plenamente en ellos, podrían tener, y han tenido, consecuencias muy adversas para las personas.
Los sesgos de los modelos de IA pueden provenir de múltiples fuentes: conjuntos de datos históricos que reflejan prejuicios sociales contemporáneos, infrarrepresentación en los equipos de desarrollo que crean modelos de IA y errores humanos debido a problemas como protocolos de prueba defectuosos.
Con la toma de decisiones mediante IA, que se está utilizando y se está introduciendo prospectivamente en más áreas, como la vivienda (como se examinó al principio), la aprobación de préstamos y las evaluaciones de riesgo penal, es crucial garantizar la integridad y la equidad.
Sin embargo, si bien el sesgo algorítmico ha sido un problema en el pasado y sin duda seguirá apareciendo ocasionalmente, no es un problema que haya pasado desapercibido.
El problema de la caja negra puede dificultar su solución.
Sin embargo, con la monitorización continua, una mayor supervisión humana y herramientas de detección de sesgos, los modelos de IA pueden ser más conscientes de los sesgos en el futuro.
El problema de los datos
Muchos argumentarían que este es el mayor problema, y no necesariamente estarían equivocados.
El mayor riesgo, especialmente para las organizaciones que buscan usar IA, reside en cómo los modelos de IA recopilan, usan y aprenden de los datos.
Grandes empresas como Apple, Verizon e iHeartRadio han prohibido el uso de modelos como ChatGPT por temor a la manipulación indebida de datos; Samsung, en concreto, restringió el uso del chatbot tras descubrir que trabajadores habían introducido código sensible en él.
El riesgo de divulgación involuntaria de secretos comerciales corporativos representa una frontera ética crítica.
Los sistemas de IA podrían revelar inadvertidamente información confidencial y crear importantes riesgos legales y competitivos para las organizaciones.
Para las organizaciones que desean incorporar elementos de IA, especialmente la IA generativa, es fundamental contar con estrategias sofisticadas de gobernanza de datos que protejan tanto la privacidad individual como los activos intelectuales corporativos.
A un nivel social más amplio, los modelos de IA generativa se entrenan tanto con datos de entrada como con datos extraídos de internet, lo que significa que tienen el potencial de memorizar, y a menudo lo hacen, todos los datos que se les suministran, independientemente de su confidencialidad.
Al combinarse con datos biométricos, expresiones y otra información de identificación personal (como registros financieros y puntajes crediticios), las personas pueden verse expuestas involuntariamente, con características personales íntimas transformadas en puntos de datos computacionales sin su consentimiento expreso.
Las oportunidades económicas de una persona podrían verse drásticamente limitadas por evaluaciones computacionales opacas que reducen la complejidad humana a puntuaciones numéricas.
La mejor protección de la IA: Supervisión humana
Como se mencionó, la monitorización continua y la supervisión humana se han convertido en factores cruciales para mantener la IA bajo control.
La clave para una toma de decisiones con IA más eficaz, con aversión al riesgo y beneficiosa reside en garantizar la implementación de procesos con intervención humana. Estos marcos mantienen el criterio humano en los puntos de decisión críticos, a la vez que aprovechan las capacidades de procesamiento de la IA.
Las empresas se benefician enormemente de lo que la IA puede ofrecer, pero mitigar el riesgo requiere la intervención humana.
Cuando se implementa la IA, es crucial realizar un análisis de la relación coste-beneficio. La automatización completa es más adecuada si una función de toma de decisiones tiene poco o ningún impacto a largo plazo.
Las organizaciones que pretenden implementar la IA deben establecer un conjunto de mejores prácticas para sus empleados, un conjunto que equilibre la eficiencia de la IA con la responsabilidad de la empresa.
Los umbrales de supervisión son un buen ejemplo. En este caso, las decisiones de IA que superan ciertos niveles de riesgo activan automáticamente la revisión humana. Para las partes afectadas por las decisiones tomadas con IA, se deben establecer mecanismos de apelación. Para garantizar un funcionamiento óptimo, se deben realizar auditorías periódicas del rendimiento del sistema.
Un marco sólido de gobernanza de la IA también puede complementar la supervisión humana para una mayor protección
A nivel de gobernanza, un enfoque sistemático que integre mecanismos estructurados de rendición de cuentas, principios de diseño ético, monitoreo continuo y supervisión interdisciplinaria ayudará a mitigar los riesgos desde el principio.
Para las organizaciones particularmente reacias al riesgo, la creación de procesos de revisión de varios niveles, la integración de consideraciones éticas directamente en todas las arquitecturas basadas en IA y el establecimiento de modelos de gobernanza adaptativos permiten garantizar que los sistemas de IA permanezcan fundamentalmente sujetos al juicio humano.
El marco debe exigir cadenas de responsabilidad claras y desarrollar registros de auditoría transparentes para mayor seguridad.
El camino a seguir es uno que requiere entusiasmo, pero también precaución.
La IA es una herramienta increíblemente poderosa con un potencial de aplicación casi ilimitado. Es fácil dejarse llevar por la emoción de esta tecnología y seguir adelante sin realizar la debida diligencia esencial.
Las organizaciones que implementan sistemas de IA deben invertir en mecanismos de supervisión sólidos con directrices claras para su implementación, a fin de garantizar que se mitiguen los riesgos. Como se mencionó, la IA es una gran herramienta, pero una herramienta al fin y al cabo.
Un martillo es tan seguro o peligroso como quien lo maneja. Además, se han promulgado o se están implementando leyes y políticas en todo el mundo, muchas de ellas para brindar protección adicional contra el uso indebido de la IA.
Como sociedad, la responsabilidad recae en todos, desde el desarrollo hasta la implementación de la IA, para garantizar que sirva al bien común antes de que la brecha entre la capacidad tecnológica y el marco ético se vuelva insalvable. A medida que avanzamos hacia posibilidades emocionantes, es fundamental actuar con cautela.

