Es un argumento elegante. También es, según un estudio reciente de Harvard Business School, parcialmente incorrecto. El paper Performance or Principle: ResistanEs un argumento elegante. También es, según un estudio reciente de Harvard Business School, parcialmente incorrecto. El paper Performance or Principle: Resistan

El límite moral de la automatización: qué trabajos la gente se niega a dejarle a la IA, aunque pueda hacerlos mejor

2026/03/09 13:40
Lectura de 8 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

Es un argumento elegante. También es, según un estudio reciente de Harvard Business School, parcialmente incorrecto.

El paper Performance or Principle: Resistance to Artificial Intelligence in the U.S. Labor Market, publicado en octubre de 2025 por los investigadores James Riley y Simon Friis, es uno de los estudios empíricos más rigurosos que se han producido hasta ahora sobre la pregunta que nadie en el mundo corporativo quiere responder con honestidad: ¿cuándo la sociedad, independientemente de lo que la tecnología pueda hacer, decide que hay cosas que las máquinas no deberían hacer?

La respuesta que encuentran Riley y Friis, después de relevar 940 ocupaciones con 23.570 calificaciones individuales de 2.357 personas representativas de la demografía estadounidense, es más matizada —y más inquietante para los planificadores corporativos— de lo que cualquier modelo de optimización podría anticipar.

La distinción que cambia todo: desempeño versus principio

El punto de partida del paper es una distinción conceptual que parece obvia pero tiene implicancias profundas: la resistencia a una tecnología puede ser de dos tipos completamente diferentes, y confundirlos es un error estratégico costoso.

La resistencia basada en el desempeño surge de la desconfianza en la capacidad técnica de la herramienta. La gente no quiere que la IA conduzca su auto porque teme que tenga un accidente. No quiere que diagnostique su enfermedad porque desconfía de su precisión. Este tipo de resistencia es, en principio, superable: mejora la tecnología, aumenta la confianza, y la adopción sigue. Es la resistencia con la que los ingenieros de Silicon Valley saben cómo lidiar, porque se disuelve con datos y demostraciones.

La resistencia basada en el principio es diferente. Surge de la convicción moral de que hay tareas que, independientemente de si la máquina las puede hacer bien, no debería hacerlas. No es una objeción técnica: es una objeción ética. Y esta segunda forma de resistencia, a diferencia de la primera, no desaparece cuando la tecnología mejora. Puede incluso intensificarse.

Lo que el estudio de Harvard hace, con una escala de análisis sin precedentes en la literatura, es separar empíricamente ambos tipos de resistencia en el contexto específico de la inteligencia artificial y el mercado laboral. Y los resultados revelan que las dos coexisten, que tienen patrones distintos, y que los ejecutivos que diseñan estrategias de automatización sin distinguirlas están construyendo sobre una premisa falsa.

Los números que sorprenden: más apertura de lo esperado… hasta cierto punto

El hallazgo más contraintuitivo del paper es que los estadounidenses muestran una disposición a la automatización notablemente mayor de lo que el debate público sobre IA y empleo sugería. Con las capacidades actuales de la IA, el público ya apoya automatizar el 30% de las ocupaciones relevadas. Un porcentaje considerable, especialmente si se considera que ese 30% incluye trabajos que millones de personas realizan hoy.

El número sube de manera significativa cuando el escenario cambia: si la IA es descrita como capaz de superar a los humanos en desempeño y hacerlo a menor costo, el apoyo a la automatización casi se duplica, alcanzando el 58% de las ocupaciones evaluadas. Es un salto estadísticamente muy relevante, y su interpretación es clara: buena parte de la resistencia que hoy existe frente a la IA en el trabajo es de tipo técnico, no moral. Es desconfianza en la capacidad actual de la tecnología, no rechazo a priori de la idea de que las máquinas trabajen.

Pero ahí es donde el análisis se vuelve más interesante. Porque ese 58% implica un 42% que permanece resistente incluso en el escenario más favorable para la IA. Trabajos que la mayoría de la gente considera que no deben automatizarse aunque la máquina los haga mejor. Y ese 42% no es un residuo estadístico irrelevante: es lo que Riley y Friis llaman la “economía moral del trabajo”.

La economía moral del trabajo: qué protege la sociedad y por qué

El concepto que organiza los hallazgos más profundos del paper proviene de la sociología económica: la “moral economy of work” es el conjunto de creencias compartidas sobre cuáles trabajos tienen un valor intrínseco que va más allá de su función técnica, y por qué ciertas tareas deben ser ejecutadas por seres humanos para tener el significado que se les atribuye.

Los ejemplos son iluminadores. El sacerdote que escucha una confesión no solo transmite información teológica: su humanidad, su fragilidad compartida, su pertenencia a la misma condición que el confesante son parte constitutiva del acto. El maestro que enseña a leer no solo transfiere un código: modela, en el proceso, una relación con el conocimiento y con la autoridad que tiene componentes relacionales irreductibles. El juez que determina la culpa de una persona no solo aplica la ley: encarna la legitimidad social de un proceso que la sociedad considera demasiado serio para delegarlo a un algoritmo.

Hay roles donde la humanidad del ejecutor no es un detalle anecdótico sino una dimensión constitutiva del servicio. Y la investigación de Harvard muestra que la sociedad reconoce esa dimensión de manera bastante consistente, incluso cuando no puede articularla en términos filosóficos formales.

El dato adicional que el paper ofrece sobre el perfil de los trabajos que concentran resistencia moral es político y no puede ignorarse: las ocupaciones que enfrentan mayor resistencia a la automatización son, en promedio, las que pagan salarios más altos y las que emplean de manera desproporcionada a trabajadores blancos y a mujeres. Los autores señalan esta correlación con cuidado pero sin eufemismos: la resistencia moral a la IA corre el riesgo de reforzar la desigualdad económica y racial al mismo tiempo que mitiga parcialmente la desigualdad de género. La protección social que otorga la “economía moral del trabajo” no se distribuye de manera uniforme.

El antecedente que los CEO deben conocer

Para entender por qué la resistencia basada en el principio es un factor que ninguna estrategia corporativa puede ignorar, Riley y Friis recurren a la historia de otras tecnologías que enfrentaron exactamente el mismo patrón. Los cultivos transgénicos, la energía nuclear, la investigación con células madre embrionarias: tres tecnologías con potencial demostrado para resolver problemas reales —hambre, energía limpia, enfermedades—, y que sin embargo enfrentaron resistencias sociales que limitaron su adopción de manera significativa, persistente y en algunos casos permanente.

En ninguno de esos casos la resistencia fue técnica. Nadie argumentaba que los cultivos transgénicos no funcionaban: los datos sobre rendimiento agronómico eran contundentes. La resistencia era moral, cultural y política. Y resistió décadas de evidencia científica sin ceder de manera proporcional.

La IA en el mercado laboral, señalan los autores, exhibe el mismo patrón en los sectores donde la resistencia es de principio. Y la lección es directa: las empresas que diseñen sus estrategias de automatización asumiendo que la mejora tecnológica eventualmente disuelve toda resistencia están repitiendo el error que cometieron los promotores de los transgénicos. Subestimaron la dimensión moral del problema porque no era su especialidad. Y pagaron el costo en confianza social, regulación restrictiva y adopción más lenta de lo proyectado.

Lo que las empresas deben hacer con este conocimiento

El paper de Riley y Friis no propone un límite normativo a la automatización. No dice qué no debe hacerse. Ofrece algo más valioso desde la perspectiva de quien toma decisiones estratégicas: un marco para anticipar qué tipo de resistencia enfrentará cada decisión de automatización, y en consecuencia qué estrategia tiene más posibilidades de funcionar.

Para la resistencia técnica —la más común y la más tratable—, la respuesta es la demostración y la transparencia. Mostrar que la IA funciona, que sus errores son comparables o menores a los humanos, que sus sesgos pueden monitorearse y corregirse. Es el trabajo que las empresas tecnológicas saben hacer.

Para la resistencia moral, la respuesta es diferente y más compleja. Requiere escuchar antes de decidir. Implica preguntarle a los clientes y a los empleados qué tareas consideran que deben permanecer humanas, y por qué. Supone diseñar soluciones híbridas en las que la IA asiste sin reemplazar, en lugar de apostar por la automatización completa de roles que la sociedad todavía no está dispuesta a ceder. Y exige, sobre todo, reconocer que hay dimensiones del trabajo que tienen un valor que ninguna métrica de eficiencia captura.

El 94% de los encuestados en el estudio acepta la IA como herramienta de apoyo al trabajador humano. Es un porcentaje enorme, y representa una apertura real que las empresas deben aprovechar. Pero ese mismo número esconde su reverso: la gente acepta la IA cuando colabora con el humano. La resistencia aparece cuando lo borra.

La diferencia entre ambos escenarios no es técnica. Es una pregunta sobre quién, en última instancia, sigue siendo responsable. Y esa pregunta, en muchos de los trabajos que más importan en una sociedad, todavía no tiene respuesta automática.

La entrada El límite moral de la automatización: qué trabajos la gente se niega a dejarle a la IA, aunque pueda hacerlos mejor se publicó primero en Revista Mercado.

Oportunidad de mercado
Logo de Lagrange
Precio de Lagrange(LA)
$0.22262
$0.22262$0.22262
+1.34%
USD
Gráfico de precios en vivo de Lagrange (LA)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.