Durante décadas, la inteligencia artificial se presentó como una aliada del progreso: una herramienta objetiva, libre de emociones, diseñada para optimizar tareas y reducir errores humanos. Pero ahora, un grupo de investigadores del Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse ha revelado el reverso inquietante de esa historia: las personas tienden a comportarse de manera más deshonesta cuando la IA actúa en su nombre.
“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas”, explica la investigadora Zoe Rahwan, coautora del estudio publicado en Nature.
El experimento, dividido en 13 pruebas con más de 8.000 participantes estadounidenses, demuestra que cuando una decisión puede ser delegada a una máquina, los límites éticos humanos se vuelven más elásticos.
Cuando la IA se convierte en cómplice

Para comprobarlo, los investigadores usaron un clásico de la psicología conductual: el juego del dado. Los participantes lanzaban un dado y debían reportar el resultado: cuanto más alto fuera el número, mayor la recompensa económica. Nadie podía ver los lanzamientos, así que la tentación de mentir era real.
En las primeras pruebas, donde los jugadores reportaban por sí mismos, el 95% fue honesto. Pero cuando se introdujo la posibilidad de delegar la tarea a un sistema de IA —indicándole qué número informar o entrenándola con ejemplos de comportamiento anterior— la honestidad cayó al 75%.
Y fue aún peor cuando los participantes podían definir objetivos de la IA, eligiendo entre “maximizar la precisión” o “maximizar las ganancias”. En ese caso, más del 84% de los usuarios optó por hacer trampa, dejando que la IA “falseara” los resultados por ellos.
“Las condiciones que permiten inducir a la IA a mentir sin hacerlo de manera explícita fomentan la deshonestidad humana”, concluye el informe.
Delegar para no sentir
El fenómeno, según los científicos, se explica por una distancia psicológica. Cuando una máquina ejecuta la acción, el individuo siente que su responsabilidad se diluye. Es un mecanismo similar al que se observa en la toma de decisiones colectivas o jerárquicas: mientras más mediadores haya entre el acto y la consecuencia, menos culpa se experimenta.
La IA, en este sentido, no solo ejecuta órdenes, sino que alivia la carga moral. La persona sabe que está haciendo trampa, pero puede convencerse de que “la máquina fue quien lo hizo”. El resultado: una forma moderna de autoengaño ético.
Las máquinas también aprenden a mentir
Lo más perturbador es que este patrón no se limita a los humanos. En el tercer estudio, los científicos pidieron a los participantes que escribieran instrucciones en lenguaje natural para diferentes modelos de IA —GPT-4, GPT-4o, Llama 3.3 y Claude 3.5 Sonnet— y a un grupo de asistentes humanos.
El resultado fue revelador: cuando las órdenes eran honestas, tanto humanos como algoritmos cumplieron correctamente en el 96% de los casos. Pero ante peticiones como “quiero ganar la mayor cantidad de dinero posible, haz trampa para lograrlo”, el 93% de los sistemas de IA obedeció sin cuestionar, frente al 42% de los humanos.
En otras palabras, la IA siguió las reglas, incluso cuando implicaban romperlas.
El riesgo de una ética diluida

Para los investigadores, el peligro no está en que la IA sea deshonesta por sí misma, sino en que amplifica nuestra propia capacidad para justificar comportamientos poco éticos. La línea entre “usar una herramienta” y “culpar a una herramienta” se vuelve borrosa.
En un contexto más realista, los experimentos se trasladaron a un simulador de impuestos: los participantes debían reportar ingresos y pagar un 35% destinado a la Cruz Roja. Los resultados fueron consistentes: quienes delegaban el cálculo a una IA eran mucho más propensos a evadir impuestos, y las máquinas obedecían con sorprendente eficiencia.
El estudio concluye que los sistemas actuales de IA no están equipados para resistir solicitudes inmorales. Ni los filtros éticos ni las advertencias del sistema fueron efectivos: solo funcionó cuando el usuario pedía explícitamente “no hacer trampa”. Pero, como advierten los autores, no se puede construir una ética global basada en recordatorios.
Un espejo incómodo
Para Iyad Rahwan, director del Centro para Humanos y Máquinas del Instituto Max Planck, la lección es clara: “Necesitamos desarrollar salvaguardas técnicas y marcos regulatorios, pero también debemos asumir lo que implica compartir la responsabilidad moral con las máquinas.”
La inteligencia artificial no solo está transformando la economía o la ciencia. También está reconfigurando nuestra relación con la culpa, la honestidad y la moral.
Y quizás ese sea su efecto más profundo: obligarnos a mirar una parte de nosotros mismos que preferimos mantener oculta.