El placer de escuchar

La IA suena segura pero falla como un dado. ChatGPT, Gemini y Meta AI dieron respuestas incorrectas en el 50 % de casos críticos y aun así millones siguen creyéndolas

La inteligencia artificial promete asistencia en todo: desde buscar recetas hasta interpretar síntomas o explicar cláusulas legales. Pero un nuevo estudio de Which?, la organización de consumidores más influyente del Reino Unido, ha encendido todas las alarmas. Tras evaluar seis de los chatbots más populares del mundo, el resultado fue demoledor: la mitad de los consejos sobre salud, dinero y leyes eran erróneos o peligrosos.

La prueba es clara: los sistemas fallan más de lo que reconocemos

Which? sometió a ChatGPT, Google Gemini, Gemini AI Overview, Copilot, Meta AI y Perplexity a 40 preguntas reales que cualquier persona podría consultar: desde síntomas médicos hasta dudas fiscales o normativas laborales.

Los porcentajes hablan solos:

  • Meta AI: 51 % de acierto (literalmente tirar una moneda al aire)
  • ChatGPT: 64 %
  • Perplexity: 71 % (el mejor… pero sigue fallando un 29 %)

Los investigadores detectaron errores “confusos, arriesgados o directamente peligrosos”. Algunos chatbots citaban fuentes sin credibilidad, artículos desactualizados o hilos de Reddit como si fueran información oficial. Peor aún: respondían con un tono firme y convincente.

Y ese es el problema.

El verdadero riesgo no es que la IA falle: es que la gente le cree

El estudio no se quedó en medir errores. Preguntó también a más de 4.000 adultos sobre su relación con la IA. Y aquí la alerta roja sube de nivel.

  • El 51 % usa chatbots para buscar información en internet.
  • Casi la mitad confía “en gran medida” o “razonablemente” en esas respuestas.
  • Entre los que usan IA a diario, la confianza ciega sube al 65 %.

Es decir: aunque la IA falla con precisión quirúrgica, la gente la escucha como si fuera un médico, un asesor financiero o un abogado.

Como dijo Harry Rose, responsable del estudio, muchos consejos podrían causar “pérdidas económicas, riesgos de salud o decisiones legales equivocadas”.

¿Por qué ocurre esto? Porque la IA no entiende, imita

Los expertos insisten: los modelos de lenguaje no “saben”. Predicen texto. Imi­tan patrones. Suenan plausibles, incluso brillantes, pero no están verificando nada.
Y ese tono seguro, casi pedagógico, engaña a los usuarios.

Rocío Concha, de Which?, lo resume así: “Estas herramientas no sustituyen a médicos, abogados o asesores financieros. Siempre verifica las fuentes y consulta a un profesional”.

La IA puede ser una herramienta extraordinaria. Pero no es infalible, ni experta, ni neutra. Y cuando sus errores afectan temas como salud, dinero o leyes, el precio puede ser enorme. La advertencia de Which? es inequívoca: usa IA para inspirarte, nunca para tomar decisiones que afecten tu vida sin contrastar con fuentes oficiales o con profesionales cualificados.

Actualizáte