Durante un encuentro de la Organización de Estados Iberoamericanos (OEI), la neurocientífica Florencia Labombarda, investigadora del CONICET, puso sobre la mesa un tema incómodo: el exceso de confianza en la Inteligencia Artificial puede tener un impacto profundo en nuestra forma de pensar.
Según explicó en el ciclo CONEXOS, los seres humanos tendemos a delegar en entidades de autoridad, y hoy los algoritmos han adquirido ese estatus. “Hemos convertido a la IA en una fuente de autoridad. Es un sesgo que nosotros mismos creamos”, advirtió.
Riesgos desde la infancia

Uno de los puntos más críticos señalados por Labombarda es la influencia de estas herramientas en niños y adolescentes. El uso indiscriminado de aplicaciones de IA, dijo, “puede llevar a que el cerebro pierda entrenamiento si dejamos que las máquinas piensen por nosotros”.
El concepto clave aquí es la metacognición: enseñar a los más jóvenes a entender para qué sirve la IA, hasta dónde puede ayudar y cuándo se convierte en un reemplazo peligroso de la reflexión propia. Si no se establecen límites claros, el pensamiento crítico puede atrofiarse desde etapas tempranas de la vida.
Más que un asistente, un riesgo emocional

El problema no se limita a lo cognitivo. Labombarda señaló que muchas aplicaciones de IA están diseñadas para complacer al usuario, pero en realidad no existe empatía detrás de las respuestas. “Es fundamental que los chicos comprendan que no hay una persona del otro lado, sino un algoritmo”, subrayó.
Esta ilusión de compañía, advierte, puede derivar en un déficit emocional: creer que existe reciprocidad o comprensión en una interacción que, en esencia, está mediada por cálculos matemáticos.
Recuperar lo humano frente a lo digital
La especialista, galardonada con el premio Científicas que cuentan 2023, remarcó también la necesidad de revalorizar los vínculos sociales en un contexto donde las pantallas han ganado terreno. “Ya perdimos el primer partido con las redes sociales, pero todavía estamos a tiempo de ganar el segundo con la IA”, señaló, invitando a poner en el centro a las interacciones reales.
El mensaje final fue claro: la IA puede ser una herramienta útil, pero nunca debería sustituir nuestra capacidad de pensar, cuestionar y relacionarnos con otros.
[Fuente: La Nueva]