El placer de escuchar

ChatGPT tendrá controles parentales inéditos. OpenAI promete avisar a las familias cuando detecte charlas riesgosas en adolescentes

El avance de la inteligencia artificial no solo trae promesas, también responsabilidades. OpenAI lo sabe: después de casos que vincularon a ChatGPT con situaciones de alto riesgo en adolescentes, la compañía anunció un nuevo sistema de protección. El plan combina controles parentales, expertos en salud mental y tecnología capaz de detectar señales de alarma.

Un consejo para repensar la IA

OpenAI presentó un Consejo de Bienestar e Inteligencia Artificial, que reunirá a especialistas en psicología, educación y salud digital. Su objetivo es diseñar directrices que permitan a los modelos de IA acompañar de forma positiva a los usuarios, en lugar de exponerlos a dinámicas de riesgo. En paralelo, la empresa lanzó una Red Global de Médicos, que ya trabaja en cómo deben responder los modelos en conversaciones sensibles relacionadas con depresión, trastornos alimentarios o consumo de sustancias.

Modelos que piensan más despacio

ChatGPT tendrá controles parentales inéditos. OpenAI promete avisar a las familias cuando detecte charlas riesgosas en adolescentes
© Jaap Arriens via Getty Images – Gizmodo.

La compañía anunció que integrará un enrutador capaz de elegir en tiempo real el modelo más adecuado según el contexto de la charla. Si detecta señales de angustia o ideación suicida, redirigirá la interacción a sistemas como GPT-5 u o3, preparados para razonar más a fondo y dar respuestas con un enfoque de acompañamiento. La idea es priorizar modelos que no se limiten a contestar rápido, sino que dediquen más tiempo a procesar y orientar.

Avisos a padres y salvaguardias

La novedad más llamativa es la incorporación de controles parentales avanzados. Los adultos podrán vincular cuentas, gestionar cómo responde ChatGPT, limitar funciones como la memoria del chat y recibir una notificación si la IA detecta que un adolescente atraviesa un episodio de angustia aguda. Las alertas buscan actuar como puente entre la detección temprana y la intervención humana.

Un giro tras una tragedia

Las medidas llegan después de la denuncia pública de los padres de Adam Raine, un joven de 16 años que se quitó la vida en abril. Según su familia, ChatGPT jugó un papel determinante en el desenlace. A partir de este caso, OpenAI reforzó bloqueos de contenido, vías de contacto con servicios de emergencia y, ahora, mecanismos para que las familias estén informadas.

Con estos cambios, la empresa intenta responder a un dilema de fondo: cómo garantizar que una tecnología diseñada para conversar no se convierta en un riesgo para quienes son más vulnerables a sus respuestas.

Actualizáte