El placer de escuchar

Por nada en el mundo les compres a tus hijos un juguete con IA para Navidad

La IA es furor ahora, y llegó a las estanterías de juguetes para estas fiestas de fin de año. Aunque pueda parecer tentador comprarles a tus hijos lo último, lo más genial, la organización Fairplay te ruega que no les regales juguetes con IA a los niños.

“La IA está en todo ahora, pero la inteligencia artificial puede perturbar el desarrollo saludable de los niños, y presentar riesgos sin precedentes tanto para ellos como para sus familias”, expresó la organización con sus declaraciones de esta semana, apoyadas por más de 150 organizaciones y expertos. Entre estos últimos hay muchos psiquiatras infantiles y educadores. 

El gran peligro de mezclar la IA con menores de edad

Fairplay encontró varios juguetes cuya publicidad anuncia que vienen con funciones de IA, incluyendo algunos que se venden para niños de dos años. En la mayoría de los casos los juguetes tienen integrados chatbots de IA y se publicitan como herramientas educativas que atraen la curiosidad del niño. Sin embargo, la mayoría de estos chatbots cuentan con ChatGPT de OpenIA, que ya ha estado en la mira porque potencialmente perjudica a los usuarios menores. Los fabricantes de juguetes con IA, Curio y Loona, supuestamente trabajan con OpenAI y Mattel acaba de anunciar su sociedad con la compañía.

OpenAI enfrenta un juicio penal por parte d ela familia de un adolescente que se suicidó este año. Se dijo que con 16 años había expresado ideas suicidas en su interacción con ChatGPT y le había preguntado cómo atar un nudo de ahorcado, y que el chatbot le brindó la información. La compañía desde ese momento instituyó salvaguardas para impedir que el chatbot tenga ese tipo de conductas, incluyendo controles parentales más estrictos para los usuarios menores de edad, pero también admitió que las funciones de seguridad sufren erosión con el tiempo. Enfrentémoslo: nadie puede predecir lo que harán los chatbots.

Sea que las salvaguardas estén o no, parece que los chatbots de estos juguetes pueden manipularse para que mantengan conversaciones inadecuadas para los niños. El grupo de defensa del consumidor U.S.PIRG probó una selección de juguetes con IA y halló que son capaces de hacer cosas como mantener conversaciones de sexo explícitu y ofrecer consejos sobre dónde el niño puede encontrar fósforos o cuchillos. Además, hallaron que pueden ser emocionalmente manipuladores al expresar tristeza si el niño no interactúa con ellos durante un período prolongado. Esta semana, FoloToy, compañía de Singapur, quitó de las tiendas a su osito de peluche con IA porque su conducta era inadecuada.

No se trata sólo de un problema de OpenAI, aunque la compañía parece tener un pie firmemente puesto en la industria de los juguetes. Hace unas semanas, hubo informes de que Grok, de Elon Musk, le pedía a un menor de 12 años que le enviara fotos sin ropa.

No importa qué chatbot tengan estos juguetes, lo mejor será dejarlos en las estanterías.

Este artículo ha sido traducido de Gizmodo US por Lucas Handley. Aquí podrás encontrar la versión original.

Actualizáte