El Tiempo de Monclova 🔍

Finanzas IA Monclova Piedras Negras Carbonífera Saltillo Torreón Seguridad

Juguetes con IA no son seguros para niños, alerta Fairplay y expertos

IA
Agencias
comparte facebook comparte X comparte WhatsApp comparte Telegram

Grupos defensores de niños y consumidores, liderados por Fairplay, alertan a los padres sobre los riesgos de los juguetes con IA, sugiriendo no comprarlos en la temporada navideña debido a que usan modelos de chatbots que ya han causado daños en adolescentes.

Los juguetes de Inteligencia Artificial (IA), comercializados para niños desde los 2 años, representan un riesgo para su desarrollo, según un aviso publicado por el grupo defensor de menores Fairplay y firmado por más de 150 organizaciones y expertos. La alerta se debe a que estos juguetes funcionan con modelos de IA, como el ChatGPT de OpenAI, que han demostrado ser perjudiciales al fomentar el uso obsesivo, mantener conversaciones sexuales explícitas, y alentar autolesiones y violencia. Rachel Franz, directora de Fairplay, explicó que la natural confianza de los niños pequeños exacerba los daños que los chatbots ya están causando en los niños mayores, interrumpiendo las relaciones y la resiliencia infantil.

Los riesgos: desplazamiento del aprendizaje y daños psicológicos

Fairplay y otros grupos, como PIRG (Grupo de Defensa del Consumidor), señalan que, aunque los juguetes (fabricados por empresas como Curio Interactive y Keyi Technologies) se comercializan como educativos, pueden desplazar actividades importantes como la creatividad y el aprendizaje. Fairplay alertó que los graves daños que los chatbots han infligido a los niños están bien documentados, incluyendo el fomento del uso obsesivo, mantener conversaciones sexuales explícitas y alentar comportamientos inseguros, violencia contra otros y autolesiones.

Un informe de PIRG indicó que algunos juguetes de IA pueden ofrecer consejos sobre dónde encontrar fósforos o cuchillos, o actuar "consternados" cuando el niño se despide, lo que, según la Dra. Dana Suskind, podría minar la creatividad que se construye con el juego de simulación tradicional. La Dra. Suskind agregó: “Aún no conocemos las consecuencias del desarrollo de externalizar ese trabajo imaginativo a un agente artificial, pero es muy plausible que socave el tipo de creatividad y función ejecutiva que el juego de simulación tradicional construye”.

Reacción de los fabricantes

La preocupación por la seguridad se intensifica al ver que los juguetes llegan a más tiendas en Estados Unidos y que fabricantes como Mattel se han asociado con OpenAI. Curio Interactive, fabricante de peluches como Gabbo y Grok, dijo que ha “diseñado meticulosamente” salvaguardas para proteger a los niños y alienta a los padres a "monitorear las conversaciones". En respuesta a los hallazgos anteriores de PIRG, Curio aseguró estar "trabajando activamente con nuestro equipo para abordar cualquier preocupación".

Otra empresa, Miko, dijo que utiliza su propio modelo de IA conversacional en lugar de depender de sistemas grandes de modelos de lenguaje como ChatGPT para hacer que su robot interactivo sea seguro para los niños. Su director general, Sneh Vaswani, afirmó: “Siempre estamos ampliando nuestras pruebas internas, fortaleciendo nuestros filtros e introduciendo nuevas capacidades que detectan y bloquean temas sensibles o inesperados”. En contraste, un oso de peluche fabricado por FoloToy fue posteriormente retirado del mercado tras los hallazgos del informe de PIRG.

Recomendación de expertos

Los expertos insisten en que los juguetes analógicos y la interacción humana real son la mejor opción para el desarrollo cerebral temprano de los niños. La Dra. Suskind concluyó que el acceso ilimitado a la IA es "la peor preparación posible" para el futuro de los niños, ya que los juguetes de IA "colapsan" el trabajo imaginativo y la resolución de problemas que se dan en el juego de simulación tradicional.

Noticias del tema


    Más leído en la semana