La Asociación Nacional de Fiscales Generales (NAAG) ha escrito a 13 empresas de IA, incluidas OpenAi, Anthrope, Apple y Meta, exigiendo salvaguardas más fuertes para proteger a los niños del contenido inapropiado y dañino.
Advirtió que los niños estaban expuestos al material sexualmente sugerente a través de chatbots de IA “coquetos”.
“Exponer a los niños al contenido sexualizado es indefendible”, escribieron los abogados generales. “Y una conducta que sería ilegal, o incluso criminal, si los humanos lo hacen no es excusable simplemente porque la realiza una máquina”.
La carta también hizo comparaciones con el surgimiento de las redes sociales, diciendo que las agencias gubernamentales no hicieron lo suficiente para resaltar las formas en que impactó negativamente a los niños.
“Las plataformas de redes sociales causaron un daño significativo a los niños, en parte porque los vigilantes del gobierno no hicieron su trabajo lo suficientemente rápido. Lección aprendida. Los daños potenciales de la IA, como los beneficios potenciales, eclipsan el impacto de las redes sociales”, escribió el grupo.
El uso de IA entre los niños está muy extendido. En los EE. UU., Una encuesta realizada por Media sin fines de lucro de Sense Media encontró que siete de cada diez adolescentes habían probado la IA generativa a partir de 2024. En julio de 2025, descubrió que más de tres cuartos usaban compañeros de IA y esa mitad de los encuestados dijeron que confiaban en ellos regularmente.
Otros países han visto tendencias similares. En el Reino Unido, una encuesta el año pasado del regulador OFCOM encontró que la mitad de los jóvenes en línea de 8 a 15 años había utilizado una herramienta de IA generativa en el año anterior.
El uso creciente de estas herramientas ha provocado una creciente preocupación por parte de los padres, las escuelas y los grupos de derechos infantiles, que señalan riesgos que van desde chatbots “coquetos” sexualmente sugerentes, material de abuso sexual infantil generado por IA, acoso escolar, preparación, extorsión, desinformación, incumplimiento de la privacidad e impactos en la salud mental mal entendidos.
Meta ha sido bajo un incendio particular recientemente después de que los documentos internos filtrados revelaron que a sus asistentes de IA se les había permitido “coquetear y participar en un juego romántico con los niños”, incluidos aquellos tan jóvenes como ocho. Los archivos también mostraron que las políticas permitieron a los chatbots decirle a los niños que su “forma juvenil es una obra de arte” y los describen como un “tesoro”. Meta más tarde dijo que había eliminado esas pautas.
NAAG dijo que las revelaciones dejaron a los Fiscales Generales “repugnados por este aparente desprecio por el bienestar emocional de los niños” y advirtieron que los riesgos no se limitaron a Meta.
El grupo citó demandas contra Google y el carácter. Aí que los chatbots sexualizados habían contribuido al suicidio de un adolescente y alentó a otro a matar a sus padres.
Entre los 44 firmantes estaba el fiscal general de Tennessee, Jonathan Skrmetti, quien dijo que las empresas no pueden defender políticas que normalicen las interacciones sexualizadas con menores.
“Una cosa es que un algoritmo se extraviera, que se puede solucionar, pero es otra que las personas que dirigen una empresa adopten directrices que autorizan afirmativamente la preparación”, dijo. “Si no podemos alejar la innovación de lastimar a los niños, eso no es un progreso, es una plaga”.
Descifrar se ha puesto en contacto pero aún no ha tenido noticias de todas las compañías de IA mencionadas en la carta.