Character Technologies mettra fin aux discussions ouvertes entre les adolescents et les robots de Character.AI d'ici le 25 novembre, invoquant des poursuites judiciaires, des questions de régulateurs et des reportages récents. D'ici là, les utilisateurs adolescents seront soumis à un plafond de deux heures de discussion ; les moins de 18 ans pourront toujours créer des vidéos, des histoires et des flux avec des personnages. L'entreprise ajoute une vérification de l'âge et prévoit un laboratoire indépendant de sécurité de l'IA géré par une organisation à but non lucratif, tout en renvoyant aux ressources et alertes existantes en cas d'automutilation. Ce changement intervient dans un contexte de surveillance accrue de l'impact de l'IA sur les jeunes, alors qu'OpenAI et Meta déploient des mesures de protection pour les adolescents.
Reviewed by JQJO team
#ai #teens #lawsuits #mentalhealth #safety
Comments