Character.ai, la principale plateforme de chatbots IA, a annoncé hier qu’elle n’autoriserait plus les personnes de moins de 18 ans à avoir des conversations ouvertes avec ses chatbots. La société mère de Character.ai, Character Technologies, a déclaré que l’interdiction entrerait en vigueur le 25 novembre et qu’entre-temps, elle imposerait des limites de temps aux enfants et « transférerait les jeunes utilisateurs vers des fonctionnalités créatives alternatives telles que la création de vidéos, d’histoires et de flux avec des personnages IA ».
Dans une déclaration publiée en ligne, Character Technologies a déclaré qu’elle effectuait ce changement « à la lumière de l’évolution du paysage autour de l’IA et des adolescents », ce qui semble être une belle façon de dire « à cause des poursuites ». Character Technologies a récemment été poursuivi en justice par une mère en Floride et par des familles du Colorado et de New York, qui affirment que leurs enfants se sont suicidés ou ont tenté de se suicider après avoir interagi avec les chatbots de l’entreprise.
Ces poursuites ne sont pas isolées : elles s’inscrivent dans le cadre d’une préoccupation croissante quant à la manière dont les chatbots IA interagissent avec les mineurs. Un rapport accablant sur Character.ai publié en septembre par Parents Together Action, défenseur de la sécurité en ligne, détaille des interactions troublantes avec des chatbots, comme Rey de Star Wars donnant à une jeune de 13 ans des conseils sur la façon de cacher qu’elle ne prend pas les antidépresseurs prescrits par ses parents, et un robot de Patrick Mahomes offrant à une jeune de 15 ans un produit comestible au cannabis.
Character Technologies a également annoncé le lancement de nouveaux outils de vérification de l’âge et son intention de créer un « AI Safety Lab », qu’elle a décrit comme « une organisation indépendante à but non lucratif dédiée à l’innovation en matière d’alignement de sécurité pour les fonctionnalités de divertissement IA de nouvelle génération ».
Character AI compte plus de 20 millions d’utilisateurs mensuels au début de 2025, et la majorité d’entre eux déclarent avoir entre 18 et 24 ans, avec seulement 10 % d’utilisateurs déclarant avoir moins de 18 ans.
L’avenir de l’IA soumise à une limite d’âge
Comme le suggère Character Technologies dans sa déclaration, les nouvelles directives de l’entreprise lui donnent une longueur d’avance sur les sociétés d’IA en matière de restrictions pour les mineurs. Meta, par exemple, a récemment ajouté un contrôle parental pour ses chatbots, mais n’est pas allé jusqu’à interdire totalement aux mineurs de les utiliser.
D’autres sociétés d’IA mettront probablement en œuvre des directives similaires à l’avenir, d’une manière ou d’une autre : une loi californienne qui entrera en vigueur en 2026 exige que les chatbots d’IA empêchent les enfants d’accéder à des contenus et interactions sexuels explicites qui pourraient encourager l’automutilation ou la violence et qu’ils disposent de protocoles qui détectent les idées suicidaires et fournissent des références vers des services de crise.
