ChatGPT prend le train de la vérification de l’âge de l’IA

Lorsque OpenAI a annoncé pour la première fois GPT-5.2 le mois dernier, il a discrètement divulgué une nouvelle fonctionnalité de sécurité appelée « prédiction de l’âge ». Étant donné que ChatGPT à proprement parler n’est pas exactement un outil « pour tous les âges », il est logique que les utilisateurs de moins de 18 ans disposent de protections pour les protéger des contenus nuisibles. La société affirme que les utilisateurs qui indiquent qu’ils ont moins de 18 ans bénéficient déjà d’une expérience modifiée pour « réduire l’exposition à des contenus sensibles ou potentiellement dangereux », mais si l’utilisateur ne partage pas volontairement son âge avec OpenAI, comment la société applique-t-elle ces protections ? C’est ici qu’intervient la prédiction de l’âge.

Comment fonctionne la prédiction de l’âge pour ChatGPT

Mardi, OpenAI a officiellement annoncé sa nouvelle politique de prédiction de l’âge, qui, comme d’autres systèmes de vérification de l’âge utilisés par Roblox, utilise l’IA pour deviner l’âge d’un utilisateur. Si le système décide qu’un utilisateur particulier a moins de 18 ans, OpenAI ajustera l’expérience en conséquence, dans le but de maintenir toutes les interactions adaptées à son âge.

Voici comment cela fonctionne : le nouveau modèle de prédiction de l’âge examine à la fois les comportements de l’utilisateur au sein de l’application, ainsi que les données générales du compte. Cela inclut des éléments tels que l’âge du compte, les heures de la journée auxquelles l’utilisateur accède à ChatGPT, les modèles d’utilisation, ainsi que, bien sûr, l’âge de l’utilisateur. dit ils sont. En examinant toutes ces données, le modèle détermine l’âge probable de l’utilisateur. Si le modèle pense qu’il a plus de 18 ans, il bénéficiera de l’expérience complète ; si le modèle pense qu’il a moins de 18 ans, il bénéficiera d’une « expérience plus sûre ». Si le modèle n’est pas confiant, il opte par défaut pour cette expérience plus sûre.

Ce qui est restreint dans la version « plus sûre » de ChatGPT

Cette expérience limitée signifie qu’une personne que le modèle pense avoir moins de 18 ans tentera de réduire les types de contenu suivants :

  • Violence graphique ou gore

  • Des défis viraux qui pourraient inspirer des « comportements à risque ou nuisibles »

  • Jeu de rôle de nature sexuelle, romantique ou violente

  • Descriptions de l’automutilation

  • Contenu promouvant des normes de beauté « extrêmes », un régime alimentaire malsain ou une honte corporelle

La société affirme que son approche s’appuie sur « l’apport d’experts » ainsi que sur la littérature traitant de la science du développement de l’enfant. (Il n’est pas clair si la part de cette contribution provient d’entretiens directs et de coordination avec des experts, et quelle part, le cas échéant, provient de recherches indépendantes.) La société reconnaît également « les différences connues des adolescents en matière de perception du risque, de contrôle des impulsions, d’influence des pairs et de régulation émotionnelle » par rapport aux adultes.

L’IA n’est pas toujours douée pour prédire l’âge

Le plus grand risque avec chacun de ces modèles de prédiction de l’âge est qu’ils se trompent parfois : l’hallucination est une habitude malheureuse que partagent tous les modèles d’IA. Cela va dans les deux sens : vous ne voulez pas qu’une personne trop jeune accède à un contenu inapproprié dans ChatGPT, mais vous ne voulez pas non plus qu’une personne de plus de 18 ans se retrouve coincée avec un compte limité sans raison. Si vous rencontrez cette dernière situation, OpenAI a une solution pour vous : la vérification directe de l’âge via Persona. Il s’agit du même tiers que Roblox utilise pour sa vérification de l’âge, ce qui ne s’est pas très bien passé jusqu’à présent.

Cela ne signifie pas nécessairement une catastrophe pour OpenAI. Roblox a essayé de réviser son système de vérification de l’âge pour une base d’utilisateurs massive tous habitués à un certain type d’expérience multijoueur, ce qui a empêché les utilisateurs de discuter avec d’autres utilisateurs dans des catégories d’âge nouvellement attribuées, qui étaient souvent incorrectes. Pendant ce temps, la prédiction de l’âge de ChatGPT ne contrôle que l’expérience d’un utilisateur à la fois. À cette fin, OpenAI vous permettra de télécharger un selfie comme étape de vérification supplémentaire si le modèle de prédiction seul ne suffit pas. Il est intéressant de noter qu’OpenAI ne dit rien sur la possibilité de télécharger un identifiant pour vérification, proposée par d’autres sociétés, comme Google.

Je ne suis pas nécessairement fan des modèles de prédiction de l’âge, car je pense qu’ils sacrifient souvent la confidentialité des utilisateurs au nom de la création d’expériences adaptées à leur âge. Mais il ne fait aucun doute qu’OpenAI a un rôle à jouer quelque chose pour limiter l’expérience ChatGPT complète aux jeunes utilisateurs. De nombreux utilisateurs de ChatGPT ont moins de 18 ans et la plupart des contenus auxquels ils sont confrontés sont extrêmement inappropriés, qu’il s’agisse d’instructions pour se défoncer ou de conseils pour rédiger des notes de suicide. Dans certains cas tragiques, des mineurs se sont suicidés après des discussions avec ChatGPT, conduisant à des poursuites judiciaires contre OpenAI.

Je n’ai pas de bonnes réponses ici. Nous devrons simplement voir comment ce nouveau modèle de prédiction de l’âge affecte l’expérience utilisateur des mineurs et des adultes, et s’il parvient réellement à créer une expérience plus sûre pour les utilisateurs plus jeunes et plus impressionnables.