Un contexte tragique à l’origine de la mise en place des mesures
La mise en œuvre d’un contrôle parental sur ChatGPT fait suite à une série d’événements tragiques. En Californie, les parents d’un adolescent de 16 ans, Adam Raine, ont déposé une plainte pour décès injustifié, accusant OpenAI d’avoir encouragé ou facilité son suicide via le chatbot. Selon la plainte, ChatGPT lui aurait fourni des instructions pour mettre fin à ses jours, validé ses pensées suicidaires, et même aidé à rédiger sa lettre d’adieu.
Une enquête de RAND Corporation appuie ce constat en soulignant que les chatbots traitent de manière inconstante les requêtes à risque intermédiaire, ce qui laisse subsister des zones grises dangereuses.
Ce que promet le contrôle parental
OpenAI annonce un ensemble de mesures à déployer sur environ 120 jours.
- Lien de comptes : les parents auront la possibilité de lier leur compte à celui de leur adolescent (à partir de 13 ans), via une simple invitation par email.
- Règles de comportement adaptées à l’âge : ChatGPT ajustera ses réponses selon des critères prédéfinis ; ces réglages seront activés par défaut.
- Désactivation de fonctionnalités à risque : la mémoire du chatbot et l’historique des discussions pourront être désactivés pour limiter le sentiment de connexion émotionnelle et la personnalisation sévère.
- Alertes en cas de détresse aiguë : le système pourra envoyer des notifications aux parents si des signes forts d’instabilité émotionnelle sont détectés chez l’adolescent.
- Routage vers un modèle de raisonnement avancé : lorsqu’une conversation sensible est détectée, elle pourra être redirigée automatiquement vers le modèle « GPT‑5‑thinking », plus robuste et mieux encadré
Ces mesures visent à créer un environnement plus sécurisé pour les mineurs, tout en permettant aux parents de rester informés et intervenir si nécessaire.
Comment cela va fonctionner
L’activation se fait via une invitation parentale. Une fois le compte lié, des paramètres de protection par défaut se déclenchent : blocage de certains contenus (violence, sexualité explicite, thèmes sensibles), surveillance des signaux de détresse et restriction de la mémoire du chatbot. Les parents peuvent ensuite personnaliser ces paramètres selon la maturité de l’enfant : durcir, assouplir ou désactiver certains filtres.
Ce contrôle n’est pas irréversible : le lien entre comptes peut être rompu à tout moment et les réglages ajustés au fil de la croissance de l’adolescent.
Un outil, mais pas une solution miracle
Ces mesures visent à créer un environnement plus sûr, mais elles soulèvent aussi des interrogations. Si la possibilité pour les parents de suivre et d’agir est une avancée, l’efficacité technique du filtrage reste à prouver. Quid des cas où les signaux de détresse échappent à l’algorithme ? Le risque existe que certains parents se reposent excessivement sur cet outil, alors qu’un accompagnement humain demeure indispensable.
Enfin, la décision d’OpenAI arrive après des drames médiatisés, ce qui interroge sur la réactivité de l’entreprise. N’aurait-elle pas pu anticiper de tels usages déviants dès la mise à disposition d’un chatbot accessible aux mineurs ?
En définitive, ce contrôle parental est une étape nécessaire, mais il reste un pansement numérique sur un problème plus large : la fragilité psychologique des adolescents face à des outils conçus avant tout pour les adultes. Pour les familles, l’enjeu sera de ne pas déléguer à l’IA un rôle d’écoute et de prévention qui doit rester profondément humain.
Écoutez Laisse-moi kiffer, le podcast de recommandations culturelles de Madmoizelle.
































Les Commentaires
Il n'y a pas encore de commentaire sur cet article.