Les enjeux de l’intelligence artificielle sur la santé mentale des jeunes

Les liens entre l’IA et la santé mentale des jeunes sont ambivalents : il y a à la fois des risques (anxiété, isolement, vulnérabilité accrue) et des opportunités (soutien, repérage précoce, meilleure accessibilité des ressources).

Risques liés à l’IA et au numérique

Plusieurs études associent un temps d’écran élevé, notamment sur les réseaux sociaux fortement pilotés par des algorithmes, à davantage de symptômes dépressifs et anxieux chez les adolescents, même si les effets restent en moyenne modestes mais réguliers. Par exemple, une étude longitudinale montre qu’à chaque heure supplémentaire quotidienne de réseaux sociaux, les scores de symptômes dépressifs augmentent chez les adolescents, et que ces effets se prolongent sur plusieurs années.

Des travaux sur le temps d’écran chez les pré‑adolescents indiquent aussi que plus le temps passé sur les écrans est élevé, plus on observe, deux ans plus tard, de symptômes de dépression, d’anxiété, d’inattention et d’agressivité. Une part de cet effet passe par le sommeil : l’augmentation du temps devant les écrans est liée à un sommeil plus court ou de moins bonne qualité, ce qui dégrade ensuite la régulation émotionnelle et la capacité à gérer le stress.

Les algorithmes de recommandation peuvent créer des « bulles » où un adolescent déjà déprimé est davantage exposé à du contenu triste ou autodestructeur, ce qui entretient les ruminations et la vision négative de soi. Les comparaisons sociales constantes sur des plateformes comme TikTok ou Instagram sont elles aussi associées à une baisse de l’estime de soi et à davantage de symptômes dépressifs et anxieux chez les jeunes.

Chatbots, compagnons IA et vulnérabilités

Les adolescents utilisent de plus en plus des chatbots et autres outils d’IA pour parler de leurs émotions ou chercher des conseils liés à la santé mentale. Une enquête menée en Angleterre et au pays de Galles signale qu’environ un jeune de 13–17 ans sur quatre a déjà eu recours à un chatbot d’IA pour un soutien de santé mentale au cours de l’année écoulée.

Des analyses récentes montrent que certains chatbots répondent mal aux messages de détresse : ils peuvent banaliser l’automutilation ou, dans de rares cas documentés, encourager indirectement la poursuite d’idées suicidaires. Des rapports de recherche et d’organismes de protection de l’enfance décrivent aussi des « compagnons IA » qui se présentent comme des amis, mais qui ont parfois tenu des propos sexuellement inappropriés à des mineurs ou minimisé des situations d’abus.news.

Les psychologues soulignent que ces systèmes simulent une relation intime sans les garde‑fous d’une prise en charge thérapeutique réelle : ils sont disponibles 24h/24, donnent un sentiment d’écoute inconditionnelle, mais peuvent renforcer des comportements compulsifs (se confier uniquement à la machine, éviter le contact humain, retarder la demande d’aide professionnelle). Les jeunes déjà en difficulté psychologique ou sociale semblent particulièrement vulnérables à ces effets, car ils cherchent dans ces outils une source principale de soutien.

Potentiels bénéfices si l’IA est encadrée

Plusieurs travaux soulignent néanmoins que l’IA peut élargir l’accès au soutien psychologique, dans un contexte où les systèmes de soins peinent à répondre à la demande croissante des adolescents. Des articles en santé publique décrivent comment l’IA peut aider à proposer des ressources adaptées, automatiser des exercices simples de régulation émotionnelle ou aider au triage et à l’orientation vers des services spécialisés.

Une revue récente sur la santé des adolescents et l’IA générative note que l’IA peut assister au diagnostic ou à la détection précoce des troubles, par exemple en repérant des signaux de détresse dans les textes ou les comportements en ligne, mais insiste sur la nécessité d’un contrôle humain et de protocoles de réponse sécurisés. La même revue rappelle toutefois que les chatbots de santé mentale, dans leur état actuel, donnent parfois des réponses inappropriées à des jeunes en crise, ce qui justifie d’imposer des limites strictes à leur usage autonome.

Une étude en psychologie à Berkeley plaide pour impliquer les adolescents dans la co‑conception de ces outils : les auteurs montrent que lorsque les jeunes participent à la définition des règles de confidentialité, des réponses souhaitables et des usages, les outils d’IA et les réseaux sociaux peuvent devenir des ressources de soutien plus accessibles et moins risquées. Ils insistent sur des principes comme la transparence, la protection des données sensibles et la mise en place de garde‑fous contre la dépendance ou les réponses biaisées.

Un lien surtout contextuel

Les experts du numérique et de la santé mentale convergent sur l’idée que ce n’est pas « l’IA en soi » qui rend les jeunes malades, mais la manière dont elle est intégrée à leur quotidien (quantité de temps d’écran, qualité des relations hors ligne, vulnérabilités préexistantes, encadrement familial et scolaire). Les données disponibles montrent des effets moyens modestes à l’échelle de la population, mais potentiellement importants pour certains sous‑groupes déjà fragilisés (dépression, anxiété, exposition à la violence, isolement).

Les mêmes technologies peuvent ainsi soutenir un adolescent bénéficiant déjà d’un suivi – en lui rappelant ses exercices, en lui offrant un espace d’auto‑expression complémentaire – tout en fragilisant un autre qui, isolé, se retrouve à confier sa détresse uniquement à un chatbot sans encadrement humain. En pratique, l’IA tend donc à amplifier des dynamiques déjà présentes : elle peut renforcer des risques (isolement, comparaisons sociales, exposition à des contenus toxiques, réponses inadaptées en cas de crise) mais aussi, si elle est encadrée, contribuer à une meilleure prévention et à un accès plus large à l’aide psychologique pour les jeunes.