Titre : | Intelligence artificielle et santé mentale : définir les frontières entre innovation, science et éthique |
Auteurs : | ADDA ALEXIA, Aut. ; BRESSOT ARNAUD, Aut. ; POST GEOFFREY, Aut. ; ALLOUCHERY SABINE, Aut. |
Type de document : | Rapport |
Editeur : | Paris : MentalTech, 2024 |
Autre Editeur : | Lyon : Stane |
Format : | 37 |
Note générale : | Fig. |
Langues: | Français |
Descripteurs |
[SANTEPSY] ACCES AUX SOINS [SANTEPSY] ACCOMPAGNEMENT THERAPEUTIQUE [SANTEPSY] DIAGNOSTIC [SANTEPSY] EVALUATION [SANTEPSY] INTELLIGENCE ARTIFICIELLE [SANTEPSY] PRATIQUE PROFESSIONNELLE [SANTEPSY] RECHERCHE [SANTEPSY] REGLEMENTATION [SANTEPSY] SANTE MENTALE [SANTEPSY] STRESS [SANTEPSY] TRAITEMENT |
Mots-clés libres: | PRECONISATION |
Résumé : |
Alors que l'intelligence artificielle (IA) s'impose de plus en plus comme un levier essentiel d'amélioration dans le domaine de la santé mentale, la technologie pose des questions éthiques et le collectif MentalTech préconise dans ce rapport la mise en place d'un cadre de 'numéricovigilance' inspiré de la pharmacovigilance, pour réguler et sécuriser l'utilisation de l'IA en santé mentale.
Au sommaire : I. Les quatre cadres d’intervention de l’IA en santé mentale. II. Les usages concrets de l’IA en santé mentale. 1. Diagnostic et évaluation : détection et diagnostic de troubles mentaux ; aide à la décision clinique ; évaluation des risques et pronostic. 2. Traitement et suivi : suivi et monitoring ; thérapie et réhabilitation. 3. Amélioration des pratiques et de l’accès aux soins : amélioration de l’accès aux soins ; gestion du stress et du bien-être ; formation et supervision des thérapeutes ; prévention des crises ; recherche et développement en santé mentale. III. La réglementation en vigueur concernant l’IA peut-elle couvrir l’intégralité des risques identifiés ? IV. Quelles préconisations pour atténuer les risques inhérents à l’utilisation de ces Intelligences Artificielles ? |
Thème : | SANTE |
En ligne : | https://drive.google.com/drive/folders/1Y_32_EMtG2DdXprb7LdevAbbjEjHd9eg |