confiance-robot-esprit

Pour ce qui est de permettre à d’autres personnes de pénétrer dans notre esprit, la plupart d’entre nous ouvrent la porte à un groupe restreint des membres de notre famille ou de psychologues de confiance. Mais si vous feriez face à de graves problèmes, envisageriez-vous de partager vos pensées les plus intimes avec un robot ?

L’intelligence artificielle au service des patients

Les thérapeutes robotiques ne sont pas aussi dangereux que vous pourriez le penser. Dans les années 1960, Joseph Weizenbaum du Laboratoire d’intelligence artificielle du Massachusetts Institute of Technology, a développé ELIZA, un des premiers chatbot capable d’émuler les conversations d’un psychothérapeute. Depuis lors, de nombreuses applications de plus en plus sophistiquées ont inclus l’intelligence artificielle (IA) dans le domaine de la santé mentale.

Conçu par des psychologues de Stanford et des experts en IA, Woebot combine l’apprentissage automatique et le traitement du langage naturel pour évaluer l’humeur des utilisateurs et leur proposer une thérapie cognitivo-comportementale appropriée. Ce chatbot émotionnellement intelligent, Wysa développé par les entrepreneurs indiens Jo Aggarwal et Ramakant Vempati, utilise des techniques d’IA et de PNL (Natural Language Processing) pour suivre les émotions des utilisateurs et agir comme leur coach virtuel de bien-être mental. Cogniant, originaire de Singapour, intègre la technologie de l’IA à la thérapie en personne, et vise à prévenir les rechutes en surveillant les patients existants et en les aidant à atteindre leurs objectifs thérapeutiques.

L’IA et santé mentale : quels sont les risques ?

En 2018, on estime que 340 millions de personnes en Asie auront besoin de services de santé mentale. Les pénuries d’aide professionnelle, l’isolement rural, les coûts élevés et la stigmatisation étant les principaux obstacles au traitement, les innovations en matière de santé mentale centrées sur l’IA pourraient être particulièrement pertinentes dans cette région. Cependant, l’implication de l’IA dans quelque chose d’aussi potentiellement délicat que la santé mentale peut-elle constituer une menace ?

Étant donné que l’IA est actuellement utilisée pour le diagnostic de la santé mentale et l’encadrement du mieux-être plutôt que pour le traitement en lui-même, le professeur Pascale Fung de l’Université des sciences et technologies de Hong Kong affirme que la protection de la vie privée est la principale préoccupation.

Pour que l’IA puisse faire du bon travail, elle doit avoir accès aux dossiers des patients, aux antécédents et aux connaissances médicales de la famille. La sécurité de ces données est très importante. Il y a des inquiétudes concernant le piratage de l’IA ou le vol de données à d’autres fins. », explique-t-elle. « De toute façon, c’est quelque chose dont nous devrions nous inquiéter lorsque nous traitons les dossiers des patients.

En effet, les chercheurs ont noté que l’utilisation abusive d’informations sensibles partagées entre un patient et une IA peut avoir des conséquences importantes, tant pour l’utilisateur que pour l’intégrité de la profession. Pour sécuriser l’échange patient-IA, il est important que les développeurs divulguent entièrement les politiques de données aux utilisateurs dès le début, a déclaré M. Neeraj Kothari, co-fondateur de Cogniant. Il explique que les utilisateurs peuvent alors prendre une décision éclairée sur ce qu’ils partageront.

Nous avons signé un accord pour prouver que nous ne vendrons pas de données à un tiers », ajoute-t-il. « Le meilleur moyen de progresser est de démontrer par des actions que nous sommes là pour aider, pas pour nuire.

S’attacher a une IA

Un autre risque est que les humains pourraient potentiellement s’attacher à un chatbot lors d’une thérapie, comme cela a été le cas pour de nombreux patients d’ELIZA, qui pensaient qu’ils dialoguaient vraiment avec un humain. Cela a conduit à la formulation de l’expression «l’effet ELIZA», qui décrit la tendance des personnes à supposer que les comportements informatiques sont équivalents aux comportements humains.

Cependant, tout en reconnaissant la nécessité de mener davantage de recherches dans ce domaine, Fung ne pense pas que ce problème soit propre aux personnes atteintes d’IA. Les personnes s’attachent également à des appareils tels que les téléphones portables et les téléviseurs. « A chaque génération, il y a toujours eu des préoccupations concernant les nouvelles technologies. Quand il devient obsessionnel, les gens vont chercher de l’aide auprès de professionnels.  »

Les gens peuvent aussi plaisanter ou mentir à l’IA, mais de tels cas peuvent être minimisés en utilisant des techniques de détection de la tromperie telle que la reconnaissance faciale, explique Kothari.

En général, si l’IA est conçue pour le bénéfice des patients et est sans jugement et non intrusive, il n’y aura aucune raison de lui mentir.

La possibilité de tromperie a plus à voir avec la responsabilité humaine que les défaillances technologiques, ajoute Fung.

L’IA est un outil et ce que les gens décident de faire avec lui, cela est la responsabilité des humains.

Compléter ne pas remplacer

La plupart des chercheurs sur le terrain reconnaissent que l’IA ne peut pas remplacer un thérapeute, mais croient que cela peut être un outil de soutien. Le professeur Zhu Tingshao de l’Académie chinoise des sciences et ses collègues, par exemple, ont mis au point un système basé sur l’IA, actuellement intégré dans Weibo, qui reconnaît les personnes qui expriment des pensées suicidaires, par la suite il leur envoie des numéros d’assistance et des messages d’assistance. Alors que les chercheurs ne peuvent pas déterminer, si les gens demandent par la suite de l’aide, Zhu explique que la technologie est toujours une étape proactive vers la prévention du suicide.

En ce moment, en ce qui concerne l’intervention suicidaire, il faut que les personnes suicidaires fassent elles-mêmes les premiers pas. Mais peu de personnes ayant un problème veulent demander activement de l’aide », explique Zhu, qui ajoute que l’outil a reçu des commentaires positifs jusqu’à présent. « Nous ne pouvons pas prendre la place de psychologues ou de professionnels pour donner des conseils, mais nous pouvons aider les gens à connaître leur état de santé mentale et, si nécessaire, apporter une aide à temps pour prévenir le suicide.

L’IA a des limites

Mme Bhairavi Prakash, fondatrice de The Mithra Trust, une organisation indienne qui gère des initiatives de bien-être combinant technologie et engagement communautaire, estime que l’IA peut être utile pour promouvoir le bien-être. Cependant, elle ne pense pas non plus qu’elle puisse fournir un traitement complet, en particulier pour les maladies mentales graves. Essayer de l’appliquer à de tels cas pourrait être dangereux et ne devrait pas être tenté tant que la technologie n’est pas plus sophistiquée, explique-t-elle.

L’IA peut déclencher des réactions imprévisibles chez personne, et vous ne pouvez pas prévoir ses réactions », explique le psychologue du travail et de l’organisation. « Si quelqu’un délire ou hallucine et discute avec l’IA, il ne saura pas jusqu’à quel point cela peut réel.

La législation doit également se rattraper avant que l’assignation de tâches supplémentaires soit confiée à AI, ajoute Prakash. Par exemple, les psychologues humains peuvent être tenus par la loi d’aviser les autorités si un patient montre des signes de vouloir nuire à autrui, mais on ignore comment ces cas seront traités par l’IA.

Fung se fait l’écho de la nécessité d’une législation plus claire, affirmant que les humains doivent encore rester au courant des décisions importantes telles que les prescriptions de médicaments.

Les machines ne sont pas parfaites. Les humains ne le sont pas non plus, mais nous avons des lois ou des règlements pour traiter les erreurs humaines ou les accidents médicaux. Nous n’avons pas vraiment de très bonnes réglementations pour les erreurs venant des machines.

À l’avenir, Fung croit que l’IA aidera à créer de meilleurs traitements personnalisés, tandis que Zhu explique que cela rendra les services de la santé mentale plus efficaces. Prakash estime que les outils basés sur l’IA encourageront les gens à faire les premiers pas vers une recherche pour recevoir de l’aide et de l’assistance dans des moments difficiles de leur vie.

« Dans les conversations que les gens auront avec l’AI, ils seront plus ouverts parce qu’il n’y aura pas de jugement comme c’est souvent le cas avec des thérapeutes humains. Ils peuvent discuter de n’importe quoi, et c’est extrêmement libérateur et excellent pour le bien-être mental des gens qui consulteront un thérapeute doté d’une IA.  »

Source : Asian Scientist