Après un an de travaux et l'analyse de 150 cas d’usage internationaux, le Cercle vulnérabilités et société défend une intelligence artificielle (IA) centrée sur l'acceptabilité et le soutien à la relation humaine. Trois pistes d’expérimentation émergent pour le secteur social et médico-social.
« Il y a un paradoxe à considérer que l’avenir des métiers du lien dépend d’une solution technique », a déclaré Jean-Christophe Combe, le 6 mai, en introduction du colloque de restitution de l’étude du Cercle vulnérabilités & société sur les potentiels de l’IA dans l’accompagnement. Et pourtant, c’est peut-être le cas, selon l’ancien ministre des Solidarités, « si les technologies sans se substituer à l’humain, augmente ses capacités ».
Reste que les craintes sont énormes, dans un « secteur tourné vers l’autonomie », que « l’IA prive les acteurs de leur capacité d’agir », remarque Aude Muscatelli, directrice adjointe de la Caisse nationale de solidarité pour l’autonomie (CNSA).
Syndrome de Frankenstein
Pour dépasser « le syndrome de Frankenstein dont souffre le monde de l’action sociale face à l’IA », selon Jean-Baptiste Talabot, directeur de l’action sociale retraite chez Malakoff Humanis, et peut-être rattraper son « décalage » par rapport au secteur sanitaire, souligne encore Aurélien Roy, directeur de l’innovation de la Fehap, le Cercle et ses partenaires – Malakoff Humanis, Fehap et UDSM – se sont emparés du sujet depuis un an.
« Plutôt que de débattre sur la nécessité d’utiliser ou pas l’IA dans le secteur social et médico-social, nous avons adopté une philosophie opérationnelle pour notre étude qui a vocation à éclairer les angles morts », explique Thierry Calvat, cofondateur du think tank.

