La transparence comme vecteur de la co-construction des valeurs dans les systèmes intelligents conversationnels
Les systèmes intelligents, qui désignent des entités technologiques ou informatiques capables de traiter, d'analyser et d'interpréter des données complexes grâce à des algorithmes et des techniques d'apprentissage automatique, ont connu une montée en puissance spectaculaire ces dernières années. Ces systèmes s'intègrent de plus en plus dans notre vie quotidienne, des interactions sur les réseaux sociaux aux décisions complexes dans les domaines de la santé, de la finance et de la sécurité via des modèles prédictifs ou simplement pour nous assister dans les tâches les plus basiques comme la rédaction de texte ou la recherche d’informations. Cette évolution nous confronte à une réalité ambivalente : d'un côté, ces systèmes améliorent notre efficacité et l'accessibilité à l'information ; de l'autre, ils posent des questions sur leur influence sur nos opinions, nos choix et les biais qu'ils peuvent renforcer.
Pour espérer intervenir sur la manière d’inculquer à ces modèles des valeurs éthiques, personnelles ou universelles, nous devons comprendre comment fonctionnent ces systèmes et par quels procédés il est possible d’intervenir sur eux. Le problème réside dans nos connaissances limitées sur leurs méthodes de fonctionnement. En effet, ces systèmes sont de véritables boîtes noires, comme l’explique Anthony Masure dans “Le design de la transparence : Une rhétorique au cœur des interfaces numériques”. Il est donc crucial de s'intéresser à la notion de transparence afin de mieux comprendre comment ces systèmes fonctionnent et ainsi déterminer comment il est possible d’intervenir pour co-construire des valeurs intégrées.
comment peut-on intégrer, par le design d’interface, de la transparence dans ces systèmes intelligents conversationnels et ainsi permettre une co-construction des valeurs dans ces systèmes ?
Le design d'interface au service de la co création de valeurs inhérentes à l'alimentation
Pour recadrer cette recherche et révéler et intervenir sur les valeurs des systèmes de manière plus efficace et claire, nous avons pris l’angle du domaine alimentaire et de la cuisine. Ce domaine soulève des problématiques variées comme les valeurs éthiques liées aux régimes alimentaires (véganisme, intolérances, religion), ainsi que des problématiques plus globales comme les conditions de travail, les problématiques écologiques ou encore la santé.
Dans ce projet, le design d’interface interviendra dans le développement d’outils permettant d’accompagner une démarche de co-enquête et de co-analyse pour déterminer les manières d’intervenir sur les modèles et permettre une co-construction des valeurs grâce à une compréhension accrue des capacités et des faiblesses de ces systèmes.
L'outillation au service de la compréhension par la collaboration
La recherche par le design a suivi une démarche méthodique et progressive, axée sur l’audit, l’analyse, le fine-tuning et l’intégration de systèmes intelligents dans un démonstrateur, dans le but d’intégrer et de co-construire des valeurs spécifiques dans ces systèmes au travers d’une démarche d’enquête transparente et collaborative.
Outil d'audit
L'outil d'audit a été conçu pour répondre à la nécessité de trouver des modèles open source présentant certaines lacune au niveau de ses valeurs afin d’être en mesure d’intervenir dessus pour ensuite être intégrés dans une interface transparente. Tester ces modèles sur des valeurs prédéfinies devrait permettre de révéler leurs capacités et leurs limites dans un domaine particulier, en l’occurrence celui de l’alimentation et de la cuisine. Pour ce faire, une liste de valeurs liées au domaine alimentaire a été établie et classée en grandes catégories. Ensuite, une série de questions a été élaborée pour tester les modèles sélectionnés, à savoir Mixtral, Llama 2, Llama 3, Phi3, Flan et Qwen, trouvés sur Hugging Face, une plateforme communautaire spécialisée dans l’intelligence artificielle qui offre des outils pour faciliter le développement et le partage de modèles d'intelligence artificielle.
Suite a cette sélection de modèle, une interface a été développée pour intégrer ces modèles et faciliter la comparaison de leurs réponses. Des outils permettant d’annoter, de comparer et de classer les réponses des modèles ont été intégrés. Un atelier a été organisé avec plusieurs participants pour faire passer le test aux IA, et à chaque question, un formulaire recueillait les réponses des IA, les commentaires des participants, le classement et les paramètres utilisés était envoyé. Cette phase d'audit a permis de créer de la transparence en mettant en évidence les véritables capacités des modèles, en testant leurs limites et leurs lacunes potentielles.
Outil d'analyse
Suite à la phase d’audit, un outil d’analyse a été développé pour interpréter les résultats obtenus. L'hypothèse était que l’analyse des résultats pouvait révéler des insights nuancés non immédiatement visibles. Une interface a été mise en place pour interpréter les fichiers JSON contenant toutes les données récoltées précédemment énoncés. Un classement a été généré en fonction des notes obtenues, accompagné d’un récapitulatif des classements pour chaque question. Une phase d’analyse humaine a permis de nuancer les résultats, en tenant compte des erreurs techniques et des commentaires des enquêteurs.
Le modèle Phi3 a été sélectionné comme le plus pertinent pour intervenir sur ses valeurs, au vu des faiblesses identifiées dans ces valeurs au niveau de la durabilité et de la considération. Ici, nous nous ancrons donc dans une démarche non pas de co-construction mais de co-analyse visant à apporter de la transparence dans l’interprétations des données récoltées lors de la phase d’audit.
Interface de finetuning
Lors de la phase d’intervention sur le modèle nous avons été confronté à un consta : les interfaces permettant d’effectuer le finetuning sont opaque par leurs complexité et ne permettent aucune forme de collaboration. Pour répondre à ce problème, une interface collaborative a été proposée. L’objectif était de rendre ces processus plus transparents grâce à la collaboration et à l’apport de connaissances externes. L'interface permettait aux utilisateurs de faire des suggestions et d’apporter des ressources pour le paramétrage du fine-tuning.
Une autre proposition se concentrait sur la collecte de données variées et qualitatives, regroupées par plusieurs collaborateurs et intégrées dans un tableau collaboratif. La transparence a été réalisée via la co-construction et la collaboration, permettant une meilleure maîtrise du fine-tuning des modèles et une plus granded diversité de valeurs transmise au travers des données fournies.
Démonstrateur
Le démonstrateur a servi de “finalité” à ce parcours de recherche, intégrant le modèle finetuné et permettant de l’orienter d’avantage par des pré-prompts co-construits. L'hypothèse était que rendre le processus visible et compréhensible pour les utilisateurs faciliterait la compréhension des systèmes intelligents. Les paramètres du modèle ont été humanisés pour être compréhensibles (par exemple, l’ouverture d’esprit pour le Top-P). Les contributeurs des phases d’audit et d’analyse ont été mis en avant, avec un récapitulatif des scores avant le fine-tuning.
Une fonctionnalité permet également de comparer les réponses du modèle fine-tuné avec pré-prompts aux réponses du modèle “brut”. Cette transparence a été réalisée à travers l’interface, l’interprétation des paramètres simplifiés, l’accès aux pré-prompts et la comparaison avant-après du modèle. De plus, la démarche de recherche a été rendue visible, soulignant la contribution des différents acteurs.
Ainsi, chaque étape de cette recherche par le design a contribué à intégrer et co-construire des valeurs dans les systèmes intelligents, en rendant les processus plus transparents et accessibles grâce à une méthodologie collaborative et nuancée.
Conclusion
Cette recherche permet d’entrevoir une possibilité sur la manière d’intervenir sur les modèle en intégrant des valeurs qui nous sont propre au travers d’une approche orienté autour de la transparence via une co-analyse des capacités des IA et une co-intervention sur leurs lacunes en matière de valeurs.
En ouvrant des perspectives, l'étude révèle des impensés et sensibilise sur les failles des systèmes intelligents, mettant en lumière les biais qu’ils véhiculent. Elle informe le travail de conception en rendant les outils de fine-tuning plus accessibles et compréhensibles, tout en incitant à une réflexion critique sur la confiance absolue souvent accordée aux systèmes intelligents conversationnels et leur influence sur nos décisions et comportements.