Jun 02, 2023
À qui la faute ? Comment nous percevons la responsabilité chez l’humain
Résumé : Même lorsque les gens considèrent les assistants basés sur l'IA comme de simples outils, ils attribuent toujours à ces systèmes une responsabilité partielle dans les décisions prises. La recherche a étudié la façon dont les participants percevaient
Résumé:Même lorsque les gens considèrent les assistants basés sur l’IA comme de simples outils, ils attribuent toujours à ces systèmes une responsabilité partielle dans les décisions prises.
La recherche a étudié comment les participants percevaient la responsabilité lorsqu'un conducteur humain utilisait un assistant alimenté par l'IA par rapport à un instrument de navigation non-IA. Les participants ont estimé que les assistants IA étaient en partie responsables des succès et des échecs, tout en affirmant que ces systèmes ne sont que de simples outils.
L’étude jette un nouvel éclairage sur la manière dont les gens appliquent des normes morales différentes pour féliciter et blâmer lorsque l’IA est impliquée dans la prise de décision.
Faits marquants
Source:LMU
Même lorsque les humains considèrent les assistants basés sur l’IA comme de simples outils, ils leur attribuent une responsabilité partielle dans les décisions, comme le montre une nouvelle étude.
Les futurs systèmes basés sur l’IA pourraient permettre aux véhicules autonomes de naviguer dans la circulation sans intervention humaine. Des recherches ont montré que les gens jugent ces systèmes d’IA futuristes tout aussi responsables que les humains lorsqu’ils prennent des décisions autonomes en matière de circulation. Cependant, les assistants IA réels sont très éloignés de ce type d’autonomie.
Ils fournissent aux utilisateurs humains des informations utiles telles que des aides à la navigation et à la conduite. Alors, qui est responsable dans ces cas réels lorsque quelque chose va bien ou mal ? L'utilisateur humain ? Ou l'assistant IA ?
Une équipe dirigée par Louis Longin de la Chaire de philosophie de l'esprit a étudié comment les gens évaluent la responsabilité dans ces cas.
«Nous avons tous des assistants intelligents dans nos poches», déclare Longin.
« Pourtant, une grande partie des preuves expérimentales dont nous disposons sur les écarts de responsabilité se concentrent sur les robots ou les véhicules autonomes où l'IA est littéralement aux commandes, décidant à notre place. Il est essentiel d’enquêter sur les cas dans lesquels c’est toujours nous qui prenons la décision finale, mais où nous utilisons l’IA davantage comme un instrument sophistiqué.
Philosophe spécialisé dans l'interaction entre les humains et l'IA, Longin, en collaboration avec son collègue le Dr Bahador Bahrami et le professeur Ophelia Deroy, titulaire de la chaire de philosophie de l'esprit, a étudié comment 940 participants jugeaient un conducteur humain à l'aide d'un véhicule intelligent alimenté par l'IA. assistant verbal, un assistant tactile intelligent alimenté par l'IA ou un instrument de navigation sans IA. Les participants ont également indiqué s'ils considéraient l'aide à la navigation comme responsable et dans quelle mesure elle constituait un outil.
Statut ambivalent des assistants intelligents
Les résultats révèlent une ambivalence : les participants affirmaient avec force que les assistants intelligents n'étaient que des outils, mais ils les considéraient comme en partie responsables du succès ou des échecs des conducteurs humains qui les consultaient. Aucune division de responsabilité de ce type n’a eu lieu pour l’instrument non alimenté par l’IA.
Non moins surprenant pour les auteurs, les assistants intelligents étaient également considérés comme plus responsables des résultats positifs que négatifs.
« Les gens peuvent appliquer des normes morales différentes pour féliciter et blâmer. Lorsqu’un crash est évité et qu’aucun dommage ne s’ensuit, les normes sont assouplies, ce qui permet aux gens d’attribuer plus facilement le crédit plutôt que le blâme à des systèmes non humains », suggère le Dr Bahrami, expert en responsabilité collective.
Le rôle de la langue n'est pas pertinent
Dans l’étude, les auteurs n’ont trouvé aucune différence entre les assistants intelligents utilisant le langage et ceux qui alarmaient leurs utilisateurs par une vibration tactile de la roue.
"Les deux ont fourni les mêmes informations dans ce cas, 'Hé, attention, quelque chose à venir', mais bien sûr, ChatGPT en pratique donne beaucoup plus d'informations", explique Ophélie Deroy, dont les recherches examinent nos attitudes contradictoires à l'égard de l'intelligence artificielle comme forme d'intelligence artificielle. croyances animistes.
En ce qui concerne les informations supplémentaires fournies par les nouveaux systèmes d’IA basés sur le langage comme ChatGPT, Deroy ajoute : « Plus l’interaction est riche, plus il est facile de l’anthropomorphiser. »
"En résumé, nos résultats confortent l'idée selon laquelle les assistants IA sont considérés comme quelque chose de plus que de simples outils de recommandation, mais restent néanmoins loin des standards humains", explique Longin.