Informatique affective
La quatrième journée d’étude en éthique de l’IA, consacrée à l’informatique affective, sera tenue le 3 février 2023.
Date limite pour les propositions de communication: 2 octobre 2022.
Cette quatrième journée d’étude en éthique de l’IA est organisée par Martin Gibert, Hazar Haidar et Alexandra Prégent avec le Centre de recherche en éthique (CRÉ) et l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).
L’informatique affective est un domaine en pleine expansion qui recouvre tous les systèmes d’IA qui reconnaissent, expriment, synthétisent et modélisent les émotions humaines. Les types de technologies concernés sont notamment les robots sociaux, sexuels et conversationnels mais aussi les systèmes de surveillance et de marketing. Déjà sur le marché dans plusieurs pays dont le Canada, la Chine et la Grande Bretagne, ces systèmes sont le plus souvent utilisées à des fins de sécurité (aéroports, parcs, compagnies privées, cour pénale), de profilage marketing (magasins, réseaux sociaux, ressources humaines, entrevues d’embauches) ou encore dans le domaine du care, avec des robots sociaux comme Leka et Buddy. Mentionnons aussi la formule améliorée des lunettes Google qui permettent d’aider un individu à détecter les émotions d’autrui. Ces diverses tehnologies soulèvent toutefois de nombreuses questions éthiques, notamment au regard de valeurs telles que la non-discrimination, la justice, le respect de l’intimité et de la vie privée ou encore l’autonomie.
Lors de cette journée d’étude, nous souhaitons explorer les divers enjeux éthiques que soulèvent l’informatique affective. Les propositions de communication peuvent aborder les pistes suivantes sans nécessairement s’y restreindre :
-
Interactions humain-machine (avec relations affectives) :
-
Comment programmer en tenant compte de la dimension émotionnelle des robots ou des systèmes d’IA?
-
Les enfants sur le spectre de l’autisme et les robots sociaux.
-
Enjeux avec les personnes âgées et vulnérables.
-
Robots sexuels et affects.
-
-
Détection et simulation des émotions:
-
Enjeux éthiques et techniques liés à la différence culturelle, genrée, ou de classe sociale dans l’expression des émotions.
-
Doit-on attribuer des émotions genrées à des systèmes d’IA (voix féminine pour suggérer la bienveillance et l’empathie) ?
-
Est-il acceptable de faire croire qu’une machine ressent des émotions?
-
-
Spécificité des données émotionnelles:
-
À qui devrait appartenir les données émotionnelles (public, privé, individu, collectif)?
-
Quels risques particuliers suscitent les données émotionnelles (sécurité, intrusion, manipulation, discrimination, biais, etc.)?
-
Y a-t-il une tension ou une contradiction entre la nature subjective des émotions et la nécessité d’objectivation et de mesure par les systèmes d’IA ?
-
-
Régulations:
-
Quelles lois/règlements devraient encadrer l’utilisation de l’informatique affective ?
-
Si une machine avait des émotions, cela changerait-il son statut moral et/ou légal ?
-
Devrait-on reconnaître un droit à l’intériorité, c’est-à-dire un droit de garder ses états intérieurs pour soi?
-
A-t-on le droit de traiter l’espace public comme un “laboratoire émotionnel”?
-
Certains groupes sont-ils plus vulnérables que d’autres face à l’utilisation des systèmes de reconnaissance des émotions?
-
Les présentations d’une durée maximale de 20 minutes seront suivies d’une période de questions de 10 minutes. L’atelier du 3 février 2023 se déroulera en mode hybride, de 9:00 à 16:00 (heure du Québec).
Envoyez votre proposition avant le 2 octobre 2022 à : hazar_haidar@uqar.ca
Elle doit comporter :
-
Un titre
-
Un résumé (maximum 300 mots)
-
Nom et titre, établissement, affiliation ou organisation.
À noter que les candidatures peuvent venir de différents domaines, incluant entre autres : philosophie, science cognitive, psychologie, bioéthique, droit, informatique, génie, cinéma, communication et sociologie. Nous encourageons les candidatures étudiantes.
Quelques références sur l’informatique affective :
-
McStay, A. « Emotional AI, Soft Biometric and the Surveillance of Emotional Life: an Unusual consensus on privacy », Big Data & Society, Journal Sage Pub, 2020, https://journals.sagepub.com/
doi/full/10.1177/ 2053951720904386. -
Article 19. « Emotional Entanglement: China’s emotion recognition market and its implications for human rights », Article 19, U.K., 2021, https://www.article19.org/wp-
content/uploads/2021/01/ER- Tech-China-Report.pdf. -
M. Czerwinski, J. Hernandez and D. McDuff, “Building an AI That Feels: AI systems with emotional intelligence could learn faster and be more helpful,” in IEEE Spectrum, vol. 58, no. 5, pp. 32-38, May 2021, https://ieeexplore.ieee.org/
abstract/document/9423818 -
Barrett, L. et al. « Emotional Expressions Reconsidered : Challenges to Inferring Emotion From Human Facial Movements », Psychological Science in the Public Interest, 20(1), 1-68, 2019, https://journals.sagepub.com/
doi/10.1177/1529100619832930 -
Kuusikko, S. et al. « Emotion Recognition in Children and Adolescents with Autism Spectrum Disorders » Journal of Autism and Developmental Disorder, 39, 938–945, 2009, https://doi.org/10.1007/
s10803-009-0700 -
Gillum, J. et Kao, J. « Aggression Detectors : The Unproven, Invasive Surveillance Technology Scholls Are Using to Monitor Students », ProPublica, 2019, https://features.propublica.
org/aggression-detector/the- unproven-invasive- surveillance-technology- schools-are-using-to-monitor- students/