Éthique animale et éthique de l’IA: quels croisements ?
Atelier co-organisé par Ophélie Desmons (INSPE de Paris, Sorbonne Université) et Martin Gibert (Université de Montréal).
Avec le soutien du Groupe de recherche en éthique environnementale et animale (GRÉEA), du Centre de recherche en éthique (CRÉ) et de l’UMR 8011 “Sciences, Normes, Démocratie”, Sorbonne Université.
Pour y participer, c’est ici.
Programme
9:00 (Montréal)/15:00 (Paris)
Mark Ryan (Wageningen), Leonie N. Bossert (U. of Vienna)
Dr. Doolittle Uses AI: Should We Try to Speak Whale?
AI technologies are increasingly applied on nonhuman animals. In this talk, we will focus on a particular application of AI to other animals, namely, using AI to decode animal communication, in particular whale communication. We will discuss a variety of ethical aspects of using AI to decode whale communication, as well as the risks and benefits involved.
9:30/15:30
Ophélie Desmons (Sorbonne)
Une IA qui parle baleine, anticiper le pire et évaluer les bénéfices potentiels
Des projets récents de développement de l’IA laissent entrevoir la possibilité de communiquer avec les baleines. Cette intervention s’appuie sur les ressources offertes par une ouvre de fiction (Extrapolations, Saison 1, épisode 2, AppleTV, 2023) pour examiner la question de savoir si une telle IA est susceptible de produire de nouvelles injustices à l’égard des animaux concernés ou au contraire d’apporter des éléments de réponse à l’un des problèmes fréquemment souligné dans le champ de l’éthique et de la justice animales : le fait que les animaux ne disposent pas d’une “voix” leur permettant de faire entendre leurs intérêts et de revendiquer le respect de leurs droits.
Recent AI technologies point to the possibility of communicating with whales. This talk draws on the resources offered by a work of fiction (Extrapolations, Season 1, Episode 2, AppleTV, 2023) to examine the question of whether such an AI is likely to produce new injustices for the animals concerned or, on the contrary, to provide elements of a response to one of the problems frequently highlighted in the field of animal ethics and animal justice: the fact that animals do not have a « voice » enabling them to make their interests heard and claim respect for their rights.
10:00/16:00
Soenke Ziesche, Yip Fai Tse (Princeton)
AI alignment for nonhuman animals: next steps
In our talk we present our latest research, which comprises further arguments why nonhuman animals ought to be included in AI alignment efforts and why we believe this is possible. In short, we propose to provide AI systems access with all types of data of nonhuman animals according to animal welfare methods and let the AI systems analyse the data and learn about the interests and preferences of nonhuman animals through (inverse) reinforcement learning.
10:30/16:30
Jean-Cassien Billier (Sorbonne)
La pluralité des mondes moraux : les implications métaéthiques des interactions entre l’IA et les animaux non-humains
On sait déjà que l’IA peut créer des mondes moraux inédits, constitués d’agents moraux artificiels modulaires. L’interaction entre l’IA et les animaux non-humains ouvre une perspective plus radicalement nouvelle, et bien plus hétérodoxe : celle de mondes moraux constitués par des relations entre des entités morales non-humaines de deux types : les unes naturelles, les autres artificielles. Ces nouveaux mondes moraux pourront être dépourvus d’agents moraux humains ou de relation directe à ces derniers. Quelles sont les implications métaéthiques de cette potentielle multiplication des mondes moraux ?
11:00/17:00: pause
11:15/17:15
Augusta Gaze (Sorbonne)
Comment Zoopolis éclaire les relations entre systèmes d’IA et animaux non-humains?
Après une présentation de la Théorie des Droits des Animaux développée dans Zoopolis, nous partirons du cadre normatif posé par les auteurs afin de penser des cas qui ne sont pas intuitivement faciles à traiter. D’abord, nous analyserons l’exemple des systèmes d’IA capables d’éduquer les animaux de compagnie. Puis, nous poursuivrons avec l’interaction des voitures autonomes avec les kangourous.
11:45/17:45
Angela Martin (Basel), Leonie N. Bossert (U. of Vienna)
Large Language Models, Search Engine Ranking, and Justice for Animals
In this talk, we focus on the manifold forms of harms that nonhuman animals can experience because of Large Language Models (LLM) and Search Engine Ranking (SER). We show how LLMs and SERs regularly disrespect animal interests, which amounts to speciesism. In a first step, we outline that LLMs and SERs should, in an ideal world, minimally not cause any harm to animals. In a second step, we argue that in the currently non-ideal world, LLMs and SERs should be actively altered to educate people about animals and speciesism. Finally, we discuss several objections to our arguments.
12:15/18:15
Martin Gibert (U.Montréal) et Nick Clanchy (Centre de recherche en éthique)
Qu’est-ce qui est spécial avec le spécisme algorithmique?
Le spécisme algorithmique, entendu comme l’ensemble des effets discriminatoires des algorithmes sur les animaux, se distingue des autres manifestations du spécisme par ses aspects plus automatiques et contrôlables – et donc plus facilement réversible. Il se distingue par ailleurs du racisme algorithmique car il est moins reconnu et par le fait que les victimes ne peuvent qu’être passives face à ces discriminations: elles ont besoin de notre epistemic care. Nous considérerons plusieurs exemples.
Algorithmic speciesism, understood as all the discriminatory effects of algorithms on animals, differs from other manifestations of speciesism in being more automatic and controllable – and therefore more easily reversible. It also differs from algorithmic racism in that it is less recognized, and its victims can only be passive with regard to such discrimination: they need our epistemic care. We will consider several examples.