Les sciences humaines semblent aborder l’intelligence artificielle en critiquant l’opacité de sa boîte noire et les biais de ses résultats. La solution, permettant de reprendre la main politique sur les impensés de l’automatisation, consisterait en une plus grande lisibilité, explicabilité et réflexivité de sa causalité, trois activités dont s’autorisent justement les recherches académiques.
En déconstruisant les arguments utilisés pour réformer la boîte noire et les préjugés des réseaux de neurones artificiels, on verra que non seulement ceux-ci présupposent une conception instrumentale et anthropologique de la technique mais qu’ils ont aussi leurs impensés car ils portent sur la propre position de celui qui critique plutôt que sur l’objet visé.On se demandera s’il est même possible de sortir de la boîte noire, c’est-à-dire de réduire toute opacité? On s’interrogera aussi sur la possibilité d’une absence de biais dans une causalité construite.
Ces questions seront abordées en tissant un lien, à distance, entre les photo-géométries de la caverne platonicienne, de la Black Box de l’IA et du White Cube de la galerie qui furent critiquées au nom d’une sortie en dehors d’un espace confiné.Cette émancipation qui promet de se libérer d’une limite spatiale et mentale permet de distinguer les pratiques artistiques actuelles selon deux stratégies : un art critique qui fait émerger une position extérieure d’autorité et un art profond, reprenant la formule “Deep Dream”, c’est-à-dire récursif et contingent qui s’enfonce infiniment dans la pénombre et le pespectivisme.
Séminaire organisé par la Pr. Béatrice Joyeux-Prunel, Chaire des Humanités numériques, UNIGE.
Le jeudi de 10h à 12h en salle Phil211 (bâtiment Philosophes : 22 bd des Philosophes, Genève). Séances ouvertes à tou-te-s.