En attendant les robots joueurs.

There’s a bear down there. I almost went down without looking. Hello Mr bear, how did you get here and what do you eat to survive ? Give me answers! Silly me, bears don’t talk but Stones do. (Self-Aware Lara Croft, 2023, épîsode 1)

Self Aware Lara Croft, épisode 1 (FoxMaster, 2023)

Depuis août 2023, une série de vidéos publiées régulièrement sur YouTube expérimente les usages des intelligences artificielles dans les façons de mettre en récit, en fiction, le fait même “de jouer”. Cette série, nommée “Self Aware Lara Croft Plays Tomb Raider”, propose déjà un peu moins d’une dizaine d’épisodes narrant le playthrough, c’est-à-dire la session jouée, d’une IA incarnant Lara Croft. Cela semble être le premier fait d’armes de son auteur, FoxMaster, au-delà de sa communauté. Ce qui est passionnant avec cette série, c’est qu’elle renégocie l’intérêt des IA et leur pertinence dans le divertissement. C’est pourquoi aujourd’hui il en est question. Nous avons là un premier exemple de contenus dont la création vient ouvrir un tout nouveau champ de possibles pour la fiction et ce, sans objectif de remplacer l’humain dont le contexte de sa production. Il s’agit potentiellement d’une toute nouvelle forme de régime d’expérience pour le jeu vidéo qui va au-delà de la consommation de contenu diffusé par d’autres joueurs et joueuses. En somme, l’expérimentation donne vue sur un futur plausible et même engageant pour les jeux vidéo, car cela ne vient pas remplacer, mais bien s’ajouter à tout le reste : c’est une nouvelle richesse qu’il convient alors de documenter de manière critique.

L’expérimentation de Foxmaster tient davantage de la promesse d’une IA jouant et commentant sa propre session de jeu “comme si” que d’une réalité informatique. En effet, la Self Aware Lara Croft (SALC) est davantage la fiction d’une IA puisque son auteur amalgame plusieurs technologies au sein d’une véritable pipeline de production composée de plusieurs étapes mobilisant en réalité plusieurs “robots” (dans le sens ici de programmes informatiques) ainsi qu’un travail de postproduction important. Cela étant, pour les audiences, cette promesse offre une nouvelle façon de s’engager dans et avec une fiction (ici un jeu). Comment cette promesse crée-t-elle une nouvelle façon de s’engager dans un jeu vidéo allant au-delà du jeu secondaire (Delbouille, 2018)[1], c’est-à-dire le jeu dans lequel on s’engage sans pour autant y jouer (à travers un stream ou autre par exemple) ?

C’est clairement l’objectif de cet article que de creuser cette question afin de dégager quelques trajectoires plausible de développement pour le futur du jeu vidéo en tant qu’expérience médiatique et partagée. 

Les “IA” dans la création artistique, une fiction autoréalisatrice et controversée

Après l’emballement industriel pour les technologies associées au Web3, la fin d’année 2022 puis le premier semestre 2023 furent marqués par un engouement pour les intelligences artificielles dites “génératives”. Derrière le vocabulaire très clairement situé se trouve tout un ensemble de technologies variées allant de la génération de textes et d’images à des phénomènes potentiellement plus complexes comme génération de code informatique, de vidéos. S’ajoute à cela tout un ensemble de pratiques et tendances visant à intégrer ces technologies dans les processus quotidiens de production. Ce faisant, cela a pu mettre en exergue et réactualiser des controverses à propos des rapports de force au sein de ces contextes de productions (notamment dans le but de pousser les rémunérations des artistes et autres créateur·ice·s à la baisse) ainsi que du non-respect du droit d’auteur de manière massive (puisque les IA les plus en vogue comme l’ensemble des versions de ChatGPT ont été entrainées à partir de données obtenues sans le consentement de leurs producteurs originels).

Si l’on peut douter de l’intérêt des IA à générer de nouveaux récits ou des créations artistiques, il ne fait aucun doute qu’elles ont généré en mois d’un an des controverses relatives à leurs abus, notamment du à un laissé-faire et des pratiques douteuses. En février 2023, Reuters recensait un peu plus de 200 ouvrages vendus[2] sur Kindle et listant ChatGPT en tant qu’auteur. Amazon limite d’ailleurs dorénavant le nombre de publications par jour à 3 ouvrages pour les auteurs s’autopubliant de sorte à limiter les futures dérives[3]. Très récemment, le syndicat SAG-AFTRA, mis en exergue par les manifestations et les grèves de 2023 à Hollywood, a d’ailleurs appelé à la grève dans l’industrie du jeu vidéo afin de promouvoir rapidement une réglementation de l’usage des IA de sorte qu’elles n’amoindrissent pas (trop) les conditions de travail des salarié·e·s du jeu vidéo[4] (en particulier pour les comédiens et comédiennes assurant le doublage). S’ajoute à cela tout un ensemble de phénomènes usants du fait d’un contraste entre la promesse d’un futur doté d’IAs véritablement pertinentes et les créations effectives du moment qui permettent davantage de constater un manque de créativités et de connaissances de l’histoire de l’art de la part des acteurs promouvant ces technologies. C’est le cas par exemple de l’idole virtuelle “assistée par IA” Noonoouri, dont la voix est générée par IA[5] et qui n’a pas manqué de faire grincer les dents de certaines communautés pour la façon dont son créateur hypersexualise, à travers l’avatar, des corps de jeunes filles.

Assurément, il n’est pas possible de dépendre une représentation exhaustive de tout ce que les IA peuvent apporter de manière pertinente. De même, s’il est important de contextualiser quelques-unes des pratiques relatives à ce qui nous intéresse ici, c’est-à-dire l’usage d’IA pour de nouvelles expériences narratives, cela ne remet pas en question la pertinence de ces usages dans d’autres domaines. Ce qui est sûr et certain, c’est que pour l’instant, les craintes relatives à l’usage des IA concernant la création de fictions sont relatives aux usages de ces IA qui peuvent être destructeurs pour les humains déjà présents dans les processus créatifs. L’une des victoires de la  SAG-AFTRA suite à la grève de 2023 a précisément porté sur le fait que l’usage d’une IA pour le scénario d’une production ne pourrait pas se faire aux dépens des salaires des auteurs et autres writers[6].

Autrement dit, c’est la prédation annoncée des IA, ou plutôt c’est l’usage des IA comme argument au service d’une prédation de la part d’entreprises sur leurs employé·e·s qui pose problème. La série de FoxMaster est loin de ces enjeux. Au contraire, les questions méthodologiques et épistémologiques relevées par la production portent davantage sur les apports d’une idée (d’une fiction d’IA) comme étant nouvelles, mais surtout à l’écart d’une volonté plausible de remplacement.

The Self-Aware Lara Croft, un robot entrainé ?

Avant de présenter en détail SALC, il convient fondamentalement d’énoncer qu’il ne s’agit pas d’une IA ni d’une machine à proprement parler. SALC n’est ni une intelligence ni une sentience artificielle forte. Si l’intelligence définit la possibilité de penser de la même façon qu’un humain, la sentience définit quant à elle la possibilité de ressentir comme un humain. SALC n’est aucunement l’un ou l’autre. Au mieux, il pourrait s’agir d’une “machine avec un visage humain”, pour reprendre les termes de Sylvain Lavelle (2020). Le paragraphe conclusif de sa réflexion circonscrit les challenges pour qu’une telle chose se produise :

En somme, l’idée d’un Humaniter[7] est celle d’une machine qui non seulement pense comme un humain, ressent comme un humain, mais qui peut aussi coordonner ces deux types de capacités et les relier à une autre, l’action, de sorte qu’elle agisse aussi comme un humain. On pourrait donc suggérer que l’idée d’un Humaniter, en tant que machine totale, requiert non seulement le principe de l’IA, le principe de l’AS [sentience artificielle, NDLR], mais aussi le principe de l’AA : l’Action Artificielle. Ce principe d’AA pourrait être formulé comme suit : Une machine peut agir comme un humain. Ainsi, un Humaniter est une machine qui articule les fonctions et les capacités du Raisonneur, du Cogniteur, du Volontaire, de l’Expérimentateur et enfin de l’Acteur. C’est un point à garder à l’esprit dans le projet de réaliser une machine à la fois intelligente et sensible, c’est-à-dire une machine qui, à proprement parler, n’est pas et ne peut pas être un Humaniter, mais qui peut néanmoins être une machine à visage humain.[8]

(Lavelle, 2020:74, traduction de l’auteur)[9]

SALC n’est que la fiction d’une machine. Elle est donc loin de toutes ces considérations ontologiques sur l’IA. Cela étant, la série de vidéos qui lui est consacrée propose une nouvelle façon pour une audience de s’engager dans une œuvre. En attendant les véritables robots capables de jouer et de commenter leur partie, cette fiction est largement suffisante pour l’œil d’un ou d’une sémiologue, car elle indique une trajectoire future pour le jeu vidéo et les façons dont il est expérimenté.

L’intention de FoxMaster est explicitée dès le premier épisode de la série :

“Voici l’idée : créer un robot virtuel qui jouerait à un jeu vidéo. Le concept existe déjà, mais je veux l’améliorer pour qu’il se comporte comme le personnage principal. J’ai choisi Tomb Raider, car c’est un jeu de plateforme réputé et Lara Croft a un personnage bien défini. Je veux que cette personnalité influence le résultat final”

(FoxMaster, 2023, traduction de l’auteur)[10]

De fait, on comprend bien ici que l’enjeu ne porte pas sur les aspects technologiques ou économiques que peut apporter l’exercice, mais vraiment sur une interrogation du type “what if”. Il s’agit alors d’explorer un scénario plausible, en l’occurrence : “et si un robot (une IA) jouait comme si elle croyait également être la protagoniste d’un jeu et comme s’il découvrait sa propre aventure et non pas purement comme un programme informatique cherchant le chemin le plus optimisé ?” (figure 1)

Figure 1 : L’un des parcours du robots après plusieurs tentatives.

Pour arriver à cette fiction, FoxMaster a dû dans un premier temps entrainer un robot pour que dans un premier temps, celui-ci identifie Lara Croft à l’écran et soit capable de la reconnaître à tout moment et avec tout type d’angles de caméras (figure 2). Ensuite, il a fallu entrainer le robot pour que celui-ci arrive à localiser l’avatar dans l’environnement 3D puis qu’il soit également capable de reconnaître l’environnement. La complexité ici encore une fois est de créer la fiction d’un robot qui se comporterait comme un humain. Or, à force d’entrainement avec pour seule condition de terminer un niveau, une IA arriverait systématiquement à un chemin optimisé correspondant presque à la pratique d’un·e speedrunner·euse. De fait, il a fallu que FoxMaster détermine le mouvement du robot en fonction de ce qu’il estimait être le comportement de l’audience-modèle, c’est-à-dire une qui se comporterait comme des explorateurs et exploratrices. De fait, il a rajouté une condition pour que le robot ait pour mission de remplir un “catalogue de textures” à la façon d’un pokédex. Ce faisant, le robot se dirige vers des points d’intérêts, car il cherche également à compléter son registre de connaissances.

 L’intérêt de cela porte sur le comportement du robot pour que celui-ci se dirige vers les textures qu’il ne reconnaît pas, mais aussi distingue les endroits vers lesquels il peut se diriger dans un espace en 3 dimensions des textures qui restent en 2 dimensions (afin que le robot ne soit pas sujet à des illusions d’optique par exemple). Par ailleurs, cela permet également de créer l’illusion d’un comportement décodant un jeu de manière un peu plus proche d’un·e joueur·euse humain·e (Figure 3). L’entrainement porta ensuite sur les mouvements de Lara Croft de sorte que le robot soit capable de déployer des stratégies interprétatives en réponse à son environnement (qui pour le robot correspond à deux processus : la localisation dans un espace en 3D et la reconnaissance des textures).

Figure 2 : les points permettant au robot, entrainé, de capter Lara Croft sur l’image (FoxMaster, 2023).
Figure 3 : Illustration du robot se dirigeant vers une texture inconnue (FoxMaster, 2023)

Toutes ces étapes semblent relativement typiques pour le développement d’un robot “capable” de jouer à un jeu vidéo. Tomb Raider ici est particulièrement heuristique, car il s’agit d’un jeu relativement ancien et avec finalement peu de mécaniques en comparaison des jeux plus modernes. En tant que tel, si la pipeline s’arrêtait ici, nous pourrions supposer qu’il s’agit d’un process de user research ou du moins, permettant de prendre en charge certaines missions que peut avoir une user research qui s’appuierait sur l’intégration d’IAs à ses protocoles (ce qui peut être discuté en termes d’intérêt et de pertinence).

Cependant, ce n’est pas là que l’intérêt de l’expérience réside. Loin de là. C’est pourquoi dans cet article, un pas de côté est fait à l’égard des controverses engendrées par l’expérimentation. En effet, il est tout à fait légitime de douter des méthodes employées par FoxMaster. Contrairement à ce qu’il énonce en guise d’explication, il est tout a fait possible de supposer qu’un résultat similaire peut être atteint simplement avec une session jouée par un humain connaissant extrêmement bien le jeu (et que c’est ce qu’il aurait en réalité fait pour atteindre ce résultat). C’est notamment la thèse soutenue par un autre vidéaste, Decompose, ayant décortiqué les vidéos de FoxMaster.

Cela étant, encore une fois, ici, cette IA supposée est considérée comme étant une fiction et parce qu’il s’agit d’une fiction convaincante, alors elle suggère une modalité d’engagement différente des autres vidéos de Let’s play. C’est fondamentalement pour cela qu’elle nous intéresse ici. De fait, que cela soit un vrai robot capable de jouer ou simplement un humain se faisant passer pour un robot, un subterfuge s’opère. L’explication la plus apparente semble alors être l’usage d’une voix générée par une IA qui donne un semblant légitime à l’illusion.

The Self-Aware Lara Croft, le robot d’une archéologue ?

Afin de procéder à ce qui est le plus novateur dans cette expérimentation, FoxMaster s’est appuyé sur les quelques lignes de dialogues présentes dans le jeu ainsi que les cinématiques pour établir un persona permettant au robot de simuler une archéologue aux caractéristiques bien reconnaissables. Lara Croft est riche, l’archéologie est pour elle un loisir, elle présente un humour sec, possède un sac à dos, sait qu’elle est un personnage de jeu vidéo (puisqu’elle le mentionne dans sa demeure), manie les armes et tous les véhicules, etc. L’objectif de ce travail est de compiler une base de données qui permet ensuite de donner une future tonalité, mêlant plusieurs registres, aux commentaires prononcés par le robot lors de ses explorations (encore une fois fictives). Dans une certaine mesure, et c’est bien là que la série de FoxMaster devient remarquable, c’est que le robot qu’il présente (mais qui ne reste qu’une fiction de robot encore une fois) endosse les rôles chargés du play-by-play and color commentary. Originellement, ces rôles font particulièrement référence dans le milieu sportif dont les dispositifs médiatiques contiennent généralement deux profils de commentateur·ice·s : celleux qui décrivent l’action (le play by play) et celleux qui apportent du contexte ou des éléments d’analyse sur le moment (les color commentaries). Assurément, ces rôles peuvent être cumulés comme a pu le prouver à de nombreuses reprises (incroyables) des figures comme Eugène Saccomano[11]. Ces figures sont particulièrement observables lors d’un match de football diffusé sur des chaines télévisées par exemple. Depuis peu, ces figures sont aussi associées aux casteurs dans le milieu esportif et vidéoludique (Kempe-Cook, Sher, Su, 2019)[12]. Par exemple, le Speedons 2023 avait ces profils entre les commenteur·ice·s sur scène, les ambianceurs et ambianceuses dans les loges, etc. Ensemble, les traits compilés par FoxMaster définissent les façons dont “Lara Croft” devra commenter son exploration.

Ainsi donc, il ne reste plus qu’à fournir au robot une base de données, devenant alors le “registre de connaissances” mobilisé pour commenter la partie. C’est à ce moment peut-être du processus que SALC révèle davantage son aspect de fiction d’une IA puisque l’opération passe par l’usage de réseaux autre que seulement les éléments du jeu. Une fois que le robot détecte une texture, il effectue une recherche d’image sur Google (figure 5). C’est à cette étape que le travail humain intervient dans le processus puisque FoxMaster extrait ensuite l’ensemble des textes de la page d’images. Bien sûr, ces données sont d’abord nettoyées : retrait des pronoms, des adresses mails, etc. Puis FoxMaster copie l’ensemble sur ChatGPT en lui demandant de fournir une liste des occurrences les plus présentes [il s’agit d’un passage dont je ne suis pas sûr, il me semble avoir compris cela à partir des explications laissées par FoxMaster, mais sur ce point, il s’agit peut-être d’une incompréhension de ma part]. Le commentaire est également généré par ChatGPT qui produit un texte en prenant en compte à la fois la liste d’occurrences et les traits de personnalités qu’il a fait émerger (figure 6). Au fur et à mesure de l’exploration, une base de données est également sollicitée pour apporter du contexte par rapport à l’expérience même. Par exemple, un commentaire de SALC va porter sur une porte fermée à clef. Ce commentaire va s’ajouter à une pile de sorte que si SALC trouve une clef plus tard, elle puisse y faire référence.

Figure 5 : exemple des points de comparaison permettant au robot de reconnaitre l’image.
Figure 6 : coupe d’un écran issu de ChatGPT permettant à FoxMaster d’illustrer le processus de génération de commentaires « comme si » c’était Lara Croft qui les formulait.

C’est fondamentalement à cette étape du processus que l’on peut faire émerger tout l’aspect fictif de la “Self-Aware Lara Croft”. Les dernières étapes de la pipeline portent sur la génération d’une voix à partir des quelques lignes de dialogues. Encore une fois, il s’agit d’un autre service en ligne (Voice IA) que doit directement activer FoxMaster. Il reste ensuite tout un travail de montage laissé à FoxMaster en postproduction puisque le robot est également sujet à de nombreux échecs comme en témoignent quelques vidéos “bloopers” laissées par l’auteur.

Dans cet article, la captation du son puis la production de commentaires de SALC réagissant au son ne sont pas abordées dans leurs détails techniques, car elles suivent un processus relativement similaire. Le robot capte des pics d’information sonores durant l’expérience, analyse ces pics pour ensuite produire un commentaire prenant en compte les traits de personnalité de Lara Croft, la base de données relative à l’expérience jouée, etc. Cela étant, il convient de reconnaître qu’il s’agit de moments assez remarquables et paradoxaux : remarquables, car cela nourrie grandement l’illusion d’une IA joueuse et incarnant l’avatar, et paradoxaux, car c’est aussi dans ces moments que SALC se permet des commentaires qui conscientisent également son statut de robot jouant à un jeu. Par exemple, lors du premier épisode, SALC va entendre le signal sonore signalant la découverte d’un secret et s’en suit une Lara Croft s’interrogeant sur la présence d’un tel signal extradiégétique. 

Figure 7 : Lara Croft réagissant à un son extradiégétique. Elle prononce : » what’s happening ? Where is this music coming from ? I Jumped ! ».
Figure 8 : Lara Croft réagissant à la découverte d’un kit de soin. Elle prononce : « another medipac ! What isit ? A video Game ? Is someone watching me right now ? »

Assurément, la description faite ici des processus de production de cette série ne présente pas l’ensemble des détails de manière exhaustive, ni ne discute véritablement la plausibilité informatique de l’ensemble (étant donné que cela dépasse les compétences de l’auteur de ce billet). À titre indicatif, le parcours du premier niveau aboutit à un segment vidéo d’une vingtaine de minutes tandis que le temps réel dédié est de 8h selon FoxMaster, dont 5 consacrées à la génération des commentaires audios. Cela étant, une perception plus aiguisée semble facilement remettre en cause la plausibilité d’une telle chose. Si la série de FoxMaster peut également endosser le caractère d’hoax, il serait cependant dommageable de la défausser tant en réalité, elle apporte davantage de l’innovation, non pas dans la technologie, mais dans la façon de faire émerger de nouvelles fictions par le jeu vidéo.

Ce qui est nécessaire de comprendre finalement, c’est que SALC, en tant IA est une fiction dans le sens où sa production nécessite toute une pipeline de production nécessaire à sa création, pipeline qui n’est pas non plus exhaustivement détaillée par FoxMaster. En somme, l’ensemble des techniques (dites et non-dites) et des outils déployés par l’auteur servent ici l’illusion, le simulacre, d’une IA capable de jouer puis en commentant comme si elle était l’avatar même.

Au final, c’est ce qui nous intéresse fondamentalement ici : cette fiction d’IA qui génère une nouvelle expérience médiatique pour les joueurs et les joueuses dans les façons de consommer des jeux vidéo.

The Self-Aware Lara Croft, la fiction enchantée d’une archéologue consciente d’explorer un jeu ?

Sans aller à la prétention d’une rigueur scientifique, cet article a jusqu’à présent suivi une construction logique : un bref état de l’art sur les usages des IA puis la présentation d’un exemple novateur, soutenu par quelques appuis scientifiques, qui bouleverse cet état de l’art. SALC est remarquable précisément pour cela. Il s’agit fondamentalement d’un phénomène nouveau permis par les avancées récentes à propos des IA ainsi que leur actualité qui a particulièrement été mise en exergue depuis 2022. En tant que fiction, SALC permet d’imaginer par exemple une future trajectoire de développement pour le streaming et la production de contenus médiatisant les expériences vidéoludiques. D’abord joueurs et joueuses, les audiences sont devenues joueuses secondaires dans le sens où elles apprécient regarder d’autres personnes jouer.

Or, cette nouvelle étape porte sur la consommation et le visionnage de robots qui jouent ainsi que le développement d’un certain rapport esthétique permettant d’apprécier le jeu des non-humains. Assurément, il ne s’agit pas d’un phénomène spontané. Les Tool-assisted speedruns ont également énormément contribué à l’esthétisation du jeu non humain. Là où SALC propose quelque chose de nouveau, c’est précisément sur l’illusion de la mise en récit de l’action ludique par l’agent non humain, là où les TAS nécessitent encore et toujours les commentaires d’humains. Cela étant, il faut tout de même nuancer ce propos deux deux façons. Premièrement, certaines productions médiatiques comme la série “something about[13]” de TerminalMontage qui remédiatise et met en récit les TAS en faisant comme si les comportements optimaux répondaient à une logique diégétique interne (alors qu’ils “cassent” le jeu). Secondement, cette mise en récit de l’action ludique par un agent non humain reste fondamentalement une illusion reposant sur un travail humain qui gomme les imperfections et les limites technologiques actuelles.

En tout état, que retenir de tout cela ? Fondamentalement, il n’est pas question de formuler des conclusions, mais davantage des hypothèses sur l’intérêt d’une telle expérience médiatique. De la même façon qu’à un moment de l’histoire, il a pu être question de l’intérêt “de regarder des gens jouer à des jeux vidéo”, pourquoi regarder des robots ou des illusions de robots jouer fait sens pour les audiences ?

Une première hypothèse que SALC, les robots et leurs illusions viennent actualiser un certain rapport esthétique à une œuvre vidéoludique. Cela s’inscrit alors dans un processus d’esthétisation des actions ludiques et de leurs performances que l’on peut aisément constater dans les scènes esportives, du speedrun, etc. La série SALC est intéressante, car en donnant l’illusion que c’est un robot qui joue, elle offre une possibilité pour une audience de découvrir et de redécouvrir une expérience déjà connue. Autrement dit, il s’agit d’une réactualisation des connaissances que les audiences peuvent avoir sur leur propre expérience d’un jeu, mais aussi sur les let’s play commentés par des humains. À titre personnel, lorsque je souhaitais “revivre” Tomb Raider 1, j’allais voir la série de Benzaie. La mobilisation d’IAs pour SALC contient des commentaires que ni moi ni Benzaie (en l’occurrence) n’avons formulés. Dans l’épisode 2 par exemple, Lara Croft s’émerveille par la découverte de Vilcabamba, a peur d’être attaquée en justice par les services de protections des animaux suite à l’abattage d’un ours, s’émerveille d’une nouvelle musique extradiégétique et chantonne notamment Let It Go.

Autrement dit, cette hypothèse d’actualisation nourrie une deuxième hypothèse relative à l’ouverture de l’espace des plausibles d’une œuvre dans le sens où une audience, déjà connaisseuse d’un jeu, découvre par le visionnage, un nouveau régime d’expérience qui ne peut être que celui d’une IA ou celui attribué à une IA. En ce sens, il serait possible d’énoncer que l’usage des technologies regroupées sous l’appellation générique d’IA, permet de réenchanter une expérience vidéoludique. La série de FoxMaster réenchante Tomb Raider dans le sens où en donnant l’illusion d’une IA joueuse, il crée un nouveau mystère, une nouvelle intrigue qui n’est pas totalement compréhensible par l’audience (comment fonctionnent les algorithmes, le robot contrôlant l’avatar, etc.). C’est, je suppose, ce réenchantement qui contribue à une nouvelle expérience esthétique. A cheval entre une forme de role play powered by IA et une performance contrôlée avec la minutie d’une machine, ces nouvelles formes de Let’s Play suggère la possibilité de nouveaux espaces de contingences.

C’est principalement pour cette dernière hypothèse que l’usage des IAs semble être prometteur dans le cadre de cet article. En proposant une actualisation d’une expérience qui ne peut être propre qu’à l’usage d’IA, l’illusion de robots joueurs contribue possiblement au réenchantement d’une œuvre vidéoludique. Ce réenchantement n’est alors possible aussi que du fait d’une troisième hypothèse, c’est que nous avons ici une étude de cas illustrant des usages d’IA n’ayant pas pour but de dépasser ou de remplacer l’humain de manière performative. Il s’agit ici d’une trajectoire que je crois nécessaire de valoriser, car elle permet d’envisager un futur dans lequel il y aurait une cohabitation où les rapports de forces entre les joueurs humains et les joueurs non humains n’ont pas lieu d’être. Ou plutôt, en attendant les véritables futurs robots joueurs, c’est une illusion plutôt optimiste. ■

esteban grine, 2023.

Figure 9 : Une dernière petite pépite. Après avoir trouvé un kit de soin, Lara Croft énonce : « a medipac, if only it could contain some shampoo! »

[1] Delbouille, J. (2018, mai 18). Jouer à travers l’autre : Jeu « secondaire », jeu par procuration et médiation du plaisir ludique. Journée d’étude « Appropriation, pratiques et usages : en/jeux », Université du Québec à Montréal. https://orbi.uliege.be/handle/2268/223638

[2] URL : https://www.reuters.com/technology/chatgpt-launches-boom-ai-written-e-books-amazon-2023-02-21/

[3] URL : https://www.theguardian.com/books/2023/sep/20/amazon-restricts-authors-from-self-publishing-more-than-three-books-a-day-after-ai-concerns

[4] URL : https://www.actuia.com/actualite/ia-et-jeux-video-le-syndicat-sag-aftra-appelle-les-acteurs-des-medias-interactifs-a-la-greve/

[5] URL : https://www.designboom.com/technology/warner-music-record-deal-noonoouri-first-ai-virtual-popstar-09-07-2023/

[6] URL : https://www.vox.com/culture/2023/9/24/23888673/wga-strike-end-sag-aftra-contract

[7] [une machine se comportant, agissant et réfléchissant parfaitement comme un humain, NDLR]

[8] Texte original : “All in all, the Humaniter as an idea is a machine which not only thinks like a human, feels like a human, but also can coordinate these two kinds of abilities and link them to another one, action, so that the machine also acts like a human. One could thus suggest that the idea of a Humaniter, as a total machine, requires not only the principle of AI, the principle of AS, but also the principle of AA: Artificial Action. This AA Principle could be formulated as follows: A machine can act like a human. Thus, a Humaniter is a machine which articulates the functions and abilities of the Reasoner, the Cogniter, the Voliter, the Experiencer and, finally, the Actor. This is a point to keep in mind in the project of making a both intelligent and sentient machine, namely a machine that properly speaking is not and cannot be a Humaniter, but that nevertheless can be a machine with a human face.”

[9] Lavelle, S. (2020). The Machine with a Human Face : From Artificial Intelligence to Artificial Sentience. In S. Dupuy-Chessa & H. A. Proper (Éds.), Advanced Information Systems Engineering Workshops (p. 63‑75). Springer International Publishing. https://doi.org/10.1007/978-3-030-49165-9_6

[10] Texte original : “here’s the idea: create a virtual robot that would play a video game. The concept already exists but I want to improve it to make it behave like the main character. I have chosen Tomb Raider as it is a renowned platform game and Lara Croft has a well-defined character. I want this personality to influence the final outcome”

URL : https://youtu.be/0wTf_bbkW2U?si=MoxIWlCRYJUDxGTm

[11] URL : https://www.youtube.com/watch?v=kE5_zAWmIPc&ab_channel=LeHuffPost

[12] Kempe-Cook, L., Sher, S. T.-H., & Su, N. M. (2019). Behind the Voices : The Practice and Challenges of Esports Casters. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, 1‑12. https://doi.org/10.1145/3290605.3300795

[13] URL : https://www.youtube.com/watch?v=1or3YILu28M&ab_channel=TerminalMontage