Contrairement à des temps plus anciens, où la société avait tendance à rester stable à travers les générations, nous vivons dans un monde en perpétuel changement. La vie des humains en est transformée en tout, qu’il s’agisse du divertissement (jeux vidéo, animés sur des sites de streaming), des relations sociales (visioconférences, réseaux sociaux), de la nourriture (en agriculture avec les OGM pour plus de rendement, par exemple)…

Au front de ces bouleversements sociétaux, peut-être même civilisationnels, la science. Qu’elles soient sciences humaines, sociales ou sciences exactes. Ce sont les sciences exactes qui nous concernent aujourd’hui, car il est question de progrès technique — si vous avez lu l’article sur le postmodernisme dans Ashita no Joe (printemps 1970), vous reconnaîtrez peut-être un motif récurrent. L’innovation mène à la croissance, la croissance à l’investissement dans le progrès technique, l’excédent augmente la consommation globale d’une économie, la société de consommation est heureuse. J’ai vraiment ressorti la théorie de la croissance endogène dans ma vie, quelle timeline ! D’ailleurs il semblerait que Robert Solow l’aie développée vers 1956, collant à une modernité avant le postmodernisme de la French School des années 1960…

Trêve de détails historiques, car on va bientôt se projeter dans le futur. Les sciences exactes se divisent en deux branches, qui viennent évidemment à se mêler dans des efforts pluridisciplinaires ou pour des applications dans le monde réel. On parle dans un cas de la science pure (ou fondamentale), qui intéresse principalement les chercheurs et les professeurs, et de l’autre de la science appliquée, celle dans laquelle les entreprises tendent à investir. La science appliquée s’efforce à faire des conquêtes jours après jours, et change graduellement le monde.

L’animation peut trouver beaucoup à gagner des diverses découvertes et applications scientifiques, rien qu’en marketing : juste pour que vous le sachiez, MyAnimeList vaut 10 millions de dollars, investissement récent venant d’acteurs économiques japonais, dont Shuueisha — en même temps, on peut trouver des données extrêmement intéressantes sur les goûts des consommateurs occidentaux… Mais par exemple en termes de puissance de calcul, tandis que les entreprises s’efforcent d’optimiser les algorithmes, le matériel technique : c’est ainsi que fonctionne la CGI (pour les néophytes, c’est la 3D, comme dans le merveilleux Berserk (été 2016), ou même le très fluide Ex-Arm (hiver 2021), particulièrement acclamé par la critique).

Bref, la japanimation va beaucoup changer sur le plan technique d’ici 10, 20, 30 ans ; cela semble évident, et ce l’est. Le véritable intérêt de cet article sera de tenter de dessiner une esquisse un minimum précise de ces mutations technologiques. Ce qui implique un travail minutieux dans la recherche de sources, mais plusieurs des hypothèses qu’empruntera cet article relèvent probablement plus du fantasme que de la réalité prévisible. Pour faire une analogie à l’astronomie, il y a un univers observable, défini par le rayon de Hubble, et la portion de l’univers en expansion, plus rapide que la lumière elle-même. Aussi, cet article se divisera en deux parties : une partie nommée « réaliste » et qui espère produire des idées acceptables ; une autre relevant plus de l’« anticipation » et s’autorisant plus d’écarts à la rigueur. Plus on descendra dans l’article, et plus l’on s’écartera du plus réaliste.

               Innovations réalistes

1. Le rigging facial. Tout d’abord, commençons par un progrès technique à l’origine d’une véritable avalanche de contenus dans la communauté otaku : le rigging facial. C’est ce qui fait que Gawr Gura puisse tourner la tête, afficher diverses expressions, et ainsi illusionner toute une audience. Bien qu’on ne puisse exactement dire des VTubers qu’ils soient des personnages reliés à l’animation, il y a un clair mélange des registres, une ambiguïté volontaire, notamment dans Holo no Graffiti (original net animation diffusée depuis le 5 mai 2019 par Hololive).

Mais le rigging facial n’est pas la propriété exclusive des VTubers. Par exemple, Kyokou Uranai (hiver 2020), un OVA de Kyokou Suiri (hiver 2020), était diffusé sur Twitter pendant la diffusion de l’animé télévisé. Dans cet OVA produit par AQUA ARIS (studio apparemment spécialisé dans des projets d’animation courts, notamment musicaux), Kotoko fait de la voyance. On peut se dire qu’un tel format d’animation convient à ce qui doit au final être considéré comme un simple interlude, diffusé sur Twitter et son inflation d’information.

À part le prix du modèle, selon les technologies employées, le rigging facial permet une animation bon marché. Et les modèles se développent petit à petit : on peut autant faire des commandes de modèles que créer son propre modèle grâce à VRoid. Par contre, les expressions du rigging facial peuvent devenir très vite bizarres, selon la sensibilité de la technologie, les paramètres des expressions détectées… Mais cela pourrait être un pas vers une animation naturaliste des visages dans l’animation japonaise. L’OVA Kyokou Uranai deviendra peut-être un jour un précédent historique significatif, l’acceptation de la part de l’industrie d’une innovation technologique.

2. L’interpolation. L’interpolation est un effet déjà présent dans l’animation, notamment en 3D, quand on indique deux emplacements d’un même point du modèle dans l’espace, en organisant une translation constante au cours du temps. C’est d’ailleurs utilisé dans le keyframing pour donner des mouvements lisses. Mais ici, il n’est pas question de parler seulement de 3D, car une part importante de l’âme de la japanimation réside dans la 2D.

À vrai dire, l’interpolation est à la croisée des chemins de deux natures d’animation : l’animation limitée, utilisant pour des raisons budgétaires ou artistiques un nombre restreint d’images par seconde, de décors ou de mouvements ; et l’animation dite « full », traditionnellement associée à Disney, ayant pour caractéristiques une animation lisse, des mouvements réalistes, des images détaillées, une haute qualité visuelle.

Le procédé dont l’on parle est l’interpolation 60 fps (images par seconde), et il s’agit de remplir les vides de l’animation limitée. Ce qui donne parfois des résultats maladroits, mais ce qui rend à ce qu’il paraît les pannings (mouvements de caméra) délicieux. Le problème avec cette interpolation est que les animateurs composent généralement en 24 fps maximum, et encore : ce n’est qu’un plafond théorique, loin de la pratique. Augmenter le nombre d’images par seconde ne prend pas en compte les trous laissés là par les animateurs, qui comptent sur l’esprit humain pour faire la jonction entre.

À part les pannings, on peut supposer que l’animation lisse serait surtout intéressante pour les combats, ou les scènes militaires par exemple, quand plusieurs éléments de l’écran se déplacent rapidement. Bien que la composition en animation limitée rende l’interpolation en 60 fps maladroite, si la direction artistique de la production d’une série prend en charge cet outil, le résultat pourrait être fabuleux. Il faut donc garder l’esprit ouvert, et ne pas avoir de préjugés. Houseki no Kuni (automne 2017) nous a montré les possibilités de la CGI, qu’il s’agisse du character design avec les cheveux brillants des personnages, ou bien des pouvoirs, avec la mécanique des fluides illustrée en haut de l’article par l’alliage doré.

3. L’ultra haute définition. L’ultra haute définition (UHD), aussi appelée 4K, est selon Wikipédia « un format d’image numérique ayant une définition supérieure ou égale à 3 840 pixels de large […] principalement utilisée dans le domaine du cinéma numérique ». On peut se dire que la qualité d’un animé ne change pas grand chose, et bien des fans se contentent de 720p, quand ce ne sont pas des nostalgiques d’une autre ère, habitués de la 360p. Ceux-là doivent trouver la considération de la 4K comme légèrement superficielle, et leur train de vie le confirme. Mais la définition visuelle peut vraiment être sublime. En tout cas, c’est comme cela qu’un eye-catch de Houkago no Pleiades (printemps 2015) m’a vraiment séduit, avec une illustration détaillée. Et puis, l’humain est superficiel : la vision est notre sens le plus développé.

Il arrive de tomber sur des animés en 1080p, notamment des blu-rays. Une certaine finesse est donc vivement appréciée par les consommateurs de la japanimation. Et les télévisions en 4K sont d’ores et déjà sur le marché, bien que ne correspondant pas vraiment à la gamme moyenne. Si elles se démocratisent, ainsi que le réseau de diffusion de tels contenus, la japanimation pourrait emprunter de telles voies. Après tout, des réseaux d’informations télénumériques sont déjà sur le chemin du progrès : la 5G, avec sa vitesse et son volume pour arguments.

Une autre chose à considérer est le côté budgétaire de la 4K. En amont, cela représente probablement un budget monstre. Wikipédia parlait de cinéma et en effet, il semble que seule une diffusion massive et monétisée puisse rendre cette avancée technologique soutenable. C’est pour cela que c’est une innovation qui sera soit distante, soit seulement imaginable, bien que les technologies nécessaires existent déjà, et les films de japanimation en profiteront probablement en premier.

               Anticipation d’innovations

4. Des animés « à la demande ». L’idée serait de demander à un logiciel de créer un animé, en spécifiant les critères désirés, comme si c’était une bonne idée… Bon, on sait déjà que l’offre et la demande coexistent comme dynamiques créant l’économie. L’offre crée la demande (d’où qu’insister sur le futurisme d’un produit passe comme un argument de vente rationnel, par exemple si vous avez éprouvé un tel intérêt en cliquant sur cet article), et la demande crée l’offre (ce qui explique la popularité de l’isekai, c’est l’escapisme). D’où le « à la demande » : c’est le consommateur qui sélectionne lui-même ses critères.

Si l’on considère que la MMD représente un des versants de la japanimation, en essence plus lié à la culture amateure (ou doujin), alors cette sous-culture peut servir d’exemple à ce que donnerait une animation « à la demande ». Par exemple, pour sélectionner différentes compilations de gestes ou chorégraphies, il suffit de connaître le nom des chansons : un exemple populaire est Gokuraku Joudo, par GARNiDELiA. Mais pour des exemples différents, il est peut-être possible de mentionner Gachaverse (ou pour les adultes, Koikatsu Party) pour représenter cette idée d’animation « à la demande ».

Pour les illustrations, on peut imaginer des banques d’images gigantesques, par exemple l’ensemble des frames issues de différents animés. Du machine learning permettrait à un algorithme de produire des corrélations entre différentes images, qui représenteraient par exemple différentes facettes et interprétations d’un même lieu. Ainsi, l’algorithme serait capable de reproduire un lieu générique, grâce à l’abstraction.

Pour le doublage, on peut mentionner le fait que des banques vocales existent déjà en japonais : c’est tout le principe des vocaloïdes. Cependant, ces voix synthétiques sont parfois monotones, aussi pourrait-on imaginer un travail sur l’émotivité des répliques ? Une voix dramatique aura peut-être de l’intensité et un ton tendant vers l’aigu… Un tel doublage s’inspirerait des découvertes récentes en phonétique.

Cependant, des animés à la demande finiraient sans doute par devenir un peu monotones et génériques. De plus, cela signifierait peut-être un gros manque à gagner pour tous les studios d’animation. Il faudrait, qui sait, posséder la propriété intellectuelle de la banque d’images, des modèles, des banques vocales… pour vendre le tout dans un même produit et atteindre un seuil de rentabilité.

5. L’ordinateur quantique. L’ordinateur quantique semble n’avoir rien à voir avec la japanimation, et le lien est très tenu, d’où la place de l’innovation en fin d’article. Autant l’animation « à la demande » me semble à la limite du réaliste, autant l’ordinateur quantique est très peu probable. Bon, l’objet existe et est en constant développement, mais on suppose que les tâches auquel l’ordinateur quantique sera destiné sont très spécialisées. Néanmoins, il faudrait commencer par aborder une révolution concernant la cryptographie.

La cryptographie contemporaine voit une menace arriver sous la forme de l’ordinateur quantique : pour encrypter, on joue sur un grand nombre de combinaisons possible, et les propriétés quantiques du qubit font qu’il peut posséder plus d’informations à la fois qu’un bit normal (le bit est une unité d’information petite à la base du système binaire des ordinateurs). Donc, plus d’informations font plus de combinaisons et décodent plus vite. La théorie de l’ordinateur quantique a découvert cela avec l’algorithme de Shor.

On peut donc prédire que les ordinateurs quantiques pourront se spécialiser dans différentes tâches, notamment l’analyse d’une base de donnée. Hors, la CGI calcule une base de donnée, notamment les positions de chaque modèle et de chaque texture. Une plus grande puissance ou rapidité de calcul pour la CGI permettrait à l’animation japonaise de se donner un nouveau plafond, bien que cela puisse être relativement peu utile.
6. Les implants cérébraux. Les implants cérébraux nous rapprochent d’une autre notion, le transhumanisme. C’est l’idée d’améliorer le corps de l’homme par la technologie, par exemple en voyant mieux grâce à des lunettes. Qualitativement, les implants cérébraux changeraient probablement notre civilisation. Il va sans dire que cela changerait beaucoup la consommation de la japanimation. De quoi s’agirait-il ? De transmettre des sensations directement au cerveau. Qu’il s’agisse de son ou d’image, donc d’audiovisuel, comme l’animation normale.

Mais une autre possibilité en naîtrait : des contenus plurisensoriels. Par exemple, qu’à tel moment de la vidéo soit perçu un goût, une odeur, une température, un niveau de douleur… En additionnant cela à l’animation, on atteindrait des nuances narratives inédites dans le médium. Ces ordres de magnitude changeraient qualitativement le poids numérique de l’animation, donc la distribution pourrait être plus difficile… Cependant, cela laisse des possibilités d’accessibilité supérieures : les aveugles pourraient voir des animés selon la sévérité des lésions cérébrales ou des défauts du système optique, et les sourds entendre…

D’ailleurs, si le sens de l’équilibre ou la perception de l’espace deviennent des points sur lesquels les réalisateurs jouent, l’immersion absolue pourrait être atteindre par ce biais. Une telle immersion ravirait autant les idéaux de réalisme que d’escapisme, et même le symbolisme en profiterait. De plus, ce plurisensorialisme permettrait de revisiter des œuvres plus anciennes, et l’on pourrait imaginer des analyses logicielles des anciens animés pour synthétiser des sensations, par exemple en voyant la neige dans Kimetsu no Yaiba (printemps 2019).

Cette partie peut sembler tout droit sortie de science-fiction, mais cela coïncide avec des développements scientifiques historiques. Par exemple, plus tôt ce mois-ci un article de Singularity Hub indiquait que Google et Harvard venaient de publier la plus grande carte cérébrale en haute définition, un millimètre cube du cerveau humain. Et Neuralink, start-up neurotechnologique cofondée par le milliardaire Elon Musk, continue à développer des implants cérébraux. Nous connaissons donc de plus en plus le cerveau, et les plus grandes entreprises de la technologie espèrent approcher ses mécanismes.

               Conclusion

Ici s’achève notre tour des innovations prévisibles dans le secteur de la japanimation, même si probablement bien des choses restent à imaginer. Dans la sphère du réaliste d’abord, nous sommes passés par le rigging facial, permettant des expressions faciales différentes, peut-être plus naturalistes, ou même une animation moins coûteuse. Puis nous avons envisagé l’adoption de l’interpolation 60 fps dans le processus de direction artistique des différents studios. Ensuite, c’est le format 4K auquel nous nous sommes confronté, pour y voir un détail massif auquel nous ne sommes pas encore habitués, mais qui pourrait changer notre sensibilité aux animés. Puis, dans ce qui semblait plus relever de l’anticipation, nous avons analysé le concept d’animation « à la demande », que le machine learning, la synthèse vocale et l’animation 3D pouvaient peut-être approcher ensemble, mais qui donnerait probablement quelque chose de générique — sauf si la variation possible est gigantesque. Ensuite, c’est la puissance de calcul supplémentaire des ordinateurs quantiques que nous avons anticipé, pour améliorer les performances de la CGI — si un tel plafond a un intérêt… Mais c’est au final l’idée d’implants cérébraux qui a le plus d’intérêt d’anticipation, pour la possibilité d’une narration plurisensorielle, d’une accessibilité accrue aux aveugles et aux sourds, ou même pour une immersion absolue. Pour conclure, il n’y a plus qu’à laisser le temps couler, et corriger, confirmer ou réfuter les idées proposées dans cet article.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
30 − 27 =