Archives et IA

Il y a des milliards de photos et de pictogrammes. Chaque film sur pellicule est une série de 24 ou 25 images par seconde sur un négatif argentique. La quantité de documents photographiques existants aujourd’hui dans la mémoire numérique mondiale est faramineuse. Que ce soit en JPEG, en TIFF, en DPX ou en raw. Un des problèmes auxquels nous sommes tous confrontés est le classement. Comment retrouver la photo ou l’image que nous cherchons. C’est un problème crucial pour les gestionnaires de fonds d’archives.

L’intelligence artificielle va nous donner un coup de main. Comme votre Facebook reconnaît certains de nos amis sur les photos que vous postez, l’IA peut identifier n’importe qui sur à peu près n’importe quelle image.

Plutôt que d’identifier un milliard de chinois avec des caméras de surveillance, nous allons développer des programmes qui reconnaîtront les visages qui se répètent souvent dans une bobine, dans un dossier, dans les archives d’une année, dans un fonds d’archives entier. Le programme demandera à l’éditeur: “Qui est cette personne? J’ai constaté la présence de ce visage dans 4.500 des images de cette bobine de 15 minutes.” L’éditorialiste répondra qu’il s’agit de Marcello Mastroianni, et en profitera pour indiquer à l’IA que la magnifique jeune femme à ses côtés est Sofia Loren.

Quelques minutes plus tard, l’IA annoncera que dans la même bobine il y a 2.700 photogrammes sur lesquels Sofia Loren est visible.

Deux heures plus tard, l’IA annoncera qu’il y a encore 5.000 images avec Mastroianni et Loren sur toute la matière numérisée le même jour.

Une semaine plus tard, c’est 41 minutes d’images de Sofia Loren à différentes époques que l’IA aura retrouvées, dans la totalité d’un fonds d’archives. Le développement de ce genre d’outil n’est pas simple, mais très certainement pas impossible. Les briques existent, il suffit de les assembler et de donner au programme les bonnes informations pour ses recherches. L’IA n’est pas vraiment intelligente. Elle est juste très, très rapide. Et elle applique les algorithmes qui lui ont été destinés. Nous pouvons la maîtriser, ce n’est pas réservé à la Silicon Valley.

Les possibilités de la reconnaissance faciale sont immenses et encore peu envisagées. Un programme adapté tournant sur un serveur puissant et ayant accès à une grande quantité d’images renseignera les occurrences les plus nombreuses. Tel chef d’état, tel premier ministre, tel champion sportif ou vedette du cinéma. Même si ils n’ont jamais été détectés par les éditorialistes. Et peut-être retrouvera-t-on dans un fonds d’archives d’un pays méditerranéen des images de Sofia Loren entretenant une liaison secrète avec Jean Gabin sur les plages de la Méditerranée.

L’IA ne fait pas que reconnaître les visages. Elle est capable de reconnaître les bâtiments, les paysages et les villes dont on lui aura fourni les références. L’indexation automatique assistée par IA présente des possibilités encore insoupçonnées. Elle ne remplacera pas l’intelligence des éditorialistes, elle la complétera et les rendra beaucoup plus puissants, plus rapides et plus efficaces.

Numérisation, sauvegarde et pérennité : briser le lien entre contenant et contenu ?

Un amalgame est souvent fait lorsque l’on parle de numérique entre le contenant et le contenu. Dans le cas de l’analogique, du film sur pellicule, le contenant et le contenu ne font qu’un. Le contenant est la pellicule elle-même, positive ou négative, sur laquelle le récit filmé est inscrit. Le récit filmé étant le contenu. On ne peut séparer l’un de l’autre. En général, il existe quelques copies mais elles proviennent toutes d’un même négatif, et la perte de qualité due au phénomène de génération analogique différencie sensiblement le négatif original des copies. La destruction ou la perte du contenant (négatif original, ou copie de sauvegarde) induit donc la perte irréversible du contenu, en tout cas dans sa qualité originale.

Tout est différent dans le monde numérique. Une fois le film digitalisé, le contenant et le contenu sont définitivement séparés. Le contenu, le film lui même composé d’images animées et de son, est inscrit sous forme de un et de zéro sur un disque dur (le disque dur est le contenant) et peut être recopié sans perte de qualité un nombre illimité de fois, sur n’importe quel support numérique dont la capacité sera suffisante. Aujourd’hui des disques durs, de la mémoire flash (RAM, SSD, clé USB), des cassettes de sauvegarde LTO, hier des disquettes, des disques magnéto-optiques (CD, DVD, Blue Ray,etc..) des bandes magnétiques numériques et demain, qui sait, des atomes de carbone, des segments d’ADN, l’avenir nous renseignera.

Mais la seule et unique condition à la pérennisation du contenu est la duplication. Il est indispensable que le film soit dupliqué sur de nombreux supports différents, faisant appel à des technologies différentes, entreposés géographiquement à des endroits différents, protégés de façon efficace et cohérente. On comprendra facilement qu’il est plus facile de perdre un film de souvenir de famille qui n’existe que sur le disque dur de votre ordinateur que le concert de Queen au Live Aid le 13 juillet 1985 qui est sur les nombreux et très sécurisés serveurs de Youtube, mais aussi dans la mémoire cache de l’ordinateur de la plupart des 188 millions de spectateurs qui l’ont regardé ces quatre dernières années. Le risque de perte irrémédiable de la prestation de Freddie Mercury et de ses trois acolytes peut être considéré comme très faible. Ce qui n’est pas le cas de vos souvenirs de famille, si ils n’existent qu’en un seul exemplaire, dans un seul format, sur un seul disque dur. Ici le lien entre le contenant et le contenu n’a pas été brisé. Il le sera lorsque vous partagerez avec les membres de votre famille, par une publication privée sur Youtube par exemple, vos souvenirs. Par sécurité vous les aurez copiés sur un disque dur de sauvegarde qui sera stocké non pas à coté de votre ordinateur, mais sur votre lieu de travail par exemple. Ce disque dur sera contrôlé tous les ans, on en lira la totalité du contenu, et il sera remplacé au minimum tous les cinq ans.

Merci à Freddie Mercury, Brian May, Roger Taylor et John Deacon d’avoir attiré votre attention sur cet article.

Les techniques changent, les pièges se déplacent

Passer trois ou quatre mois de montage avec des images fades, délavées et sans attrait est un risque présent aujourd’hui en production numérique, et il n’est pas sans conséquence.
Je voudrais ici analyser une conséquence pratique des tournages numériques en mode d’acquisition logarithmique.

D’abord un peu d’histoire
Lors d’un tournage sur pellicule, les rushes sont envoyés chaque jour au labo où ils sont développés et passés au télécinéma pour obtenir le matériel vidéo qui servira au montage off line.
Cette opération n’est pas anodine. En accord avec le chef-opérateur, le technicien manipulant le télécinéma ajuste les niveaux de blanc, de noir, de chroma et la dominante pour sortir la plus belle image possible pour le montage.
Durant tout le montage, qui peut prendre plusieurs mois, le réalisateur sera donc confronté à ses images dans une version non encore étalonnée définitivement, mais en tous cas représentative de leur contenu réel, avec un contraste et une colorimétrie cohérents. Après le montage, l’étalonnage effectué sur des scan 2K ou 4K du négatif original permettra d’adapter la colorimétrie au récit et aux intentions du réalisateur et du chef opérateur.

Aujourd’hui les tournages ont lieu majoritairement en numérique
Les premières caméras vidéos, avant même d’être numériques, tentaient de produire une image directement exploitable, avec un niveau de noir suffisamment bas, des blancs le plus haut possible et un colorimétrie normale. Avec le risque de perdre des informations dans les niveaux extrêmes, en l’occurrence les noirs et les blancs, et la saturation chroma.

L’étalonnage numérique se généralisant, les équipementiers ont doté de plus en plus souvent les caméras numériques à destination du cinéma de sensibilité dite logarithmique, par analogie à la sensibilité de la pellicule film. Cela se traduit par une sensibilité moins grande pour les très hautes lumières, un contraste moins élevé et une densité chromatique faible. Le but de cette manœuvre est de s’assurer qu’aucune information n’est perdue même dans les niveaux extrêmes. Les blancs ne seront jamais écrêtés au dessus de 100% et les noirs jamais clippés sous le 0%. Les rushes nous donnent ainsi une image extrêmement riche en informations, mais d’aspect délavée, sans contraste ni saturation, un peu comme une pellicule scannée avant étalonnage.


Ces images ne ressembleront à la scène filmée qu’après application d’un filtre (LUT ou Look Up Table) de pré-étalonnage qui va rétablir le contraste et la saturation, tout comme faisait le technicien du télécinéma. J’appellerai cette opération le développement numérique. Avant le montage, il y a lieu de faire une duplication des rushes en appliquant cet “étalonnage” afin de travailler pendant le montage sur des images de densité et de colorimétrie cohérente. Les rushes originaux, en mode logarithmique, seront repris lors de l’étalonnage définitif afin de retrouver toute la richesse de l’information capturée au tournage.


Malheureusement les choses ne se passent pas toujours comme ça. Lors d’un tournage sur pellicule, le développement et le télécinéma étaient indispensables pour avoir une image à utiliser sur une station de montage. Mais les rushes d’une caméra numérique actuelle, et particulièrement de l’Alexa de Arri qui tourne directement au format QuickTime, sont lisibles sans manipulation par une station de montage. Et pour des raisons financières ou logistiques, certaines productions décident de sauter l’étape du développement numérique. Le montage est alors effectué directement avec une copie des rushes, soit des images tristes et délavées, sans contraste et désaturées. Et pendant la longue période que représente le montage, le réalisateur a le temps de s’habituer à ces images dénaturées jusqu’à les faire siennes.
Ce n’est qu’au moment de l’étalonnage définitif que les rushes numériques sont développés, et s’expriment réellement. Et il est alors fréquent que le réalisateur soit déstabilisé par des images qu’il ne reconnait plus. L’étalonnage devient alors un long chemin de croix pour l’étalonneur, tiraillé entre le réalisateur qui s’est attaché à des images ternes et délavées, et le directeur photo qui essaie de retrouver ce qu’il avait fait sur le plateau. Et au final on obtient un étalonnage rarement réussi, plus long (donc plus coûteux), qui ne plait pas totalement ni au réalisateur ni au directeur photo, et qui ne restitue pas la réalité du film.

C’est un écueil dont il y a lieu d’être conscient.

Genval, le 3 octobre 2012