La profondeur de champ à la loupe

Par  - 25 juin 2011 - 19 h 40 min [English] [PDF] 

Promo réussie pour l’annonce de la fabrication par la société Lytro d’un appareil photo d’entrée de gamme intégrant sa nouvelle technologie de mise au point, reprise notamment par le New York Times, puis un peu partout en ligne.

Appuyée sur un réseau de micro-lentilles inséré entre l’objectif et le capteur et un traitement logiciel spécifique, la technologie dite plenoptique, mise au point par Ren Ng à Stanford, a fait l’objet de plusieurs présentations depuis 2005. L’actualité tient seulement au choix industriel de la société, qui peut paraître étonnant, comparé aux possibilités de la commercialisation du procédé sous licence, et qui fait soupçonner l’existence de difficultés techniques dans son adaptation aux outils existants.

Au-delà des slogans un peu simplistes évoquant « la photo inratable » ou « the next big thing in cameras« , il me paraît plus intéressant de souligner que le précédé, qui permet une gestion a posteriori de la zone de mise au point, respecte pleinement l’une des plus importantes inventions visuelles de l’outil photographique, soit la manifestation de la profondeur de champ.

La profondeur de champ est une limitation intrinsèque à l’optique. Dès les premiers essais des lunettes d’approche, on se rend compte que la zone de netteté ne peut pas couvrir l’ensemble des plans, lorsque ceux-ci sont trop éloignés: il faut choisir quelle plage de l’image sera nette, opération qu’on appelle la mise au point, en faisant coulisser l’objectif.

Plusieurs solutions optiques (hyperfocale sur objectifs à court foyer) ou mécaniques (autofocus) seront proposées pour alléger cette contrainte. Mais au fil du temps, ce défaut est aussi devenu une signature de l’opération photographique. Dans la période récente, les jeux sur les oppositions de zones nettes et floues apparaissent comme un des gimmicks préférés des photographes, un effet facile à reconnaître et à interpréter qui présente l’intérêt de recréer une profondeur dans l’espace en deux dimensions de l’image. Au point que l’on voit aujourd’hui des logiciels proposer de simuler l’effet « miniature » de la prise de vues macro, en resserrant artificiellement la zone de netteté, comme sur le Canon EOS 60D.

Alors qu’il pourrait proposer une photo nette de zéro à l’infini, l’aspect le plus frappant du procédé plenoptique est de préserver l’idée d’une plage de netteté, comme si cet aspect était désormais inséparable de la visibilité photographique. Recréer une profondeur de l’image en permettant à l’usager de déplacer cette zone n’est peut-être pas tant une amélioration de la technique de mise au point qu’un nouveau jeu visuel, de l’ordre de l’exploration spatiale d’un enregistrement multiple, proche de l’expérience de la 3D au cinéma.

23 Reponses à “ La profondeur de champ à la loupe ”

  1. « Alors qu’il pourrait proposer une photo nette de zéro à l’infini ». On y est déjà. La plupart des téléphones font des photos nettes grosso_modo de 50 cm à l’infini en raison de la taille réduite de leur capteur.

    « préserver l’idée d’une plage de netteté, comme si cet aspect était désormais inséparable de la visibilité photographique » Je pense aussi que cela n’a rien à voir avec l’idée d’une photo inratable. L’idée d’une plage de netteté suppose un choix. Et pour que la photographie puisse être un mode d’expression, il faut qu’il y ait un auteur qui fasse des choix. C’est le contraire de la photo inratable qui renvoie à l’idée qu’il y aurait « une » façon de réussir sa photo, donc une seule image réellement parfaite (Nadia)qui mériterait la note maximum.
    Or avec le numérique et le format Raw, s’il y a plus que jamais un choix, en ce qui concerne la colorimétrie, le contraste, la dynmique, les noirs et les blancs, ce choix peut désormais être fait et refait de façon non destructive après la prise de vue. Les deux seules choses qui étaient définitives, c’étaient la plage de netteté et le cadrage.
    Bon, maintenant, il ne reste plus que le cadrage!

  2. @Thierry: « Bon, maintenant, il ne reste plus que le cadrage! » Ahem, je me trompe où ça fait un bon moment qu’on peut corriger le cadrage après coup? C’est même l’utilité première des formats type 12, 16 ou 18 mégapixels que de pouvoir cropper à sa guise tout en gardant une bonne marge d’exploitation… Panta Rei, disait Héraclite…

  3. @André Tu retires, mais tu n’ajoutes pas. Ou alors tu dupliques des éléments qui étaient présents dans ton cadre.

  4. Qui plus est, cadrer implique une perspective donnée.
    Pour revenir au sujet de l’article, je ne vois guère plus qu’un gadget. Rien de révolutionnaire.

  5. @John Techniquement je suppose que c’est envisageable. Les logiciels qui permettent de corriger les déformations optiques des objectifs ne devraient pas, dans leur principe, être si éloignés que cela de logiciels qui permettraient de corriger la perspective. Mais bon, il y a aussi sans doute dans tout cela un peu de vaporware. http://fr.wikipedia.org/wiki/Vaporware Après tout, le présent et le futur de la photo c’est quand même avant tout la possibilité de réaliser des images avec son téléphone pour les envoyer immédiatement sur les réseaux sociaux…

  6. Une petite précision a propos des « oppositions de zones nettes et floues qui apparaissent comme un des gimmicks préférés des photographes »… Oui c’est un effet extrêmement répandu, cela s’appelle ça « tilt-shift effect » (en référence au jeu de bascule/décentrement avec une chambre). Je n’ai pas d’exemple historique sous la main (faudrait trouver !), mais les photographes pouvaient produire un effet semblable en manipulant une chambre ou en pliant le film sous l’agrandisseur. Aujourd’hui on trouve des tilt-shift generator sur I phone : http://artandmobile.com/tiltshift/
    ou sur internet : http://tiltshiftmaker.com/

  7. Laurent Neyssensas le 26 juin 2011 à 16 h 02 min

    @ Thierry pour le cadrage un appareil de 25 MP avec un grand angle laisse pas mal de possibilité de réinterprétation.
    pour l’hyperfocale sur le téléphone ..;ce n’est pas encore cela ou seulement dans des conditions de luminosité très précises.

    @André je suis en plein accord avec le
    « Recréer une profondeur de l’image en permettant à l’usager de déplacer cette zone n’est peut-être pas tant une amélioration de la technique de mise au point qu’un nouveau jeu visuel, de l’ordre de l’exploration spatiale d’un enregistrement multiple, proche de l’expérience de la 3D au cinéma. »

    aussi le fantasme de la captation dans laquelle on ne rate rien
    la civilisation post prod …entre le « blow up « analogique le et « Blade Runner »numérique
    Tout en me rappelant que les premiers vertiges de la démultiplication des effets/conséquences possibles du traitement numérique ont engendrés dans mon cas une angoisse devant le nécessaire(?) choix d’une version !

    et voila peut être l’assistance ultime que nous fournira un bienveillant agent intelligent : un choix ( ce que l’on retrouve d’ailleurs déjà de façon embryonnaire sur les APN sous forme de style)

  8. Entre ce procédé qui renvoie la profondeur de champ à la postproduction, et l’Epic (http://www.red.com/) qui fait de même avec le « moment décisif », plus l’ancien responsable de Google qui numérise sa vie en intégralité, n’allons-nous pas vers une procrastination systématique de la créativité ?

  9. @ Pierre: Le tilt-shift renvoie spécifiquement à l’effet miniature, caractérisé par une zone de netteté étroite entre deux zones de flou. Le phénomène que j’évoque est plus largement celui de la manifestation volontaire de la profondeur de champ par floutage de l’avant ou de l’arrière-plan, très couramment utilisé aujourd’hui dans le domaine du photojournalisme pour souligner une opposition, un antagonisme (exemple). Cet effet n’est pas nouveau, ce qui est intéressant est de voir l’essor de son usage, car il s’agit simultanément d’une signature visuelle de l’opération photographique et d’un effet utilisé pour sa valeur sémiotique dans une optique d’illustration. Le voir se répandre dans le photoreportage est un indicateur très sûr de la tendance à l’allégorisation de l’image dès sa production.

    @ Laurent Neyssensas: « le fantasme de la captation dans laquelle on ne rate rien »: c’est tout à fait ça!

  10. En musique, on dit « éxécuter » une oeuvre. Au-delà des remarques humoristiques qu’on peut faire à partir de là, il y a effectivement « éxécution », « élimination » de toutes les autres variantes possibles.
    On tranche, avec virtuosité si possible.
    Tous les artistes font ça.
    Que reste-t-il si on ne le fait pas ?

  11. @ André :
    « Le voir se répandre dans le photoreportage… »
    Il me semble qu’il REVIENT après un temps d’oubli dû au numérique.

  12. @ Patrick Ertel: « N’allons-nous pas vers une procrastination systématique de la créativité? » Faut pas exagérer non plus, à ce moment-là, pourquoi conserver la version RAW d’une image? La créativité n’est pas tout, l’idée qu’il peut y avoir de l’information utilisable dans l’image photographique en dehors du but initial de la prise de vue (exemplairement exploitée dans « Blow Up ») est une idée aussi vieille que la photographie, voir notamment « La loupe de Daguerre« .

  13. @André: C’était une question, pas une prise de position !
    Et dans ma pratique quotidienne, une question très concrète, celle du partage du temps entre prise de vue et postpoduction.
    La réponse ne peut être qu’un « compromis acceptable » !

  14. @ Patrick: « partage du temps entre prise de vue et postproduction »: je suis d’accord, c’est la bonne question.

  15. En fait j’aurais dû dire « procrastination systématique du choix ».

  16. « Alors qu’il pourrait proposer une photo nette de zéro à l’infini, l’aspect le plus frappant du procédé plenoptique est de préserver l’idée d’une plage de netteté, comme si cet aspect était désormais inséparable de la visibilité photographique. Recréer une profondeur de l’image en permettant à l’usager de déplacer cette zone n’est peut-être pas tant une amélioration de la technique de mise au point qu’un nouveau jeu visuel, de l’ordre de l’exploration spatiale d’un enregistrement multiple, proche de l’expérience de la 3D au cinéma. »

    Je suis tout à fait d’accord mais il reste que quand on doit juger de la netteté sur l’écran d’un cam-phone ou d’un compact sans pouvoir reprendre la main sur l’autofocus, il arrive 1 fois sur 2 que le sujet que l’on avait décidé de prendre en photo soit totalement flou au contraire de ce joli premier plan enherbé que l’on avait absolument pas relevé à ce moment là. Un clic et c’est corrigé, c’est quand même impressionnant je dois dire ^^

    Mais sinon l’idée de profondeur de champ est tout de même intimement lié au cadrage de son image et à la maîtrise de l’exposition, des facteurs encore pour une grande partie liés à la prise de vue. Après il reste à choisir entre une mise au point sur le premier plan, sur le plan moyen ou sur l’arrière plan. Rien non plus de cornélien ou d’infini ^^ Bien entendu tout est possible en post-production mais tout est possible pour qui maitrise ces outils et sait donc que pour un photographe, tout est plus rapide à la prise de vue ou à tout le moins tout est grandement facilité par une bonne (techniquement parlant) prise de vue !

  17. « tout est possible pour qui maitrise ces outils et sait donc que pour un photographe, tout est plus rapide à la prise de vue ou à tout le moins tout est grandement facilité par une bonne (techniquement parlant) prise de vue ! »
    C’est vrai mais je pense, comme André (?), que là on n’est plus dans le registre de la rapidité ou de la facilité (la photo « inratable »). Alors est-ce que c’est uniquement d’ordre ludique, ou est-ce que cela participe, comme le raw, de l’idée que ce n’est plus la prise de vue qui est l’instant décisif 🙂 dans le processus qui fait d’une photographie une image?

  18. @Thierry et Grégory :
    Réfléchissons un peu :
    Je suis devant un « bout de réel » combinant espace et temps.
    La technologie actuelle, ou bien celle qui sera accessible dans un quart d’heure-vingt minutes, me permet le choix suivant :
    Je tranche tout de suite, ou bien plus tard devant mon ordi.
    Je reviens à la comparaison avec les musiciens.
    Je préfère le live, on gagne du temps.

  19. @Patrick On ne gagne pas du temps, on fait autre chose. De la même façon, pour garder ta comparaison avec les musiciens, qu’on ne fait pas la même chose en live et en studio.

    Mais pour revenir au sujet d’origine, on a trois idées, fantasmes, idéologies (je ne sais pas comment les appeler) qui se croisent plus qu’elles ne s’opposent, autour de la photographie. (On peut surement en trouver d’autre)
    – L’instant décisif, le « ça a été », la photo liée de façon quasi mystique à l’écoulement du temps. C’est une représentation liée à la nature même du procédé argentique. On ne peut pas refaire un développement raté. L’émulsion ,la chimie sont périssables et ont une date de péremption. Le développement du film suppose que l’on respecte un temps donné dans le révélateur etc. Ca va avec l’idée que chaque photo est unique, qu’elle porte une vérité, qu’elle est un témoignage, parce qu’elle inscrit un instant unique dans le temps et dans l’espace. C’est l’age d’or du photo-journalisme.

    – A l’inverse, la photo est comme une peinture. Elle n’est jamais terminée. Le photographe numérique avec le format raw et maintenant la technique plenoptique peut toujours revenir en arrière, revisiter ses choix. L’instant de la prise de vue n’a pas une importance particulière. Chaque nouvelle version d’un logiciel peut-être l’occasion de recréer des images existantes en leur donnant une forme nouvelle qui n’était pas envisageable lors de la prise de vue. Ca va avec l’idée que la photo est souple, qu’elle peut illustrer n’importe quelle idée selon la légende, le contexte qui lui sont associés. C’est le triomphe de la photo d’illustration.

    – La dernière catégorie, c’est la photo inratable. Autrefois, c’était juste une demande commerciale d’ordre technique. Et d’ailleurs tous les fabricants d’appareils travaillaient dans ce sens, même si c’est probablement au final les appareils jetables qui ont sans doute été les plus aboutis dans cette perspective. Aujourd’hui, est-ce en raison de la banalisation de l’acte photographique, c’est devenu une exigence sociale. Une bonne photo ce n’est plus seulement une image nette et correctement exposée, ça doit être également une image qui nous rende beau et souriant (« Imagerie standard » http://culturevisuelle.org/viesociale/2530 ) ou qui réponde à des critères esthétiques (« Esthétique garantie » http://culturevisuelle.org/viesociale/2012 ) que ce soit dans l’instant de la prise de vue, ou après au labo ou sur Internet. L’instant de la prise de vue n’est pas décisif, mais la photo a une fin. Il existe une photo que l’on pourrait qualifier de définitive, c’est la photo inratable.

  20. Perfectionnement et avancée technologique indéniable si ça n’est pas un vaporware.

    Maintenant, comme tout perfectionnement technologique, je ne suis pas contre, mais ça m’évoque irrésistiblement les orgues électroniques des années 70, et le slogan qu’on entendait sur RTL (ben oui, j’écoutais « la case trésor » à 10 ans…) « Farfisa, un orchestre au bout de vos doigts ». C’était très rudimentaire l’époque : arpèges et accords automatiques, un peu de basse automatique…

    Maintenant c’est dans tous les synthés, mais le grand défi, des claviers électroniques modernes, c’est la reproduction la plus parfaite possible des défauts des claviers vintage : Hammond B3, Fender Rhodes, Vox… et Farfisa, parce que ces machines sonnaient comme des casseroles, et que c’est un son lié à l’époque. C’est un peu la même chose avec les appliquettes sténopé, Polaroïd ou Holga pour Iphone… C’est ça que recherchent plutôt les musiciens.

    Les bons photographes feront avec, s’en serviront peut-être, mais n’en ont pas vraiment besoin. Les mauvais s’en serviront aussi, mais ne seront pas de bons photographes pour autant, pour la simple raison que ce n’est pas l’appareil qui fait la photo, mais l’intelligence de l’oeil (Plossu).

    Le jour où Culture visuelle commentera la remise en service d’une chaîne de production d’autochromes, là, oui, je sauterai de joie.

  21. […] Visuelle, on aime bien la culture populaire. Et on la défend parfois à coup de citations en grec ancien ou en latin. Sans traduction bien sûr. Cette pratique où la culture savante est au service de la […]

  22. Longue interview de Ren Ng, CEO de Lytro sur dpreview.com:
    http://www.dpreview.com/news/1108/11081810lytrointerview.asp
    Pour reprendre ton commentaire:
    « L’actualité tient seulement au choix industriel de la société, qui peut paraître étonnant, comparé aux possibilités de la commercialisation du procédé sous licence, et qui fait soupçonner l’existence de difficultés techniques dans son adaptation aux outils existants. »
    Ren Ng a du lire ton billet :), il positionne son produit comme un objet ludique destiné aux réseaux sociaux qui existerait à coté des appareils numériques auxquels nous sommes habitués:
    « The first device will be aimed at the consumer end of the market, says Ng, explaining that the company is targeting: ‘people who really like to have fun with pictures and share them with friends and family. Our vision is a product that allows people to shoot and share very simply. »
    …/…
    « ‘The software to convert the captured ‘light field’ into an image, which we’re calling the Light Field Engine, is in the camera. It is installed on your PC as well and, when you share your images through social networks, mobile devices or all the other places people share images, the Light Field Engine goes with the picture, so that the end user gets the full ‘living picture’ experience without onerous downloads.' »

  23. @ Thierry: Merci pour le signalement! L’idée que le « end user » puisse manipuler l’effet, qui n’est donc pas fermé, est passionnante. On est plus proche ici des utopies façon Invention de Morel que de l’exercice du photoreportage…