Le blanc en photographie.

“En photographie, le blanc n’existe pas”

Introduction

Cette phrase n’est pas de moi, mais de Mariano Ena, un de mes professeurs de photo, qui  nous enseignait, il y a déjà pas mal d’années, les grands principes de la photographie.

Avec cette phrase, il nous expliquait que le blanc (par définition l’absence de détail) était en totale opposition avec les bases de la photographie. En effet, les zones les plus claires doivent toujours avoir des détails. 

Cette phrase est resté gravée dans mon esprit car, durant ma vie professionnelle, je me suis aperçu que les grands fabricants de papier photographique avaient une démarche à priori inverse. Kodak, Agfa, Konica ou autre grandes marques, cherchaient absolument à fabriquer des papiers dont la surface était la plus blanche possible. Dans les faits, fabriquer ce type de papier contribuait avoir des photos plus lumineuses, de meilleure qualité.

Ci-dessous, quelques exemples de photos
dont les parties claires ont été “ramenées au blanc”.

La photo originale a été placée en haut à gauche.
Celle dont le blanc a été éclairci, en bas à droite.

Le blanc en Photo numérique

J’aborde cette question ici car elle est tout à fait d’actualité. Beaucoup de photos, mises en ligne sur Instagram, Facebook ou autre site web, souffrent d’un manque de luminosité. Elles sont comme on dit “enterrées”, ce qui nuit fortement à la qualité d’affichage sur un écran.
Elles auraient un meilleur rendu si les très hautes lumières étaient les plus claires possibles.  Il est donc nécessaire de les éclaircir de manière à les amener le plus possible vers le blanc, mais attention la perte de détail produirait l’effet contraire. Il faut donc trouver la limite.

Les réglages

En pratique, pour effectuer un réglage, il faut pouvoir intervenir uniquement sur les blancs. Utiliser les fonctions contraste, luminosité ou modifications des hautes lumières serait une erreur car elles impacteraient les autres parties de l’image. Par exemple :

  • Le contraste agit à la fois sur les blancs et les noirs.
  • La luminosité  peut éclaircir les blancs mais agit aussi les valeurs moyennes et les ombres.

Les firmwares des appareils photo  (sauf peut-être les modèles professionnels) ne permettent pas d’effectuer ce type de réglage. Il faut donc un logiciel de post production avec une fonction  qui permette d’éclaircir uniquement les très hautes lumières, celles qui seront acceptées comme étant proches du blanc.

 Lightroom propose un réglage spécifique 

 Double cliquez sur l’image pour l’agrandir

 Sur Lightroom le réglage est très simple à réaliser, puisque il suffit d’agir sur le curseur correspondant au “Blanc”. Dans l’exemple ci-dessus,  celui-ci a été déplacé vers la droite et positionné à la valeur de +40. Le résultat se trouve sur la photo de droite.

D’autres logiciels proposent des courbes

Double cliquez sur l’image pour l’agrandir

Toutes les applications ne proposent pas un confort de réglage comme celui de Lightroom, mais en principe, toutes proposent les courbes.
Ce réglage est un peu plus technique. L’important est de bloquer la courbe avec plusieurs points d’ancrage afin que celle-ci ne bouge pas. De cette manière, la densité générale ne sera pas impactée par le réglage et ce sont seulement les parties très claires qui seront ramenées vers le blanc. Ici aussi, le résultat se trouve sur la photo de droite.

Personnellement, je considère* que presque toutes les photos, destinées à être visualisées sur un écran, nécessitent que l’on ramène les très hautes lumières vers le blanc. au minimum de quelques points.

*Avis qui peut ne pas être partagé par tous

Jean-Claude

Copyright –Décembre 2017 – Reproduction des textes et des photos interdites sans l’autorisation de l’auteur.
Publié dans Méthode, Photo argentique, Photo numérique, Photo pour le web, Traitement numérique | Marqué avec , , , , , , | Laisser un commentaire

Exercice : votre photo manque d’originalité.

Introduction

En général, une photo est réussie lorsque elle exprime une certaine originalité, celle-ci étant obtenu par le sujet, la qualité de son cadrage et ses couleurs. Mais parfois, lors de conditions difficiles,  cadrage et couleurs ne sont pas au rendez-vous.

(1) Photo originale

La photo que j’ai réalisé la semaine dernière est un bon exemple. La lune était belle, très lumineuse, mais il était 7 h du matin, les conditions étaient mauvaises. Le résultat est donc très moyen. La prise de vue était intéressante, seul le rendu couleurs  ne correspondait pas à la réalité. Une petite retouche simple et rapide a permis de lui donner un peu de caractère.

Note :
Il n’est pas nécessaire de disposer des tous derniers équipements ou logiciels pour faire ce type travail. Voici les outils qui ont été utilisé :
– Un reflex Canon 350D, 8 millions de pixels datant de 2006 (mais équipé d’un 200 mm)
– Les applications Lightroom version 5.0 datant de 2013 et Photoshop 6.0 datant de 2000.
 Aujourd’hui, les Appareils d’entrée de gamme et les logiciels gratuits étant largement supérieurs à ceux que j’ai utilisé, cet exercice est donc à la portée de tous.

L’exemple

La photo ci-dessous montre un  exemple de résultat qui peut être réalisé en quelques minutes. Le principe est simple : il suffit d’accentuer une ou plusieurs couleurs déjà présentes sur la photo et de refaire un cadrage plus serré.

On peut noter que sur l’original  qui est incrusté dans le visuel ci dessous  :

  1. Le ciel est déjà bleu
  2. La lune est très légèrement orangée (mais cela ne se voit pas)
  3. Les arbres sont proches du noir.

En complément de cet article,  vous trouverez un tutoriel complet ici.

(2) Il est possible d’améliorer très rapidement une photo en travaillant uniquement sur les couleurs. 

Les outils

Pour donner  un caractère un peu irréel à cette photo, je vais donc accentuer ces couleurs,  déplacer les arbres vers le haut et refaire un cadrage.

Pour faire ces modification, je vais utiliser les 5 fonctions suivantes :

  • La gestion des densités. (lightroom)
  • La gestion couleurs. (lightroom)
  • L’outil sélection. (Photoshop) 
  • L’outil déplacement. (Photoshop) 
  • L’outil recadrage. (Photoshop) 
  • Enregistrement au format Jpg ((Photoshop) 

La méthode

Dans ce type de travail, plus que la retouche elle même, c’est la marche à suivre qui est importante. Certaines fonctions doivent se faire en priorité par rapport à d’autres. Le tutoriel le montre un exemple avec la corrélation entre l’accentuation des noirs et l’outil sélection.

Cette retouche va se faire en plusieurs étapes :

Couleurs disponibles sur Lightroom.

Le renforcement des couleurs sur Lightroom.
Ce logiciel est très performant dans ce type de travail. Il propose d’intervenir, de manière très ciblée, sur chacune des 8 couleurs, ainsi que sur les densités. Nous allons effectuer les réglages suivants :

  1. Renforcement du noir**
  2. Renforcement du bleu pour le ciel.
  3. Renforcement de la couleur orange pour la lune

Ces réglages sont extrêmement simples. La photo est ensuite transféré sur Photoshop.

** Ce réglage est en fait une préparation de la photo afin de faciliter le déplacement des arbres. 

 

La retouche sur Photoshop.
L’application permet aussi la gestion des couleurs, mais elle surtout performante dans la retouche entre autre la sélection et le déplacement d’une zone. Nous allons effectuer les réglages suivants :

  1. Sélection des arbres et déplacement vers le haut.
  2. Recadrage.
  3. Enregistrement.

Le tutoriel

Vous trouver ci-dessous le tutoriel qui indique la marche à suivre. Il se compose de toutes les copies d’écran ainsi que du fichier utilisé dans cet exercice afin que vous puissiez refaire vous-même ce tutoriel.

Cliquez sur ce lien pour accéder au tutoriel

Jean Claude ROMON

Copyright – Novembre 2017 – Reproduction des textes et des photos interdites sans l’autorisation de l’auteur.

 

 

Publié dans Photo numérique, Photo pour le web, Traitement numérique | Marqué avec , , , , | Laisser un commentaire

Actualité : Apple rejette le format Jpeg

Introduction

Dans son communiqué de presse de septembre 2017, Apple annonce l’arrivée du nouveau système d’exploitation, le iOS 10. Celui-ci peut être téléchargé et installé sur de nombreux iPhone, iPad ou iPod.  Apple annonce déjà un taux de 52% de mise à jour.

 

 Avec cette évolution, il place son nouveau format de fichier, le High Efficiency Image Format (HEIF dont l’extension sera “.heic”) et le positionne en mode par défaut, reléguant au second plan le format Jpeg. Ce nouveau format est sans conteste un beau progrès technique pour la qualité et la circulation des images, mais la stratégie d’Apple pose déjà un certain nombre de problèmes.

Les points positifs de ce format

Sans entrer dans des considérations techniques*, on peut dire que le format HEIF est une très belle évolution et remplacera le Jpeg, un format créé en 1980, qui ne correspond plus à la technicité des matériels d’aujourd’hui.

Pour faire simple, à qualité égale, ce nouveau format permet de diviser par 2 le poids du fichier. Il facilitera les téléchargements et les temps de transfert dans les réseaux sociaux. Il permet de choisir  “avec ou sans compression”.
Il embarque aussi :

  1. Les métadonnées.
  2. Les miniatures.
  3. Plusieurs fichiers correspondant par exemple à un mode rafale.
  4. De la vidéo.
  5. De l’audio.
  6. Des copies virtuelles comme celle générées par Lightroom.
  7. Des données sur la profondeur de champ : (voir mon article sur le sujet).
  8. Un niveau de couleurs 10 bits, utilisé par les photographes professionnels.

Ce format à été développé par le groupe de travail Mpeg : Moving Picture Experts Group. Il n’est pas, comme le Jpeg, libre de droit et les développeurs doivent s’acquitter d’une redevance. Il permet aussi à un fabricant de créer son propre format propriétaire et c’est ce dernier point qui risque de poser problème à beaucoup d’utilisateurs.

Les points négatifs : Business is Business

Avec l’arrivée du iOS 10, c’est bien la stratégie commerciale d’Apple qui est en cause car il impose le HEIF comme le format de fichier photo par défaut, sans aucune concertation avec les autres fabricants.

Ce format est une version HEIC modifiée, propriété d’Apple, ce qui sous entend que les entreprissent qui souhaitent l’utiliser devront peut-être passer des accords commerciaux avec Apple.

Aujourd’hui, les Ingénieurs d’Epson semblent incapables de répondre sur la manière dont vont évoluer leurs imprimantes. Les fabricants ou utilisateurs de matériels de tirages photos (laboratoires en ligne ou photographes) pensent que cette stratégie peut poser un véritable préjudice à leur activité. 

Le fait de placer ce format en mode par défaut aura pour conséquence son déploiement rapide à l’insu de tous les utilisateurs, puisque Apple, marketing oblige, ne communique pas sur les conséquences de ce choix. En effet toutes les photos seront en HEIF. Le Jpeg reste bien sûr dans l’OS, et l’utilisateur qui souhaite ce format devra effectuer le changement dans les paramètres. Le grand public étant très loin de ce type de considération ne fera pas la manipulation.

Les utilisateurs vont donc rencontrer un bon nombre de problème :

  1. Incompatibilité avec tous les logiciels actuels. Obligation de faire les mises à jour, souvent payantes.
  2. Incompatibilité avec les imprimantes actuelles.
  3. Sur Android, impossibilité de lire des photos provenant de iOS 10, sauf à effectuer une mise à jour, ce qui n’est pas toujours possible.
  4. Utilisation des bornes photos et transferts vers les laboratoires photo impossible dans un premier temps.
  5. Etc.

Toutes ces questions sont actuellement sans réponse.

Par ailleurs, des redevances devront probablement être payer à Apple pour intégrer ce format dans les applications. Le HEIC d’Apple est protégé par de nombreux brevets. Les petits développeurs rencontreront des difficultés juridiques et financières, ce qui limitera forcement le nombre d’applications disponibles sur le marché, laissant la place aux grandes entreprises.

Mon point de vue

La stratégie d’Apple n’est pas nouvelle. Déjà en 1984, Apple avait créé son propre format, le Pict (.pct), Mais ce format était devenu rapidement compatible avec les autres interfaces.

Dans le passé, certains groupes  ont adopté cette stratégie. Kodak, par exemple, une des plus importantes entreprises américaines de l’époque argentique, a lui aussi créé des formats propriétaires complètement fermés, comme par exemple le .pcd crée en 1990. (Photo-CD). Cette politique (entre autres) a isolé le fabricant qui n’existe plus aujourd’hui.

Aujourd’hui, quelle va être la stratégie de Microsoft, Google et autres fabricants à propos de la stratégie d’Apple qui veut imposer sa politique ? Apple ne détient que 13% du marché. Pour les smartphones, il risque même de perdre sa 2ème place face à Huawei.

Aura-t-il la possibilité d’accroître ses parts de marché grâce à ce type de politique ? A l’ère des réseaux sociaux, ou l’échange des données et photos est fondamental, Apple est-il assez puissant pour imposer sa stratégie ? L’avenir le dira et les consommateurs le décideront.

Jean Claude


Sources
Vous trouverez ci-dessous les liens pour accéder aux diverses informations citées dans cet article.
– Apple.com
– Procounter.com
– Lesnumeriques.com
– Wikipédia.org (Mpeg)
– Silicon.fr
– Wikipédia.org (HEIF)
– Forbes.com
Publié dans Actualité, Tous les articles | Marqué avec , , , | Laisser un commentaire

La profondeur de champ

 Menu :
Introduction
Comment fonctionne la profondeur de champ ?
Comment varie la profondeur de champ ?
Comment contrôler la profondeur de champ sur votre appareil ?
Influence du capteur
Le cas particulier de la macrophotographie
L’hyperfocale
Calculer une profondeur de champ précise
Un tableur sous Excel pour vous aider 


Introduction

En photographie, la  profondeur de champ (Pdc) est une zone de netteté qui se situe quelque part entre l’appareil photo et l’infini. Sa longueur peut être très faible, quelques millimètres ou très importante, plusieurs dizaines kilomètres.

C’est un élément fondamental de la prise de vue car elle donne à une photographie une grande force expressive. Elle  permet d’orienter le regard sur un détail précis d’une scène ou, au contraire, mettre en valeur toute l’étendue d’un sujet.

Comme le montre la série de photos ci-dessous, bien maîtriser cette fonction est primordial pour donner un sens à une photo. Ici les profondeurs de champ sont classées par ordre de grandeur.

*Cliquez sur les images pour les visualiser en haute résolution

Photo n°1
Ici la profondeur de champ ne mesure que quelques millimètres. Cela permet d’orienter le regard vers les gouttes d’eau situées au centre de la toile d’araignée.
Photo N°2
Sur cette photo, elle mesure quelques centimètres afin d’avoir net à la fois les pétales et le pistil de la fleur.
Photo N°3
Dans ce sous bois, elle mesure environ 1,50 mètre. De cette manière, on a un fond un peu moins flou, ce qui permet de placer le sujet dans son environnement.

Photo N°4
Ici, on a l’impression que le viaduc de Millau est parfaitement net. En fait non, un zoom sur la photo montre que seul le premier plan l’est. La profondeur de champ doit mesurer environ 10 mètres.
Photo N°5
Sur cette photo d’architecture intérieure, il était très important que l’ensemble soit parfaitement net, aussi bien l’escalier du premier plan que le fond de la salle situé à environ 30 mètres. 
Photo N°6
Dernier exemple avec cette photo classique de paysage ou la zone de netteté est très importante. Elle démarre à quelques mètres jusqu’à l’infini.

Généralement on s’intéresse à la profondeur de champ lorsqu’on veut apporter à une photo une certaine originalité via un arrière plan plus ou moins flou. Mais il est difficile de savoir quelle longueur va mesurer la profondeur de champ. Pour gérer correctement cette technique, il est nécessaire de bien comprendre son fonctionnement.

haut de la page

Comment fonctionne la profondeur de champ ?

Si l’on fait par exemple la mise au point à 3 mètres avec un objectif de 50 mm dont l’ouverture est réglée à f/5.6, ce n’est pas seulement la partie du sujet située à 3 m qui est nette mais toutes les parties situées entre 2m50 et 3m80.

La Pdc est donc une zone de netteté qui se situe entre deux points précis :

  1. Le PPN c’est à dire  le Premier Plan Net.
  2. Le DPN qui correspond au Dernier Plan Net.

(7) Le principe de la profondeur de champ.

Par rapport à la distance de mise au point (ligne rouge), la profondeur de champ va se diviser en deux parties :

  1. Une  zone avant qui correspond à environ 30% de la Pdc.
  2. Une zone arrière  à environ 70%.

Au moment de la prise de vue, il est donc essentiel de faire la mise au point sur le premier tiers de la scène. afin d’exploiter au mieux la Pdc.

* Une mise au point sur l’infini ou proche de l’infini ne répond à cette règle. 

Note technique :
Les Ppn et Dpn ne sont que des notions relatives car elles dépendent du degré de netteté exigé : en effet, dans ces zones, le sujet  va passer progressivement du net au flou.  Définir un plan net (Ppn ou Dpn) fait appel à un autre critère : le pouvoir séparateur autrement dit la résolution. en autre de l’œil. En photographie, cette donnée s’appelle le “Cercle de confusion” et doit être prise en compte dans les calculs de la Pdc : voir le dernier paragraphe sur ces modes de calcul.
haut de la page

Comment varie la profondeur de champ ?

Divers facteurs la font varier. On en retiendra trois :

  1. La distance focale de l’objectif.
  2. L’ouverture du diaphragme.
  3. La distance de mise au point c’est à dire la distance entre l’appareil et le sujet.

Le temps de pose, lui,  n’a aucune influence.

Note technique : 
Il existe un quatrième facteur qui fait évoluer la profondeur de champ. Elle se modifie aussi en fonction de la couverture (plus ou moins large) du capteur par l’objectif. On ne parle pas de cet élément car l’utilisateur ne peut pas le contrôler. Il peut éventuellement influencer un professionnel qui consultera les tests techniques, avant l’acquisition due son équipement.

Elle varie avec la distance focale de l’objectif

(8) Pour une même distance de mise au point et une même ouverture
la profondeur de champs passe de 3.90 m (50 mm) à 12 cm (250 mm)

Elle varie avec l’ouverture du diaphragme

(9) Pour une même focale et une même distance,
la profondeur de champ passe de 1,25 m (f/2) à 12 m (f/11).
Pour les ouvertures f/16 et f/22, on passe en hyperfocale, fonction expliquée plus bas.

Elle varie avec la distance de mise au point

(10) Pour une même focale et une même ouverture
la profondeur de champ passe de 15 cm (1 m) à 130 cm (3 m)
La profondeur de champ à évoluée 3 fois plus vite que la distance de mise au point.


Note technique :

C’est la distance de mise au point qui offre la plus grande précision et la  plus grande amplitude. Elle se modifie très rapidement car elle évolue comme le carré de la distance. 

En conclusion :

  1. Pour avoir la zone de netteté la plus courte possible, il faudra :
    • Etre le plus près possible du sujet
    • Utiliser la plus grande ouverture (c’est à dire la valeur la plus petit comme f/2.8)
    • Utiliser la focale la plus longue (**sauf dans certain cas, voir  la note technique)
  2. Pour avoir la zone de netteté la plus longue possible, il faudra :
    • Etre le plus loin possible du sujet
    • Utiliser la plus petite ouverture (c’est à dire la valeur la plus grande comme f/16)
    • Utiliser la focale la plus courte.
Note technique :
En pratique, il n’est pas possible de faire une prise de vue à une très courte distance avec un téléobjectif. Dans ce cas, on préférera une optique avec une focale plus courte qui permettra une prise de vue rapprochée, ce qui contredit  cette explication**.
En fait , le simple fait de s’approcher réduit considérablement la zone de netteté, bien plus qu’en agissant la focale.
haut de la page

Comment contrôler la Pdc sur votre appareil photo ?

En principe, le diagramme de la profondeur de champ apparaît sur les écrans des appareils numériques. Il s’affiche en permanence avec le mode de mise au point manuel ou juste après la mesure de l’autofocus.

Voici un exemple avec le Fuji X100. L’écran affiche :

  • L’échelle des distances.
  • Le plan de mise au point : trait rouge. (distance appareil – sujet)
  • Le PPN : Premier Plan Net qui correspond à la limite gauche du rectangle blanc.
  • Le DPN : Dernier Plan Net, limite située à droite.
  • La longueur approximative de la profondeur de champ : rectangle blanc
  • Le ratio 1/3 – 2/3 par rapport au plan de mise au point.

(11) Avec une focale de 38 mm ouvert à f/16 et une mise au point à 50 cm, la profondeur de champ sera d’environ 40 cm (de 0,40 à 0,80)

 

(12) Avec une focale de 38 mm ouvert à f/16 et une mise au point à 2,80 m, la profondeur de champ sera d’environ 3 m (de 1,90 à 4,90)

Note technique :
En comparant les deux graphique ci-dessous, vous remarquerez que pour un modification du plan de mise au point de 2,30 mètres, la profondeur de champ évolue elle de 3 mètres. C’est bien la confirmation que c’est la distance de mise au point qui gère la plus grande partie de la Pdc car elle évolue comme le carré de la distance.

Le diagramme permet de contrôler la profondeur de champ car il est difficile de la visualiser sur un écran sauf s’il dispose d’une très bonne résolution. Dans ce cas là, vous pouvez vous aider d’une loupe pour contrôler le Ppn et le Dpn. La méthode est très efficace.

Note de l’auteur :
Dans le passé (année 90), on utilisait des oculaires pour contrôler la profondeur de champ sur le verre dépoli des chambres photographiques
haut de la page

Influence du capteur

Le contrôle de la Pdc sera facile pour certain, difficile ou totalement impossible pour d’autre. Tout dépend du type d’équipement numérique.

Sur le visuel N° 8, on voit que plus la focale est courte, plus la Pdc est importante. On peut même dire que son évolution est exponentielle puisque entre un 90 mm et un 50 mm, elle passe de 1,20 m à 3,65 m.
Avec les APN, le problème provient de la dimension du capteur car plus celui-ci est petit, plus la focale est courte, plus la gestion de la Pdc est difficile.

  Si on se réfère à l’article que j’ai écris sur les dimensions des capteurs, on peut évaluer les performances suivantes :

  • Avec une optique de 7 mm (capteur 1/2.3), la profondeur de champ sera tellement grande qu’il est pratiquement impossible d’avoir un arrière plan flou.
  • Avec une optique de 31 mm (capteur Aps C), les possibilités sont beaucoup importantes, sans toutefois atteindre la précision des formats 24 x 36 mm (capteur ou argentique).
Note de l’auteur :
Ce dernier point est une des raisons pour lesquelles les professionnels sont arrivés tardivement sur le numérique. Les premiers appareils numériques ayant de petit capteur, le réglage de la profondeur de champ était très difficile. Or cette fonction est fondamentale pour les pro qui ont du attendre l’arrivée des capteurs 24 x 36 mm.
haut de la page

Le cas particulier de la macrophotographie

En macrophotographie, la profondeur de champ est très très faible. Sur la table fournie par Olympus pour son optique macro de 60 mm, on voit toutes les contraintes de ce type prise de vue

(13) Table de Pdc pour l’optique Macro 60 mm d’Olympus

Quelques commentaires sur ce tableau :

  • Prise de vue à 19 cm (1ère colonne) : on voit que la profondeur de champ est de 2mm, mais surtout qu’elle n’évolue pas avec l’ouverture. En fait, son évolution est tellement faible que l’on considère qu’elle n’évolue pas.
  • Prise de vue à 30 cm (2ème colonne) : la profondeur de champ est de 2 mm à f/2.8 mais et de 12 mm à f/22 . On gagne 10 mm.

En fonction du sujet que vous photographiez, vous aurez peut-être intérêt de reculer votre appareil de quelques cm afin de gagner Pdc. Vous pouvez ensuite rattraper la perte de grossissement via un agrandissement de l’image. 

haut de la page

L’hyperfocale

L’hyperfocale est une particularité de la profondeur de champ bien connu des professionnels.  Il s’agit d’un réglage précis de la mise au point qui permet d’étendre la profondeur de champ jusqu’à l’infini.

(14) Principe de l’hyperfocale

Pour mettre votre profondeur de champ en hyperfocale, il suffit de placer le DPN sur l’infini et non pas la distance de mise au point :

  • Si vous placez le plan de mise au point (trait rouge) sur l’infini, vous n’aurez que 30 % de marge sur  la zone avant c’est à dire trèspeu de Pdc
  • Au contraire, si vous placez le Dpn sur l’infini vous augmentez de manière considérable votre mise au point. Faites le test sur votre diagramme

Sur le visuel N°9, on voit que pour une ouverture de f/16 la zone de netteté est de 2,50 à l’infini.

Nous sommes alors en Hyperfocale et si le sujet se trouve entre le PPN et DPN, il sera automatiquement net. Dans ces conditions, ce n’est plus la peine de faire votre mise au point, ni utiliser votre autofocus.

Vous gagnez alors en vitesse de prise de vue, c’est une situation parfaite pour les photos de sport, de nuit, de constellation, derrière une vitre, etc.

haut de la page

Calculer une profondeur de champ précise.

Pour ceux qui veulent allez plus loin et calculer de manière précise une profondeur de champ en fonction de leur matériel, je vous livre ici les formules et la méthode*.

*Au paragraphe suivant vous trouverez un fichier Excel pour automatiser vos calculs.

Préalable

Pour calculer soi-même la profondeur de champ de son équipement, il faut prendre en compte 4 critères :

  1. La focale de l’objectif.
  2. L’ouverture.
  3. La distance de mise au point.
  4. Le cercle de confusion.

Si les 3 premiers critères ne posent pas question, il n’en n’est pas de même pour le cercle de confusion.

Calculer une Pdc consiste à mesurer la distance en deux points le premier plan net (Ppn) et le dernier plan net (Dpn). Mais comment définir ces deux points lorsque le sujet passe progressivement du net au flou ? C’est la fonction du “Cercle de confusion” que l’on va trouver dans les formules. Sans lui impossible de trouver les 2 points et de calculer la Pdc.

Pour schématiser,  le cercle de confusion comprend l’ensemble des résolutions (ou pouvoir séparateur) de la chaîne comme l’objectif, le capteur, l’œil, etc.

Pour plus de simplicité dans nos calculs, on va prendre la valeur standard du 24×36 mm soit 0.03 mm. Cette valeur correspond à la dimension que doit avoir un point afin qu’il corresponde au pouvoir séparateur de l’œil. 
Cette valeur étant très proche des valeurs correspondantes aux capteurs, l’incidence sur les résultats sera donc très limités.

La méthode

Le calcul d’une profondeur de champ se fera en 4 étapes :

  1. Calcul de l’hyperfocale dont la formule est :
  2. Calcul du Ppn  :
  3. Calcul du Dpn :
  4. Calcul de la profondeur de champs :
  • H = Hyperfocale
  • F =  Focale de l’objectif
  • n = Ouverture de l’objectif
  • e =  Cercle de confusion (valeur standard : 0.03 mm)
  • Ppn = Premier Plan Net
  • Dpn = Dernier plan Net
  • p = Distance de Mise au point
  • PDC = Profondeur de champ

Un exemple

Imaginons une prise de vue réalisée avec un appareil Fuji X100 équipé d’une optique fixe  de 38 mm. Je souhaite connaitre la profondeur de champ d’une prise de vue réalisée à 3 mètres à f/8.

Le résultat étant exprimé en mètre, il est nécessaire de tout convertir à cette mesure :

Optique  38 mm = 0.038 m
Distance de mise au point = 3 m
Ouverture f/8
Cercle de confusion 0.03 = 0.0003 m


Etape 1
Calcul de l’hyperfocale

(0.038 x 0.038) / (8 x 0.00003)
soit : 0.00144 / 0.00024 = 6
La distance de l’hyperfocale est donc de 6 mètres

Note technique :
Si dans ces conditions (38 mm à f/8), nous faisons  la mise au point à 6 mètres, l’image sera nette de 3 mètres (6 /2) à l’infini.

Etape 2
Calcul du PPN

(6 x 3) / 6 + (3 – 0.038)
soit : 18 / (6 + 2.962)
soit : 18 / 8.96 =2.01
Le premier plan net est à 2.01 mètres


Etape 3
Calcul du DPN

(6 x 3) / 6 -(3 – 0.038)
soit : 18 / (6 – 2.962)
soit : 18 /30.38 =5.91
Le dernier plan net est à 5,91 mètres


Etape 4
Calcul de la profondeur de champ

5.90 – 2.01 = 3.89 mètres

haut de la page

Un tableur sous Excel pour vous aider

Je comprend très bien que tous ces calculs soient fastidieux. Je vous ai donc préparé un fichier Excel contenant l’ensemble des formules. Il vous suffit d’entrez les paramètres de votre prise de vue pour avoir, immédiatement, la profondeur de champ exacte.

Il est important d’entrer des valeurs cohérentes*, correspondant au condition de votre prise de vue.

*Si vous entrez par exemple une prise de vue à 1 mètre avec un 300 mm, la profondeur de champ sera de 00 : cette prise de vue n’est pas réalisable.

Cliquez sur l’image pour l’agrandir

Téléchargez le fichier ici

haut de la page

Jean Claude ROMON

Copyright – Novembre 2017 – Reproduction des textes et des photos interdites sans l’autorisation de l’auteur.

 

Publié dans Méthode, Photo argentique, Photo numérique, Prises de vue, Tous les articles | Marqué avec , , , , , , , , , , , , , , | Laisser un commentaire

Cyberattaques : comment protéger vos photos ?

Introduction

Récemment, les médias ont largement relayé les attaques de Ransonwares, ces applications qui demandent une rançon. Si les entreprises disposent de compétences informatiques de haut niveau et peuvent se sortir (parfois) de cette situation, ce n’est pas le cas du particulier qui se retrouve fort démuni face à ce type de problème.

(Sur ce sujet, le gouvernement vient de mettre en place un site de prévention et d’assistance du risque numérique)

Perdre des années de photographie, l’histoire de sa famille serait une véritable catastrophe. Une situation qui n’est même pas envisageable !

Le risque

Les cyber-attaques peuvent faire d’importants dégâts, notamment entrer dans votre réseau personnel, s’y propager et par exemple crypter toutes les données qui deviennent alors inaccessibles. Cela vaut pour tous les matériels y compris vos disques durs externes.

En conclusion, si vos sauvegardes sont stockées sur des disques durs, eux-mêmes connectés à votre réseau, vous n’êtes absolument pas protégé.

Ces problèmes de sécurité ne se limitent pas à la détérioration de vos fichiers, mais concerne aussi vos données sensibles, mot de passe des comptes google ou autres qui hébergent  Numéro de Carte de crédit. Le risque s’amplifie avec l’avènement des terminaux mobiles et le développement de la 4G qui ont transformé la façon d’utiliser Internet. La menace est bien réelle, avec pour preuve les mésaventures de certains grands groupes impactés par ces problèmes.

Se préserver de ces attaques passe par deux types d’actions :

  1. D’une manière générale, être un internaute vigilant en prenant quelques mesure très simples.  (Vous trouverez à la fin de l’article une liste de conseils sur ce qu’il faut faire et ne pas faire)
  2. Mettre en réelle sécurité ses données sensibles, l’objet de ce post.

Comment mettre en sécurité ses données.

Le seul moyen de mettre en sécurité ses données généalogiques est  de les placer sur un disque dur externe, lui-même déconnecté du réseau.

Le seul point à gérer est la mise à jour de ces données car copier l’intégralité de la base  peut prendre du temps. Si vous décidez de placer l’ensemble de vos archives photos personnelles,  votre dossier est susceptible d’atteindre plusieurs centaines de Go, soit plusieurs heures de transfert : une raison suffisante pour que les sauvegardes ne soient pas faites régulièrement.

Il est donc nécessaire d’utiliser une application pour faire ce travail.  Elle le facilitera en permettant des sauvegardes fiables et rapides. Mais choisir des logiciels de ce type n’est pas toujours facile. Eux-mêmes peuvent contenir des agents indésirables.

Logiciel Syncbackfree de 2brightparks – Cliquez sur l’image pour l’agrandir

Il y a donc lieu d’être très vigilant. Voici comment je procède :

  1. Je ne télécharge jamais de logiciels sur les plateformes de téléchargement.
  2. Je cherche toujours le site source c’est à dire celui de la société qui a conçu le logiciel.
  3. Je vérifie la qualité du site web. Compte tenu des coûts de conception, c’est toujours un gage de sérieux.
  4. Je vérifie les références clients et non pas les avis qui sont souvent sujet à caution.

Personnellement, j’ai choisi** la société : 2brightsparks et leur application Syncback qui existe en version freeware et en français. La mise à jour ne prendra que quelques minutes car seuls les nouveaux fichiers  (modifiés) sont transférés.

Vous trouverez ici un didacticiel complet pour paramétrer
le logiciel de sauvegarde SyncBackFree

** Je n’ai aucune relation avec cette entreprise. Il s’agit ici d’un simple retour d’expérience et les informations données n’ont rien de contractuelles. Il existe beaucoup d’autres applications, gratuites ou payantes.

Jean Claude ROMON

 

Copyright - Août 2017 -
Reproduction des textes et des photos interdites sans l'autorisation de l'auteur

Sources :
Logiciel de sauvegarde : https://www.2brightsparks.com/
Gestionnaire de mots de passe : https://keepass.fr/
Prévention et assistance : https://www.cybermalveillance.gouv.fr/

Ici, je sors un peu du contexte des techniques photo, mais ayant été, dans le passé, formateur pour les photographes professionnels, j’ai souvent abordé  ces problèmes de sécurité. Voici, selon moi, les comportements à avoir :
– Ne pas placer sur votre réseau des équipements d’ancienne génération comme Windows XP. Ils ne disposent plus de suivi technique et sont de véritables autoroutes pour les Hackers.
– Faire systématiquement les mises à jour, le mieux étant de les mettre en mode automatique.
– Attention à vos mots de passe. Personnellement, j’utilise un mot de passe comme celui-ci UmHCLs17BDmOMWPjTNiE.  Grâce à un logiciel spécialisé (gratuit) je génère un mot de passe pour chaque inscription sur un site internet. Si un site se fait voler des données, je n’ai aucun risque qu’elles soient utilisées ailleurs puisque l’information est unique.
– Dans un mail (ou Sms), ne jamais cliquer sur un lien (ou télécharger un fichier) si vous n’êtes pas absolument sûr et certain de son origine. (Un exemple : Vous recevez un message de votre banque avec un lien. Ne cliquez pas dessus mais connectez-vous via votre procédure habituelle)
– Etre très prudent lors des connexions WIFI publique.
– Attention avec vos téléphones mobiles. Lorsqu’ils sont connectés à un réseau, ils représentent un point d’entrée peu sécurisé.
– Etre très prudent lors d’installation de logiciel. Préférez toujours les sites d’origines et non les plateformes de téléchargement.
– Suivez les conseils du site site de prévention et d’assistance 
Publié dans Méthode, Sécurité, Tous les articles | Marqué avec , , , , , | Laisser un commentaire

Tirage couleurs : comment éviter la déception ?

Cet article est réservé aux photographes confirmés, experts ou pro.
– Introduction
– L’incidence des prises de vue sur le résultat couleurs.
– Comment se comporte les photos face à une dominante ?
– Cas particulier : les tableaux & aquarelles
– Solutions & méthodes

Introduction

Vous avez sélectionné vos meilleures photos et vous avez passé une commande à un laboratoire pour avoir des tirages papier. A la réception, c’est la déception car le résultat ne correspond pas à votre attente. Les couleurs sont très différentes de celles que vous aviez à l’écran.

Dans le temps, il est pratiquement impossible de reproduire à l’identique une photo couleurs, surtout si les supports ou les laboratoires sont différents. Seul les traitements professionnels le permettent. On comprend bien que dans une publicité, le produit doit avoir les mêmes couleurs que l’original. Cette exigence à un coût important qui ne peut pas être supporté par le grand public.

Le problème couleurs n’apparaît pas toujours clairement sur un écran, ceci pour diverses raisons : qualité du matériel, vieillissement de l’écran, réglage, calibration, etc. La question de la bonne reproduction des couleurs se pose donc uniquement pour les tirages papier, ceci d’autant plus que le résultat obtenu est définitif.

Mais parfois les dominantes sont inévitables. La déception intervient car on n’a pas su les anticiper. Sur l’ensemble de ce sujet, cet article apporte des explications et des solutions.
Il est divisé en deux parties :

  1. La première explique l’incidence des prises de vue et du matériel  sur le résultat couleurs.
  2. La seconde permet de comprendre le comportement d’une photo face à une dominante.
Haut de la page

L’incidence des prises de vue et du matériel sur le résultat couleur.

On identifie essentiellement trois grandes causes pouvant altérer le résultat final :

Le type de prise de vue
Une prise vue peut générer un déséquilibre couleurs. La lumière artificielle ou le coucher de soleil sont de bons exemples. Dans les deux cas la dominante est jaune orangée. Si elle est acceptable pour le coucher de soleil, elle ne l’est pas pour la lumière artificielle. Pourtant il faudra bien accepter ce résultat car le laboratoire ne pourra absolument pas rectifier les couleurs.

Le changement de la balance des blancs ne changera rien au problème qui est du à un mauvaise composition de la lumière. (pour rappel, les capteurs et films photo sont équilibrés pour la lumière naturelle)

Un mauvais réglage de l’appareil photo ou une mauvaise retouche en post-production.
Il en est de même lors d’un mauvais réglage de l’appareil photo. En post production, un écran mal calibré pourrait être la source d’une mauvaise retouche.  Si vous souhaitez des tirages de bonne qualité, il vous appartient donc de vérifier vos équipements pour éviter de sortir des normes du laboratoire. Ici non plus, ce dernier ne pourra pas rectifier les couleurs. 

Le laboratoire qui a réalise le tirage.
Il existe deux types de laboratoire, l’industriel et l’artisanal.
Un laboratoire industriel peut traiter des dizaines de milliers de photos par jour. Dans ces conditions aucune vérification individuelle n’est possible. Les techniciens font une calibration de la production chaque matin et surveillent les flux de manière que ceux-ci ne sortent pas des standards. Vos photos doivent donc être dans la normalité et vous devez être prêts à accepter quelques différences, y compris entre deux photos prises au même instant. En contre partie le prix est très intéressant.

Le laboratoire artisanal, très souvent une boutique photo, ne traite que quelques centaines de photos par jour. Le contrôle est individualisé, on peut donc s’attendre à une meilleure qualité. Le prix est plus élevé.

Mais au final, dans ces deux cas, la qualité des photos dépend surtout du niveau de compétence du technicien ou du photographe. Le laboratoire artisanal a la possibilité d’être bien meilleur que l’industriel, à condition que l’opérateur ait les compétences nécessaires pour gérer ce type de production.  En comparant les labos  les uns aux autres, on trouvera aussi de grandes différences provenant des caractéristiques techniques des matériels, papiers ou encres qui sont issus de  différents fournisseurs.

Le choix du laboratoire est donc primordial. Pour cette raison, je vous conseillerai de garder toujours le même laboratoire. Une fois sélectionné, il serait aussi judicieux d’effectuer une première commande avec un panel de photos représentant des vues très précises (comme expliqué plus bas). Cela permettra de définir une tendance couleur qui sera éventuellement corrigée pour mieux correspondre à votre attente. 

Au fil des jours, les productions sont linéaires et assez stables. Mais attention, toutes les photos ne se comportent pas de la même façon, certaines sont sensibles aux variations couleurs, d’autre non.

Haut de la page

Comment se comporte une photo
face à une dominante ?

Toutes les photos ne sont pas logées à la même enseigne. La densité, la luminance des couleurs ou le contraste des photos jouent un grand rôle dans les variations couleurs. Pour comprendre ces mécanismes vous trouverez ci-dessous un certain nombre d’exemples.

Le point de départ de ce test est un gris neutre sur lequel j’ai appliqué une dominante magenta de 8 points soit environ 3%. J’ai volontairement choisi cette couleur car inexistante dans la nature, elle est facilement perceptible.
Appliquée sur un gris neutre, (qui par définition est une absence de couleur), la différence est bien visible.

Note : pour que ce test soit crédible, la même dominante a été appliquée sur toutes les photos situées à droite.  Attention aux écrans, ils peuvent modifier les couleurs, rendant ainsi plus difficile la perception des différences.

Premier exemple

Dans cet exemple , vous trouverez 3 séries de 2 photos. Celles de gauche (n° 1, 3 et 5) sont les photos sources, celles de droite ont reçu les 3% de magenta.

Photo 1 / Photo 2
Photo 3 / Photo 4
Photo 5 / Photo 6

La luminance et le contraste de la photo 5 lui a permis de supporter l’ajout de magenta (photo 6)

Les photos du lac et du village lacustre se caractérisent par l’absence de couleur. Le gris occupe une grande partie de l’image. Ces photos sont très sensibles aux variations couleurs. Le magenta est donc très nettement visible, altérant la qualité de la photo

Par contre, la modification de la photo 6 est très légère. Elle garde une bonne qualité générale. La présence de couleurs vives ont limité fortement la dérive couleurs.

Second exemple

Voici deux séries de quatre photos qui ont été conçu de la façon suivante :

  1. La photo N°1 : fichier source
  2. La photo N°2 : fichier source + 3% de magenta
  3. La photo N°3 : fichier source + traitement augmentant la densité et la luminance des couleurs
  4. La photo N°4 : photo n°3 + 3% de magenta.

Photo 1 / Photo 2
Photo 3 / Photo 4

 L’augmentation de la luminance des couleurs sur la photo n°4
a fortement réduit la perception du magenta.

Photo 1 / Photo 2
Photo 3 / Photo 4

Ici aussi, la photo n°4 comparée à la n°2, ne s’est presque pas modifiée suite à l’application du magenta.

Cette deuxième série de 4 photos représentant le Rhin, confirme la série Papillon, ci-dessus. L’image n°3 ayant été modifiée en post production pour avoir des couleurs plus profondes, celle-ci a bien résisté à l’ajout du magenta (photo°4) 

Haut de la page

Cas particulier

Abordons maintenant les cas particuliers  des tableaux ou des aquarelles. La reproduction de ce type de sujet est un exercice très difficile. En dehors d’une approche professionnelle, il est pratiquement impossible d’obtenir une copie conforme de toutes les tendances couleurs du document. Le jaune sera par exemple bien reproduit alors que le bleu  ne le sera pas. Sans entrer dans le détail, ce phénomène est du à l’espace couleurs qui n’est pas le même sur l’aquarelle et sur la photo. Le choix d’un laboratoire local est donc primordial. Il vous permettra  d’expliquer à l’opérateur vos exigences. Celui-ci pourra alors vous proposer plusieurs solutions avant de procéder au tirage définitif. (méthode indispensable en cas d’une série de plusieurs exemplaires)

Haut de la page

 

Solutions & méthodes

On vient de le voir, face aux dominantes, toutes les photos ne se comportent pas de la même façon. Les solutions à mettre en place sont fonctions de vos exigences et de la typologie des photos :

  • Lorsque la prise de vue est réalisée en lumière artificielle, vous devrez en accepter le résultat car aucune amélioration n’est réellement possible.
  • Lorsque vos photos sont constituées de couleurs vives et contrastées,  celles-ci résisteront plus facilement à toutes dérives couleurs. La qualité sera au rendez-vous. Il faut savoir qu’il est extrêmement facile d’obtenir un bon tirage à partir d’une bonne photo. (une évidence parfois oubliée)
  • Lorsque vos photos représentent un sujet dont les couleurs sont pastels ou avec une majorité de gris, celle-ci seront alors très sensibles aux dérives. En fonction de vos exigences, il serait judicieux d’envoyer quelques exemplaires afin de s’assurer du résultat. 
  • Comme on le voit avec la série papillon, augmenter la luminance (l’éclat) d’une couleur constitue une très bonne solution pour éviter les dominantes. 
  • Les laboratoires photo, industriel ou artisanal, ont des niveaux de qualité très variable. Sélectionnez  quelques photos sensibles à la variation couleurs (exemple 1) pour les tester. Vous trouverez très vite le meilleur.
  • Pour les reproductions de tableaux ou d’aquarelles, insérez sur le coté un gris neutre afin d’aider l’opérateur dans ses réglages. Préférez le contact direct avec le technicien du laboratoire.
    Haut de la page

Jean-Claude ROMON

(respectez les droits d’auteur)
Copyright août 2017 –Copie des textes et des images est interdit sans l’autorisation de l’auteur.
Source :
Photo de l’aquarelle  : Pixabay.com

 

Publié dans Méthode, Photo argentique, Photo numérique, Prises de vue, Tirage papier, Tous les articles | Marqué avec , , , , , , , , , , , , | Laisser un commentaire

Gérer la densité des photos avec les modes d’analyse de luminosité.


Le mode d’analyse “Moyenne générale”
Le mode d’analyse “Prépondérance centrale”
Le mode d’analyse “Spot”
Le mode d’analyse “Intelligent”
Ce que propose les fabricants
 

Introduction

Note : Pour comprendre l’incidence de chaque mode sur le résultat, les photos présentées dans cet article n’ont subit aucune modification.

Pour obtenir une bonne photo, la plupart d’entre nous utilisent une exposition automatique comme  Program, Priorité Vitesse ou Ouverture. Mais parfois la densité n’est pas au rendez vous, la photo est soit trop claire soit trop foncée.  C’est le mode d’analyse de la luminosité choisi qui est très souvent responsable de ce problème. 

Il y bien sûr d’autres fonctions comme la correction d’exposition ou le réglage de la dynamique du capteur qui agissent sur la densité finale de la photo. mais cet article ne traitera que du mode d’analyse de la luminosité

Haut de la page

Les fondamentaux 

Les fabricants s’ingéniant à trouver toujours de nouvelles méthodes ou de nouvelle appellation, il  est parfois difficile de savoir à quoi correspond telle ou telle fonction, d’ou l’importance de revenir aux fondamentaux avec ces deux rappels techniques.

  1. A moins de rechercher un effet particulier, en photographie, on prend toujours un temps de pose sur les ombres.
  2. Le choix d’un mode d’analyse adapté au sujet permet d’obtenir immédiatement une photo correcte. Si vous utilisez le format Raw, le choix du mode n’a pas vraiment d’importance, en dehors du gain de temps qu’il apportera dans la phase de post-production.

Aujourd’hui, on distingue essentiellement 4 modes d’analyse qui sont :

  1. Le mode d’analyse “Moyenne générale”
  2. Le mode d’analyse “Prépondérance centrale”
  3. Le mode d’analyse “Spot”
  4. Le mode d’analyse “Intelligent”
Haut de la page

Le mode ” Moyenne Générale de l’image”

Le mode analyse “Moyenne générale” utilise un principe simple. L’appareil fait une moyenne générale de la luminosité de l’ensemble de la photo et calcule le temps d’exposition. C’est le mode le plus ancien, en argentique le photographe avait l’habitude de compenser manuellement le réglage en fonction du sujet.

Aujourd’hui ce mode existe encore sur certain appareil comme le Fuji x100.

Ce mode est performant. L’exposition est très précise pour les sujets  dont la luminosité est uniforme comme le montre la photo de gauche ci-dessous.

Photo de droite : Le mode “Moyenne générale” a été utilisé donnant à la photo une densité parfaite.
Photo de gauche : influencé par la zone d’ombre, le calculateur donne une photo trop claire ou trop dense.

Ce mode a aussi ses limites. Sur photo de droite, le cloître est trop clair alors que les piliers de la galerie sont trop sombres. Cela s’explique par la surface des ombres qui est beaucoup importante que celle des hautes lumières. Le calculateur ne peut pas trouver la bonne exposition. Il aurait été préférable d’utiliser le mode à Prépondérance centrale ou le mode Intelligent.

Haut de la page

Le mode ” Prépondérance centrale”

Le mode à prépondérance centrale est un dérivé de l’analyse moyenne ci-dessus. L’appareil fait une moyenne sur toute la photo mais optimise le centre de l’image.

Dans le comparatif ci-dessous, alors que photos sont assez similaire, Le sujet de la photo de gauche est parfaitement bien exposé, alors que pour la photo de droite, la luminosité des vitraux a influencé le calculateur en donnant un résultat trop dense.

Comparaison entre deux modes d’analyse, Prépondérance centrale à gauche, Moyenne générale à droite

Ce mode est utile chaque fois que le sujet principal reçoit un éclairement plus ou moins important par rapport au reste de l’image. Les photos de concert sont un bon exemple.

Haut de la page

Le mode spot

Ce mode fonctionne de manière très  simple, puisqu’il prend un point très précis de l’image pour calculer le temps de pose.

Il doit être utilisé avec une grande prudence et pour des sujets très particuliers.

L’exemple -ci dessous montre que l’incidence de ce mode peut-être très importante en fonction du point choisi sur l’image.

Ici, le mode spot à été utilisé. Le point de mesure de la luminosité est défini par la croix rouge.

 On le voit sur ces trois exemples, la zone mesurée est très bien exposée, ce qui n’est pas le cas de la photo dans son ensemble. Ce mode est très sensible, un simple décalage peut avoir de lourde conséquence sur la densité. Il doit être utilisé, le plus souvent avec un pied, pour mettre en valeur une zone très précise.

Haut de la page

Le mode intelligent


Ce mode est assez récent, apparu avec la photo numérique, il utilise des algorithmes de traitement d’image. Ces mini programme sont capable d’analyser une typologie du sujet.  Composition de l’image, couleurs et luminosité sont pris en compte pour déterminer le temps d’exposition

C’est la méthode d’analyse la plus performante et qui doit être utilisée en priorité. Vous devriez faire jusqu’à 90% de vos photos avec ce mode. Les photos ci-dessous montrent la diversité des sujets qui peut être photographié vie le mode intelligent.

Mais attention, l’intelligence artificielle a ses limites. Il peut être parfois nécessaire de changer de mode en fonction des explications données ci-dessus.

Haut de la page

Ce que propose les fabricants

Les fabricants ont leur propre politique en la matière.

Chacun a ses propres appellations. Par exemple, le mode d’analyse “Intelligent” sera nommé différemment selon les constructeurs :

  1. Mode d’analyse Évaluative pour le Canon EOS 80D
  2. Mode Mesure ESP numérique pour l’Olympus E M10
  3. Mode Multi pour le Fuji X100
  4. Mode d’analyse matriciel pour le Nikon D7000

Par ailleurs, les fabricants proposent un panel de solution très différent. On ne trouve pas les solutions qui ont été expliquées ici sur tous les modèles. Deux exemples

  1. Le  Fuji x100  ne propose pas de Prépondérance centrale.
  2. Le Nikon D7000  ne propose pas de Mode d’analyse Moyenne.

Enfin, chacun crée de nouveaux modes qui  sont souvent des évolutions d’un des 4 modes expliqués plus haut. Deux autres exemples:

  1. Le Nikon 7500 ajoute une prépondérance centrale Haute lumière qui améliore ces dernières
  2. L’Olympus E M10 propose 3 modes Spot appelés : Mesure ponctuelle, Mesure Ponctuelle Haute lumière et Mesure Ponctuelle Ombres.

Il convient donc de consulter le mode d’emploi de son appareil photo afin de vérifier les termes et les fonctions proposés par les fabricants.

Inutile de préciser que le risque d’erreur est proportionnel aux nombres de solutions proposées. Il arrive souvent que, par mégarde, le mode d’analyse soit modifié, il est donc important de le vérifier de temps en temps..

Haut de la page

 

Jean-Claude ROMON

(respectez les droits d’auteur)
Copyright août 2017 –Copie des textes et des images est interdit sans l’autorisation de l’auteur.
Sources :
pour écrire cet article,  j’ai utilisé les manuels des appareils suivants :
– Canon EOS 80D, 
– Olympus E-M10 Mark_II
– Nikon D5 —  D7000 — D7500 
— Fuji x100
Publié dans Photo numérique, Prises de vue, Tous les articles | Marqué avec , , , , , , , , | Laisser un commentaire

Quel mode de prise de vue choisir ?

 [kkstarratings]

Cet article a été écrit pour 4 niveaux de compétence :
Débutant : modes Auto & Scène simplifié
Confirmé : modes Auto, Program & Scène simplifié
Expert :  modes Auto, Program, Priorité vitesse & ouverture, Manuel & Scène
Pro :création des modes Scène

Introduction

Les modes de prises de vue permettent de choisir la technique la mieux adaptée au sujet que vous photographiez.

Avec le numérique, ces derniers sont devenus très nombreux et il n’est pas toujours facile de s’y retrouver. De plus les appareils d’entrée de gamme, expert ou professionnel ne proposent pas les mêmes modes.

(a) Mode de l’Olympus E-M10 Mark II

Durant toute la période argentique, le choix du mode ne concernait que la vitesse d’obturation et l’ouverture. Ces réglages, longtemps manuels, sont devenus automatiques grâce à l’électronique. Mais en pratique, la qualité finale de la photographie passait essentiellement  par le laboratoire. Le photographe n’avait une influence que sur l’exposition, c’est à dire la sous ou sur exposition de ses clichés.

Aujourd’hui, avec le numérique, la puissance des algorithmes de traitement des images a révolutionné ce processus. Le photographe reste maître de la qualité sur la totalité de la chaîne de production, d’où l’importance de sélectionner les bons modes de prise de vue.  Ne parler que des fonctions,  automatique, priorité vitesse, priorité ouverture ou manuel (qui existent depuis 30 ans) est donc très réducteur au regard de la technologie actuelle.

Note 1 : Il peut y avoir une confusion entre les modes de prise de vue et les modes créatifs. Ces derniers ne sont pas traités dans ce post.

Historique

Un petit rappel historique nous permettra de mieux comprendre l’origine de tous ces modes :

(b) Table d’exposition 1923

  • 1840  –  Les premiers photographes n’avaient qu’un seul mode de prise de vue. L’ouverture étant fixe, il jouait uniquement sur le temps de pose soit  environ 10 à 15 minutes en plein soleil. 
  • 1910 – Les appareils munis de diaphragme et obturateur arrivent. Il fallait trouver le bon réglage. Heureusement, les fabricants éditaient des tables de temps de pose (b).
  • 1960 – L’opérateur est aidé par  la cellule photo électrique (appelée aussi posemètre) avec laquelle il mesurait, à la main, la quantité de lumière.
  • 1965 – Arrivent les appareils TTL qui possèdent une cellule incorporée pour mesurer la lumière et donner l’indication dans le viseur.
  •  1980 –  l’électronique arrive avec les premiers automatismes,  Priorité vitesse, Priorité ouverture qui viennent s’ajouter au mode Manuel.
  • 1990 – Le nombre de modes augmente avec l’intégration de fonction comme Portrait, paysage, panorama, nuit, sport. L’appareil propose alors le meilleur couple Vitesse/Ouverture.
  •  2000 – Le numérique apporte 2 modes supplémentaires : le mode Automatique et le mode Program.
  • 2015 – L’arrivée en masse de mini programmes ont amené une profusion de modes Scène. Ils utilisent un algorithme de traitement d’image spécifique à chaque scène et améliorent souvent de manière importante la qualité finale de la photo.

Aujourd’hui, quel sont les modes proposés ?

Nous retrouvons sur les appareils numériques de dernière génération tous les modes cités ci-dessus, ainsi que quelques-autres. Devant cette profusion de fonctions, se pose la question de leur utilisation.

Le nombre de modes proposé peut varier d’un appareil à l’autre. Vous trouverez ci-dessous la répartition des modes par type d’appareil :

  1. Automatique (Appareils Débutant et Confirmé)
  2. Programme (Confirmé et Expert)
  3. Priorité vitesse (Expert et Pro)
  4. Priorité ouverture (Expert et Pro)
  5. Manuel (assisté d’une cellule) ( Expert et Pro)
  6. Les modes Scène  (tous les appareils sauf Pro)
  Haut de la page

Quel mode choisir ?

Note 2 : Pour respecter l’esprit de ce blog, les explications des modes est faite par niveau de compétence. Ceci étant, certain modèle dispose de toutes les fonctions. Vous en retrouverez  facilement les explications via la couleur bleue du texte.

Débutant : mode Automatique &  Scène simplifié

Les fabricants souhaitent rendre l’utilisation des appareils  “Entrée de gamme”, le plus simple possible. Il y a donc très peu de mode, généralement un mode automatique et un mode Scène simplifié destiné aux vues plus complexes.

  1. Le mode Automatique est le mode à privilégier pour la plupart des photos. (y compris pour les photographes plus expérimentés qui l’utiliseront dans l’urgence.) Le résultat est assuré, hormis pour les vues plus complexes (sport, les photos de nuit, feu d’artifice, etc.) pour lesquelles les modes Scène ci-dessous devront être utilisés.
  2. Le mode Scène simplifié : dans les appareils de cette gamme, il remplacera les réglages comme Priorité ouverture ou vitesse plus difficile à gérer pour un néophyte. L’utilisateur trouvera des modes  comme  Sport, Portrait, Faible lumière ou Feux d’artifice. Ces fonctions doivent  absolument être utilisées.  Elles sont performantes et contrôlent automatiquement vitesse & ouverture pour le sujet en question.
Haut de la page

 Confirmé : mode Auto, Program & Scène simplifié

(c) Canon SX 240

Comme on le voit sur le schéma (c), les appareils plus évolués dispose du mode Program (4) qui vient s’ajouter au mode Auto (2) et au mode Scène (3). Comme son nom l’indique, le mode Program va vous permettre d’accéder aux réglages de l’appareil tout en vous assurant une bonne exposition. Les principaux avantages de cette fonction sont  :

  1. Automatisation de l’exposition et blocage de l’appareil en cas de sous ou sur exposition.
  2. Possibilité de changer le couple Vitesse / Ouverture via une molette.
  3. Accès à tous les autres réglages de l’appareil : Sensibilité Iso, Balance des blancs, Correction d’exposition, Méthode de mesure, etc.
Haut de la page

Expert : l’équipement le plus complet

Ce sont les appareils Expert qui proposent le maximum de possibilités, notamment grâce à d’innombrables modes Scène. Outre les fonctions Auto et Program (expliqués plus haut), l’appareil offre les priorités vitesse / ouverture et le mode manuel.

Descriptif des modes d’un modèle “haut de gamme”, le Nikon D7000

  • Mode Auto : voir § débutant
  • Mode  Program : voir § confirmé
  • Priorité Vitesse : c’est la plus ancienne fonction “dite automatique” qui est apparue en 1976, notamment chez Canon.  Le temps d’exposition est choisi manuellement et l’appareil détermine l’ouverture correspondante. Cela permet de sélectionner très précisément la vitesse en fonction du sujet photographié, principalement pour les photos de sport. Pour plus d’informations, consultez mon post sur le choix de la vitesse.
  • Priorité Ouverture : vous choisirez cette fonction si votre sujet ne nécessite pas de vitesse précise.
    En contre partie, vous allez pouvoir gérer la distance entre le Premier Plan Net (PPN) et le Dernier Plan Net (DPN). Je parle ici de la profondeur de champ (voir ci-dessous note 3) qui correspond à l’espace net entre ces deux plans. Elle dépend de quatre éléments :
    – Le format du film ou du capteur,
    – La focale,
    – L’ouverture,
    – La distance appareil sujet.    
                    
    Mais la variation de l’ouverture, à elle seule, permet un changement important de la distance entre le PPN et DPN . A titre d’exemple :

avec capteur APS C, une focale de 31 mm et un sujet à 3 mètres on obtiendra
la profondeur de champ suivantes:

– F/4 : distance nette env. 1.50 m  – soit de 2.50 m à 4.00 m –
– F/8 : distance nette env. 3.00 m –  soit de 2.00 m à 5.00 m –
– F/16 : distance nette de 1.50 m à l’infini –

Ces valeurs sont approximatives, bien qu’assez proche de la réalité. Elles permettent surtout de comprendre l’influence d’une ouverture sur une profondeur de champ. Le choix de l’ouverture permet donc d’obtenir un style précis de photo comme par exemple un paysage avec un premier plan net ou un portrait avec un fond flou

Note 3 : La profondeur de champ n’est qu’une notion relative qui dépend du degré de netteté exigé. D’autres éléments entre en ligne de compte comme le pouvoir séparateur de l’œil et la distance de visualisation de la photo. Un post complet sera écrit prochainement sur ce sujet.
  • Le mode manuel :  Il permet de débrayer complètement l’appareil photo tout en ayant comme point de repaire les informations de la cellule. Le matériel ne disposant pas d’intelligence, il est fréquent pour un expert ou un professionnel de vouloir prendre la main pour modifier le réglage proposé par l’appareil. Ce mode vous permet aussi d’accéder aux poses longues supérieures à la seconde via 3 méthodes :
    – Sélectionner un temps précis jusqu’à 30 ou 60 secondes, l’appareil vous indiquant la valeur d’ouverture correspondante
    – La pose B (idéal pour un feu d’artifice)
    – La pose T (idéal pour le mouvement des étoiles)
  • Les modes Scène : Ils constituent la plus grande avancée technique de l’ère numérique.

Liste des scènes de l’Olympus E-M10 Mark II
Ils constituent la plus grande avancée technique de l’ère numérique.

Chacun de ces modes constitue une sorte de mini logiciel. Ils sont créés pour répondre très précisément aux contraintes d’un sujet. Ils automatisent la prise de vue en prenant en charge vitesse & ouverture auxquels sont ajoutés des algorithmes de traitement d’image, afin d’améliorer très sensiblement le résultat.

Ces modes Scène sont très performants et constituent aujourd’hui une pièce maîtresse dans l’utilisation de votre appareil photo.

Cette méthode n’est pas nouvelle. Aujourd’hui à la disposition du grand public, le principe a été utilisé, dès les années 1990, par les grands laboratoires de façonnage . Leurs scanners de production intégraient déjà des données “types images” qui permettaient de détecter, les contre-jours, les couchés de soleil, les photos prises sur l’herbe, etc.

Haut de la page

Professionnel : pas de mode Auto ni Scène

Le matériel professionnel ne dispose pas des automatismes Auto et Scène, qui ont été créés pour assister le grand public. 

Le matériel professionnel comme le Nikon D5 ne propose pas de mode Auto ou Scène

Le Nikon D5 ne propose que 4 modes de prise de vue. (déjà expliqués plus haut)
– Programme
– Priorité vitesse
– Priorité ouverture
– Manuel 

Le mode Création de Scène :  par contre il aura la possibilté de créer lui-même ses modes Scène. Chez Nikon, la fonction  s’appelle”Picture control” :
Au départ d’une base existante comme Standard, Neutre, Saturé ou Monochrome, il est possible de modifier les éléments  Clarté, Contraste, Luminosité ou Teinte.

Il suffit ensuite de l’enregistrer avec un nom approprié pour créer une scène. Le professionnel n’utilise donc pas de mode scène pré-programmée et encore moins de mode Auto intégral. 

Haut de la page

Jean-Claude ROMON

(respectez les droits d’auteur)
Copyright juillet 2017 –Copie des textes et des images est interdit sans l’autorisation de l’auteur.
Sources :
pour écrire cet article,  j’ai utilisé les manuels des appareils suivants :
– Canon EOS 80D, — 
IXUS 175 — PowerShot SX420 IS 
– Olympus E-M10 Mark_II
– Nikon B500 —  D5 —  D7000 — D7500 —  L100
– Panasonic lumix GF7

 

Publié dans Prises de vue, Tous les articles | Marqué avec , , , , , , , , , | Laisser un commentaire

Analyse de prise de vue : photo culinaire

[kkstarratings]

Voici une nouvelle rubrique qui devrait, via l’analyse d’une prise de vue, vous aider à améliorer vos photos.

Au départ d’une photo, j’examine les points positifs et négatifs de la réalisation, apportant les solutions tant au niveau de la prise de vue que de la post-production.

Prise de vue culinaire : les fruits rouges

Conditions de Prise de vue
Capteur Olympus 4/3 – Focale 30 mm – 1/160 à ƒ/8.0 -Iso 200 – Flash non déclenché -Correction exposition : 0 EV – Espace couleurs : sRGB – Mode d’exposition : Auto – Balance des blancs : Auto – Mode scène : aucun.

Points positifs.
Dans cette prise de vue, plusieurs éléments sont positifs  :

  1. La partie réalisation du sujet lui-même et sa position par rapport à l’appareil sont pour moi tout à fait correct.
  2. Réalisée sans flash, l’éclairage est très bon. C’est l’avantage d’une prise de vue à faite à l’extérieur.
  3. Equilibre couleurs : le réglage de la balance des blancs sur auto était une bonne solution.

Points négatifs
Ici, le sujet est placé beaucoup trop bas sur la photo. La forme carré du sujet, lui même placé dans un format 3/4, pose un problème qu’il faut résoudre.

  1. Le sujet, trop près des bords, met en opposition les deux formats, carré et rectangulaire. Il aurait fallu reculer un peu.
  2. Le sujet étant placé dans la partie basse de la photo, il manque d’assise. Dans ce type de prise de vue, la partie haute doit toujours être moins importante que la basse.
  3. L’axe n’est pas correct, l’appareil étant, lui aussi, trop haut. En le plaçant plus bas, on donnerait plus de volume aux fruits rouges. De plus, cela réglerait en grande partie les points 1 & 2,  expliqués ci-dessus. 

Notez que la netteté de la photo est inférieure à la réalité du fait de la conversion en basse résolution du fichier destiné à ce blog.

Post- Production
La partie cadrage abaisse beaucoup la qualité de la prise de vue. Un traitement via un logiciel de retouche s’impose pour recadrer l’image. Deux possibilités s’offrent à nous. 

  1. Un cadrage carré, puisque le sujet est carré.
  2. Un cadrage rectangulaire, sur les fruits eux-même afin de profiter de la diagonale générée par les fraises

 

 

 

 

 

 

 

Si la photo est destinée à Internet, on profitera de la post production pour améliorer le contraste.

1- Photo de gauche : original
2- Photo de droite : la valeur des blancs a été légèrement diminuée afin de rendre la photo plus lumineuse. Ce réglage augmente aussi la netteté générale de l’image.

Jean-Claude 

(respectez les droits d’auteur)
Copyright juin 2017 – Copie des textes et des images est interdit sans l’autorisation de l’auteur.
Publié dans Analyse de prise de vue, Prises de vue, Tous les articles | Marqué avec , , , | Un commentaire

Capteur : une révolution se profile à l’horizon.

[kkstarratings]

Le centre de recherche de Microsoft vient de  mettre au point une nouvelle technologie de capteur.  Ces derniers sont incurvés et pourraient révolutionner la photographie et peut-être même son modèle économique. 

Le problème

Depuis que la photographie existe, les lentilles qui équipent les objectifs posent le problème de multiples aberrations. Parmi celle-ci, la courbure de champ montre qu’une lentille ne projette pas une image plate mais légèrement incurvée. Sur un film ou un capteur qui par nature est plat, il est donc impossible d’obtenir une image parfaitement nette, à la fois au centre et sur les bords. Étant donné qu’il n’a jamais été possible de courber un film ou un capteur, la solution est arrivée par l’otique, La correction de cette aberration demandant au moins 3 lentilles. 

Fig. 2 : La rétine de l’œil (A) est incurvée et composée de cellules photo-réceptrices, ce qui explique que la vision soit totalement nette, à la fois au centre et sur les bords.  Pour arriver à un résultat similaire, les objectifs classiques demandent une fabrication complexe car il projette l’image sur une surface plane. La technique mise au point par Microsoft, en courbant les capteurs (B), pourrait révolutionner la photographie.

La courbure de champ s’accentue avec l’ouverture de l’objectif. C’est la raison pour laquelle une optique de 50 mm, avec une ouverture de f/1,8 coûte dix fois moins cher que celle ayant une ouverture à f/1,2. On comprend alors les difficultés de fabrication auxquels sont confrontés les fabricants, sans pour autant régler totalement le phénomène.

Le gain  de qualité obtenu via un plan incurvé est connu depuis très longtemps. Les manuels photo des années 70 en parlaient déjà. Il y a quelques années, les grands noms de la photo, Canon, Nikon, Sony ont réalisé des travaux sur ces capteurs incurvés. Travaux qui n’ont pas abouti, les capteurs n’étant pas très flexibles se brisaient avant d’avoir obtenu la courbure nécessaire.

C’est l’étape que vient de franchir le centre de recherche de Microsoft. Ils ont imaginé un système permettant de courber un capteur  grâce à un procédé pneumatique, évitant ainsi les contraintes mécaniques. De plus ce procédé qui ne remet pas en question la conception du capteur, est compatible avec une industrialisation de la fabrication. L’équipe a pu fabriquer un appareil numérique prototype équipé d’un capteur incurvé pour réaliser des tests comparatifs avec un Canon 1DS Mark III équipé d’un 50 mm F/1.2, (un  équipement professionnel qui représente un investissement de plusieurs milliers d’Euros). Le capteur utilisé était un modèle 1/2.3 identique à ceux qui équipent les téléphones portables.

Les résultats

Le résultat est sans appel. La qualité obtenue avec un capteur incurvé est très supérieure à un équipement professionnel :

  1. Une homogénéité parfaite de la luminosité sur le capteur. il perd 1% de luminosité dans les angles alors que le Canon en perd 93,5%.
  2. Une netteté 5 x supérieure sur les bords et 3x supérieure dans les angles.
  3. Un gain de résolution de 30%.
  4. La possibilité de fabriquer des objectifs avec une ouverture de F/1.0 ce qui augmente les possibilités de prise de vue en faible lumière.

Ce test pose malgré tout une question qui aurait pu modifier légèrement les résultats. : Y avait-il une différence dans la qualité optique de ces deux appareils ? 

L’avenir

Cette avancée technologique, si elle est commercialisée, permettra la conception d’une nouvelle génération de matériels ultra performants notamment en photographie numérique. La fabrication des optiques sera beaucoup plus simple, intégrant beaucoup moins de lentille. Les appareils destinés au grand public offriraient  des résultats bien supérieurs aux équipements professionnels ce qui pourraient modifier le modèle économique de la profession.

Il existe tout de même une contrainte technique importante. Un capteur incurvé ne fonctionnera qu’avec une focale fixe dédiée, car la courbure est calculée en fonction de la focale de l’objectif. On comprend que l’utilisation d’un zoom ne sera pas possible. Les appareils concernés sont les focales fixes comme le Fuji x100 ou le Leica Q ainsi que toute la gamme des smartphones.

Malgré tout, il s’agit d’une avancée majeure, la plus importante que le secteur optique de la photo ait connu. Reste à savoir quelle sera la stratégie de Microsoft face à cette (R)évolution ?

Jean-Claude 

(respectez les droits d’auteur)
Copyright juin 2017 – Copie des textes et des images est interdit sans l’autorisation de l’auteur.
Sources : 
Microsoft Research Blog
OSA Publishing
– Photocounter
Publié dans Actualité, Evolution technique, Photo numérique, Prises de vue, Tous les articles | Laisser un commentaire