RGBワークフローとは何か
RGBワークフローとは、Aurélien PIERREさんが提唱している全く新しい、RAW現像の方法(ワークフロー)です。RGBワークフローは、2018年12月にdarktable2.6で一部採用されましたが、一部にバグがあったり、また、操作がわかりにくいといことで、全面的にソースの書き直しがなされ、2019年のクリスマスに正式リリースされたdarktable3.0から、全面的に採用されました。
2020年1月時点でRGBワークフローを採用しているRAW現像ソフトは、darktable3.0だけです。RGBワークフローによるRAW現像をしようと思ったら、darktable3.0が唯一の選択肢になります。
このブログでは、既に、darktableの紹介を行ってきました。darltable3.0では、従来のLabワークフローと新しいRGBワークフローの2種類のワークフローが使えます。一部のモジュールは、どちらかのワークフローを前提とししている専用になっています。たとえば、ベースカーブモジュールはLabワークフロー専用になります。フィルミックRGBモジュールは、RGBワークフロー専用になります。しかしながら、実際の操作では、まず、ベースカーブモジュールを使って、そのあとで、フィルミックRGBモジュールをつかっても、操作上は何もエラーが表示されません。筆者は、最初はこのことに気づかず、過去のブログでは、この点で不適切な部分もあります。
つまり、RGBワークフローでRAW現像するには、RGBワークフローを理解した上で、darktableを使う必要があります。そこで、今回からは、筆者の理解している範囲でRGBワークフローの説明を試みます。
今回は初回なので、理論は後回しにして、実際にRGBワークフローの例を示して、そのメリットを紹介します。
RGBワークフローの前提条件
RGBワークフローは、汎用のRAW現像のワークフローですべてのRAW現像に使うことができます。しかし、従来のLabワークフローと比べてその優位性が大きくなる条件は、ダイナミックレンジが広い画像です。
ダイナミックレンジの狭い画像では、LabワークフローとRGBワークフローの差は小さくなります。
ダイナミックレンジの広い画像とは、ダイナミックレンジの白いセンサーを積んだカメラで、明暗の差の大きいシーンを撮影したRAW画像になります。
PIERREさんの解説では、2019年現在で、ダイナミックレンジの最も広いセンサーを積んだカメラとして、Nikon D7200、D750、D810、D850、Sony A7、A7 RIII、Hasselblad X1D、Pentax K1、645zのフルサイズ以上のセンサーを積んだ新しい機種が撮りあげられており、そのレンジ15EVとしています。ここに、Canonは入っていませんので、要するにSony製の新しいフルサーズセンサーを積んだ機種ということになります。
一方、PIERREさんのyou tubeで取りあげられているRAW画像の一部は、ネット上で公開されていて、その画像情報を見ると次のようになっています。三脚の写真はFujifilm X100S、犬の写真はSony ILCE-6000です。これからAPS-Cセンサーのカメラでも、RGBワークフローの効果は十分にでることがわかります。とはいっても、APS-Cでも新しいセンサーの方が、ダイナミックレンジは大きいので、センサーは新しい方が効果が期待できます。
また、2枚の写真は共に、フレームの中に太陽が入っているので、ダイナミックレンジの広い写真をとるには、太陽がフレームに入った逆光写真が効果的なことがわかります。
RGBワークフローに使い写真は、白飛びがしない範囲で、最大に明るい露出をとることがよいとされています。これは、人間の目の光の強度に対する反応が対数的に効くので、目にとっては画像の明るい部分の情報量が暗い部分よりおおきくなること、一方、白飛びした部分には、センサーの情報がないことから、当然の要求を言えます。とはいえ、フレーム内に太陽をいれた場合には、太陽の部分が白飛びすることは不可避なので、白飛びしないという条件は、満たせず、白飛びが太陽の周りの一部に抑えられているという条件で手を打つしかありません。
RGBワークフローの効果とは
さて、条件がわかったので、手持ちのカメラで、RGBワークフローの効果が出そうな写真を撮って効果を検証してみます。
筆者のカメラは、APS-Cです。そのうちに、フルサイズに移行しようとおもっていたら、病気になってしまい、ASPーCでもミラー付きは、重すぎるという状態になってしまったため、現在の主要な機材は、ミラーレスのAPS-Cとマイクロ43になっています。この中で、ダイナミックレンジが一番大きそうな機種は、一番最後に購入したfujifilmのXF-10なので、機材はこれにします。
次に、撮影シーンは、いつもいく公園の逆光シーンにしました。既に、過去のこのブログで、何回も使った公園です。ホワイトバランスの説明のために、夕焼けシーンを撮影したこともあります。今回は、日没より時間が少し早かったので、太陽は少し高い位置にあります。
撮影は、風景写真の鉄則通り、絞り優先で、F8にしました。
問題は露出です。こうして、RAW現像ソフトを使っていると、RAWの露出と、Jpegの露出が分離できないのでは、カメラとしてありえない仕様であると思いますが、ここはRAW優先で考えることにします。なお、オリンパスのカメラでは、RAWとJpegの間の調整が少しできたと思います。白飛びが怖いので、露出は-1EVに設定しました。こうすると、撮ってだしのJpegは使えないことになります。
dardtableのRGBワークフローの中心モジュールは、グローバルトーンマッピングをする「フィルミックRGB」とローカルトーンマッピングをする「トーンイコライザー」になります。最初は、「トーンイコライザー」を使わない処理で作業を進めたのですが、Labワークフローで、「シャドウとハイライト」モジュールを使っていたことに気づきました。「シャドウとハイライト」モジュールはローカルトーンマッピングの効果があるのです。ですから、以下では次の条件で比較しています。
-
RGBワークフロー:「露光」「フィルミックRGB」「トーンイコライザー」
-
Labワークフロー:「露光」「コントラスト 明るさ 彩度」「シャドウとハイライト」
-
カメラ内現像:「露光」「シャドウ」「ハイライト」
ワークフローの比較結果
サンプル1(RGBワークフロー)
サンプル2(Labワークフロー)
サンプル3(カメラ内現像)
比較の中心は、ダイナミックレンジが再現されているかという点になります。
一番下のカメラ内現像が一番見慣れた表現であると思います。露出は、+1.33EVでマニュアルで現像しています。また、「シャドウ」「ハイライト」はソフトにしてして、見やすくしています。明るい部分では、太陽は飛んでいますが、その周辺の空は、それなりに、濃淡が保存されています。暗い部分は、水際にあり、正面、右、左に大きく分かれます。左の中央よりはそれなりに、濃淡が見えますが、左の手前では、判別が困難です。さらに、右側は黒くて識別は困難です。ここでは、ローカルトーンマップが不十分なのです。
2番目のLabワークフローが、今までのいわゆるRAW現像ソフトの現像に対応します。カメラ内現像に比べて、水際の暗所は、判別できるようになっています。一方、明るい部分は、太陽の周りが飛んでしまっています。また、「シャドウとハイライト」モジュールはフィルターをかけるので、細かなグラデーションが失われます。いわゆるHDR風の画像は、ローカルトーンマッピングをつかっているので、細部が誇張された表現になります。こうした画像になれてしまうと、Labワークフォローの写真が一見良い写真のように見えてしまいますが、よく見れば中間トーンが失われています。
カメラ内現像も、Labワークフローも、最初のグローバルトーンマッピングにはベースカーブを使用しています。ベースカーブを使用することで、ダイナミックレンジが失われているというのが、 PIERREさんの指摘です。ダイナミックレンジが失われると、太陽周辺の明るい部分と水際の暗所の双方を同時にひょうげんすることができなくなります。「シャドウとハイライト」モジュールや、「シャドウ」「ハイライト」パラメータでローカルトーンマッピングを修正することで、見かけ上は多少よくなったように見えますが、本質的には、解決にはなりません。
一番目のRGBワークフローでは、太陽の周りの濃淡が保存されています。また、水際の暗所もそれなりに見えるようになっています。さらに、中間トーンが残っています。
このようにRGBワークフローは非常に強力です。一度、RGBワークフローを使うと、もう、Labワークフローには戻れないと感じています。
次回以降は、背景にある露出とゾーンシステムから初めて、RGBワークフローの考え方を説明します。