今さら聞けない HDRとは何か?
引用元:https://news.ycombinator.com/item?id=43983871
PhDで光学も学んだのにカメラの仕組み知らなかったんだよねー。WaymoとかMotionalでの仕事でめっちゃ大事だった。HDRの面白いビデオと
Marc Levoyのデジタル写真の講義動画を紹介するね。彼はGoogle Pixelカメラを最高にしたすごい人だよ。
Sony以外のスマホとSonyので火を撮り比べてみなよ。特にSamsungは炎の色補正が全然ダメで、本物と全然違うから。
Excel使ったKevin Chenのビデオ、めっちゃすごくて笑えた!ありがとうね。
Pixelのカメラってハードウェアの話?ソフトウェア?センサーってSonyだけが作ってるんじゃないの?
Samsungもスマホのセンサー作ってるよ。たしか一部のPixelはSamsungの使ってるはず。
Canonは自分でセンサー作ってると思う。Nikonは設計して別の会社に作らせてる(SonyとかSamsung以外)。PentaxとかPanasonicとかOMDは知らないや。
チップ工場マジで高いからCanonくらいしか自分で作れないんだと思う。Sonyはほとんどみんなにセンサー供給してる。でもNikonとかはSony製のセンサーでSony自身よりSN比良いのが知られてる。Panasonicは前は自社製だったけど分社化された。LeicaはSonyセンサーって噂があるけど否定されてる。前はCMOSISってとこからも買ってたみたいだよ。
Sonyってセンサーの世界だとASMLみたいな存在なの?
まさにそれだね。
(Marc Levoyは)主にソフト担当だったけど、どのセンサーとかプロセッサ使うかの決定にもめっちゃ口出ししてたみたいだよ。
自然な視覚は場面をスキャンして調整しながら合成するけど、ゲームの”HDR”やDepth of Fieldみたいな効果は、視線追跡しないせいで不自然な色やボケが生じてリアルさを損ねてるんだ。想定した場所に視線が合ってないと変に見える。視線追跡が標準にならないとこの問題は続くと思うよ。
結局、これらの機能ってその場にいる感じじゃなく、欠陥カメラで撮った中古の映画みたいに見えるんだよね。
この投稿が15年前ってすごいな。HDRってキャプチャ、保存、表示とか複数の意味があって、今の状況をうまく表してない広告用語みたい。ゲームでレンズフレアやDepth of Fieldを使うのはカメラの模倣で現実とは違うけど、映画とかで慣れてるから視覚的な省略記号として機能するんだ。24fpsが”filmic”に感じる現象もあるよね。
ゲームで明るさとか設定させるのは、みんなに一貫した体験を提供するため。友達はジャンプスケア避けるために明るさ最大にしてたよ。マルチプレイでの有利不利を防ぐためでもあるね。
レンズフレアやDepth of Field、モーションブラーは人間の視覚にもあるけど、ゲームの問題は視線追跡しないシミュレーションだってこと。今の技術で tasteful に適用するのが良いかもね。
24fpsが”filmic”に感じるって話は理解できない。あれは音声記録のためのコスト削減で生まれた技術的な制約なんだ。昔はもっと高フレームレートだったし、手回し時代の妥協策にしがみついてるだけだよ。
画面で見てるものとゲーム内のカメラが見てるものの不一致が問題だよね。これが完璧に同期したら問題ないんだけど。
うーん、この効果への執着は理解できないな。レンズフレアとかモーションブラー、フレームレートなんかは機材に制約された芸術的な選択で、トレンドに従うと思うよ。俺の経験上、人間の視覚体験について語られることって少ない。アスペクト比のトレンドも同じで、今はワイドスクリーンの方が”filmic”に見える。
高フレームレートは別のスタイルと考えるべき。モーションスムージングが映像を濁らせるのが不満なだけだな。
現代の速いディスプレイだと、24fpsとか30fpsはモーションスムージングなしだと”発作を誘発するレベルで見れたもんじゃない”んだ。見ててすごく不快だし、こんなフレームレート使い続けるのは無責任だと思うよ。120Hzが普通になってきてるんだから、せめて60Hzを一般コンテンツの最低ラインにすべき。
アスペクト比は物理的な実用性だけだと思うな。映画館のスクリーンは建物に収まらなきゃいけないとか、経済性とかで決まるんだ。
現代ディスプレイで24fpsがダメになったって話、ちょっと分かんないな。CRTから移行してだいぶ良くなったし、テレビだとフレームレートマッチングも進んでるよ。120Hzなら24とか30とか60で割り切れるから問題ないしね。
クレジットみたいなスクロールは難しいケースだけど、制約の中で工夫してるんだ。アスペクト比が物理的な実用性だけって意見にも納得いかないな、コストとか美的理由もあったでしょ。業界も観客も24fpsにホント愛着があるんだよね。フレームレートそのものより、モーションブラーに愛着があるのかもって思うことがあるよ。
DOFはわかるけど、なんでHDRがゲームの画質を落とすと思うの?良い画面(OLEDとか)だと、明るいところはもっと明るいし、同時に暗いところの細かい部分もよく見えるでしょ。それがSDRより劣るってのはなんで?
この昔の記事見てみてよ:https://www.realtimerendering.com/blog/thought-for-the-day/
ゲームでのHDRってのは、よくハイライトをクリッピングしたりブルームを加えることだったんだ。それ以前の”HDR”表現は結構平坦に見えたね。
それは違うよ、2016年くらいから家庭用テレビがちゃんと明るい白や色を出せるようになってからね。今は確実に、ここ8・9年はずっと、ディテールを追加してるんだ。まあ、家庭用テレビはまだ現実世界ほどピークが明るくないけどね。(太陽みたいに目が焼けるのは嫌だけど、今の500-700nitより1-2000nitくらいは欲しいかもね)。
OK、ってことはあれは本物のHDRじゃなくて、シミュレーションだったってことね。たぶん、ちゃんとしたHDR対応が3Dエンジンで普通になれば、その問題はなくなるんだろうね。
そうだね。記事にもある通り、HDRは漠然としすぎてて特定の意味を持たず、製品に貼られるラベルみたいなもんだ。ゲームでは、光と露出を別々にシミュレーションすることを意味することが多かった―前は表示されてたハイライトをクリッピングするってこと。彼らが言うには、画質を下げてるってわけだね。DOFが前はボケなかったものをボカすのと一緒だよ。
それはワールドデータの方ではHDRだけど、画面に出すときはSDRってことだね。フィルムが現実の広いダイナミックレンジを扱えなくて、圧縮じゃなくてクリッピングしちゃうやり方を真似してるんだ。「HDR」写真みたいに圧縮じゃなくてね。
> Instead of compressing it like ”HDR” in photography
それはHDRじゃないよ、SDRに変換するためのトーンマッピングだよ。HDRのホントの意味は、画面がそのたくさんの情報を使えるから圧縮がいらないってことなんだ。最近のスマホは、HDR画面で見るとすごくきれいなちゃんとしたHDR写真を撮れるよ。
ここで言う「HDR」は、「SDRに変換するトーンマッピング」って意味合いだね。それに、「H」DR画面でも、現実世界のコントラストが高い場面と比べたら、まだ1〜2ストップしか範囲がないってことも言っとくべきだね。
でもそれでも前よりずっと良いんだよ。HDR画面は1000nits以上だけど、SDRは一番良い画面でも500nits以下で止まっちゃうんだ。例えばSamsung s90cだと、HDRは1022nits、SDRは487nitsだよ。
https://www.rtings.com/tv/reviews/samsung/s90c-oled#test_608
https://www.rtings.com/tv/reviews/samsung/s90c-oled#test_4
倍の広さがあるってのは絶対良いことだよ。それに8bitじゃなくて10bitだから、色がおかしくなる(posterization)のも少ない。今まで実装がダメダメだったとしても、追いかける価値ない技術じゃないってことさ。
いやー、これさあ、最初のアバター映画で引っかかったことの一つなんだよね。映像は見るものいっぱいあって超クールなんだけど、何一つピント合ってない感じがして。10分で十分だってなって、もっと普通の映画見たい気分になったよ。確かに最初の10分はすごいんだけど、あとは疲れるだけだったな。
この記事読んでさあ、3D映画ってなんで2D映画より「3Dっぽくない」っていつも思ってたのか分かった気がするわ。それに、Avatar 1を3Dで見て、10年以上経ってAvatar 2を3Dで見ても、3Dの進化が全然感じられなかったから、個人的にはもう3D映画は終わりだ!って宣言したんだよね(並べて比較したわけじゃないけどさ)。
過去に3Dが盛り上がった時(例えばAvatarが映画館で出た時とか、15年くらい前に3Dテレビが一時流行った時とか)、俺も同じような不満あったんだよね。ハリウッドは没入する自由をくれたかと思えば、同時にその自由を制限して特定のものを特定の見方で見させようとしてる気がして。具体的な解決策は分からないけど、人が見てるものを本当にリアルだって思わせたいなら、映画より舞台演出から学ぶべきなんだなって思ったよ。
ステレオフィルム(3D映画)には独自の限界があるんだよね。悲しいことに、ステレオ撮影は高価で、プレミアム料金取るために劇場で映すためだけに手を抜くことが多かったんだ。ホームビデオはいつも悪夢だったよ―誰もメガネなんてかけたくないし(メガネなし3Dテレビは視野角がめちゃ狭かった)。
分かりにくいかもしれないけど、映画には視覚言語があるんだ。初期の映画を見ると、カットが変わったときに観客が何を理解してるか明らかじゃなかった。一つの物から別の物へパンする動作は、それらの間に繋がりがあることを示唆してる。これは静止画の視覚言語(三分割法とか、コントラストや色で視線を誘導するとか)に基づいてるんだ。全部、人の視線を誘導してるんだよね。
ステレオフィルムにはまだ探求中の独自の限界があった。普通の映画なら、前景から背景にラックフォーカスして繋がるところを、ステレオだと人々は同じようにカメラを追わないんだ。普通の映画なら、ショットの前景に誰かの後ろ姿を見せて、腰から下を切ってもいい。でもステレオだと、それは変に見えるんだ。
何かを提示するときは、それが演劇だろうと映画だろうとステレオショーだろうと、常に誰がどこを見ているか誘導してるんだよ。ただ、そのためのツールが媒体に合わせて調整されてるだけなんだ。
AvatarとかHow to Train Your Dragonみたいな映画にはずいぶんうまく機能してたと思うけど、ラブコメみたいなのにはあまり印象的じゃなかったね。
もっとコメントを表示(1)
HDRって言っても、”HDR”じゃなくてちゃんとしたHDRは、過去10年でゲームのビジュアルで一番大きな進歩だと思うな。
もちろん、いいHDR対応ディスプレイとネイティブHDRゲーム(またはRTX HDR)は必要だけど、結果はめっちゃすごいよ。
こういうエフェクトはゲームの芸術的な意図のためなんだよ。映画も同じで、「欠陥のあるカメラで録画された中古の映画」とは全く関係ないし、俺たちが世界をどう認識するかという意味での「リアリズム」とも関係ないんだ。
これがさあ、ビデオゲームを初めて起動した時に、いつもこういう設定を即オフにする理由なんだよね。なんで嫌いなのかピンと来なかったんだけど、カメラの例えは完璧だわ。
HDRキャプチャ、HDRフォーマット、HDRディスプレイを一緒くたにするのは間違いみたいだね、これらは全然違うものだから。アンセル・アダムスがHDRを使ったっていう主張はめちゃくちゃ混乱を招く可能性が高いし、あんまり正確じゃないよ。
HDRディスプレイが登場するずっと前から、HDRフォーマットやHDRキャプチャ・編集ワークフローは存在してたんだ。HDRキャプチャ&フォーマットの大きな利点は、君の「ネガ」が超明るい色をクリップせず、超暗い色で色の解像度を失わないことだ。写真家としては、HDRがあればディスプレイ/プリント時に画像を再露光できるけど、以前はそれは不可能だった。以前は写真を撮った時、もし露出オーバーやアンダーだったら、撮れたもので我慢するしかなかったんだ。HDRでキャプチャすることで、写真家は後から露出を調整できるという一つの自由度が増えるんだ。アンセル・アダムスは俺たちが話してるのと同じ意味でHDRを使っていたわけじゃない、彼は自分の媒体にとって適切な露出を後から調整する必要なく捉えるのが本当に上手だっただけだ。求めてるものを捉えるために前段階で仕事をするのが非常に有効だという議論は確かにあるけど、それは一旦置いておくとして、アダムスのネガを再露光して彼が捉えなかった色の詳細を引き出すことは単純に不可能なんだ。だから彼はHDRを使ってるわけじゃないし、そうだと言うのはただ話をさらにややこしくするだけだよ。
>”Ansel AdamsがHDRを使った”って主張は超紛らわしいって言うけど,記事はそう言ってないよ.記事は”Ansel Adamsは20世紀で一番尊敬されてる写真家の一人で,劇的な,high dynamic rangeのシーンを捉える達人だった”って言ってるだけ.”Use HDR”(あなたの言葉ね)は漠然としてて意味不明だけど,記事はAdamsがhigh dynamic rangeなシーンを捉えてたって明確に言ってて,それは客観的に正しいことだよ.
あなたが引用した文の直前の文章に,”アナログラッパーは1857年にはHDRを捉えてたって言ったらどう?”ってあるじゃん.
そもそもHDRを別のものとして考えること自体が変で不正確かもね.
全てのメディアにはレンジがあって,それが全部一致したことはない.一致させようと試みたこともあるけど,最近SDRコンテンツを見てた人って,色や明るさをキャリブレーションした画面で見てたわけじゃないでしょ? それじゃ明るさスライダーなんて使えないし.
モニターのHDRはコンテンツの明るさとモニターの能力を伝えるためのものだけど,コンテンツが4000 nitsでマスターされててモニターが1000ー1500 nitsしか出せない(しかも小さなウィンドウだけ)場合,ハイライトをクリップするかレンジをマッピングするかって問題が出てくるよね.
そして,その引用文は特に”HDRキャプチャ,HDRフォーマット,HDRディスプレイを一緒くたにしてる”わけじゃないよ.
あれは直接キャプチャについて言ってるんだから.
そうだよ,Ansel Adamsはhigh dynamic rangeなシーンを捉えるためにカメラを使ってたんだ.
これで何が混乱するのか分からないな.
>HDRキャプチャ,HDRフォーマット,HDRディスプレイを一緒くたにするのは間違いだと思う,これらは全然違うものだ.
これらは全部関連してるよ.色について話すとき,カラーカメラ,カラー画像フォーマット,カラースクリーンについて話せるけど,色の概念は実装を超えるんだ.
>Ansel AdamsがHDRを使ったって主張は超紛らわしいし,特に正確じゃない.
ポストはAdamsがHDRを使ったとは一度も言ってないよ.僕はすごく慎重に,”劇的な,high dynamic rangeシーンを捉える”って言葉を選んだんだ.
>以前写真を撮るとき,露出オーバーでもアンダーでも,そのままだった.HDRキャプチャは写真家に自由度を与え,後から露出を調整できるようにした.
これは単なる事実誤認だよ.フィルムネガには12stopの使えるダイナミックレンジがあるけど,印画紙はせいぜい8stopだ.これで写真家はプリント過程で露光ラチチュードがあったんだ.
>Ansel Adamsは僕たちが話してるのと同じ意味でHDRを使ってたんじゃなくて,単に後から調整する必要なく,自分のメディアにとって正しい露出を捉えるのがすごく上手かったんだ.
記事にAnsel AdamsがプリントをDodge and Burnしてる写真があるでしょ.それを露出調整じゃなかったらどう説明するの?
そうだね,あなたが言った文がごちゃ混ぜの原因だとは言ってないよ.Ansel Adamsの問題の原因だって言ったんだ.他にもキャプチャ,フォーマット,ディスプレイを混ぜてる部分はあるよ.
追記:ところで,僕はフィルムキャプチャを”HDR”って呼ぶことに異議を唱えてるんだ.それがHDRを定義するのに役立つとも思わないし,その言葉の歴史を正確に反映してるとも思わないからね.
>でも,あなたのモニターが1000ー1500 nitsしか出せない(しかも小さなウィンドウだけ)場合.
100%ウィンドウで1300+ nits持続できるディスプレイを持てたのは,今までで一番ディスプレイのアップグレードだったと思う.それはCRTの死後,ずっと嫌いだったLCDに対する耐性をくれたし,OLEDからも目を向けさせたよ.
非OLEDディスプレイは二度と持たないって言ってた時期もあったけど,能力のあるHDRディスプレイがその考え方を大きく変えたんだ.
残念なのは,特にOLEDと比較して,モーション解像度がイマイチなことかな.またしても,一時はモーションが一番重要だったけど(だから今もCRTを持ってるんだけどね),このレベルのHDRは...言葉にするのが難しいほど変革的だよ.
HDRはシーンのレンジのことじゃないし,フィルムにも適用されないよ.表面的だけど具体的には,8 bits/channel RGB画像を改善するデジタルプロセスを指してるんだ.そしてHDRの本来の意図の一つは,ラジエンスみたいな絶対物理量でピクセルをキャプチャして,フィルムでは不可能な様々な後処理ワークフローを可能にすることだったんだ.
それは奇妙な主張だね,最初のデジタルHDRキャプチャデバイスはフィルムスキャナーだったんだから(例えば1990年代の映画業界で使われたCineon機器).
フィルムはデジタルセンサーより高いダイナミックレンジを提供してたし,プロはそのレンジを画像編集のためにキャプチャしたかったんだ.
もちろん,今の基準からすればそれほど深いHDRじゃなかったけどね.Cineonは10 bits per channelで,ホワイトポイントはコーディング値685(そしてログカラースペース)だった.それでも標準の8ーbpc YUVビデオよりずっと高いレンジとスーパーホワイトラチチュードがあったよ.
キャプチャ,フォーマット,ディスプレイが関連してるのは同意だよ.でもHDRキャプチャや処理はHDRディスプレイとは別に進化してきたんだ.HDRディスプレイを使うと,LDRディスプレイと比べてHDR画像の使い方が変わるね.>記事はAdamsがHDRを使ったとは言ってない.言葉をすごく選んだんだ
ごめんね,批判するつもりじゃないんだけど,正直言って少し誤解を招く言い方だと思うな.「もし1857年までさかのぼってアナログ写真家がHDRをキャプチャしてたと言ったらどうかな?」っていう文章は,アナログ写真家が「HDR」キャプチャを使ったって明確に言ってるよね.その後のAnsel Adamsに関する文章は,その主張の単なる具体例に見えるよ.並列に書かれてる結果,記事はAdamsがHDRを使ったと主張してるように見えるんだ,たとえ君がそう意図してなくてもね.
君は僕を少し誤解してるか,あるいはコンピュータグラフィックスコミュニティでHDRが専門用語としてどう発展してきたか知らないんじゃないかな.フィルムの12ストップはHDRの基準では全然「ハイ」なレンジじゃないし,少しの露光許容度から「HDR」は生まれたわけじゃないんだ.HDRのより重要な部分は,輝度みたいな絶対的な物理単位に近づこうとする意図だったんだよ.それは露光を後で調整できるだけでなく,フィルムでは不可能だった方法で物理的・知覚的な処理を可能にするんだ.フィルムでは不可能なCGシミュレーションとの調整された統合も可能にする.そして,12ストップから8ストップに変換するときよりもずっと広い範囲で露光のプッシュ・プルが可能になる.もちろん,表示時に非破壊的にデジタルで露光を後で調整するのは,プリントの露光とは全く違うね.
もしかしたら,HDRにはLDRっていう8ビット/チャンネルRGBを指す言葉があることを考えると分かりやすいかもね.アナログ写真にはLDRっていう言葉はないから,「より高い」レンジっていう概念を生み出す理由がゼロなんだ.何よりも高いの?何と比べてハイなの?アナログカメラには露光制御があるから,好きなレンジをキャプチャできるんだよ.アナログ写真には「ハイ」なレンジなんてなくて,ただレンジがあるだけなんだ.HDRは70年代~90年代のデジタル写真のデファクトスタンダードに対抗し,それを超えるために発明されたんだ.カメラがキャプチャできるレンジに関する主張じゃないんだよ.
>「もし1857年までさかのぼってアナログ写真家がHDRをキャプチャしてたと言ったらどうかな?」っていう文章は,アナログ写真家が「HDR」キャプチャを使ったって明確に言ってるよね,
いや,そうじゃないよ.HDRシーンをキャプチャしたって言ってるんだ.
>並列に書かれてる結果,記事はAdamsがHDRを使ったと主張してるように見える
HDRを「使う」ことはできないよ.形容詞であって名詞じゃないんだ.
>フィルムの12ストップはHDRの基準では全然「ハイ」なレンジじゃないし,少しの露光許容度から「HDR」は生まれたわけじゃないんだ.
Reinhard tone mapperっていう,研究論文によく出てくる有名なやつは,Ansel Adamsからインスピレーション受けたってハッキリ書いてるよ.「古典的な写真の課題は,現実世界の輝度の潜在的に高いダイナミックレンジを,写真プリントの低いダイナミックレンジにマッピングすることだ.」https://www-old.cs.utah.edu/docs/techreports/2002/pdf/UUCS-0…
>もしかしたら,HDRにはLDRっていう8ビット/チャンネルRGBを指す言葉があることを考えると分かりやすいかもね.
8ビット/チャンネルはダイナミックレンジを説明するもんじゃないよ.8ビット信号にHLG伝達関数を付けたら,HDRになるんだ.それに,君が本当に8ビットsRGBのことを言ってるとしても,それを「LDR」なんて誰も呼ばないよ.それはSDRだよ.
>アナログカメラには露光制御があるから,好きなレンジをキャプチャできるんだよ.
この文章は全く意味が分からないな.
当時の人たちはそれを「HDR」って呼ばなかったし,放射輝度とか他の絶対物理単位を記録するっていう考え方に基づいたものじゃなかったんだよ.
物理学者たちはCineonよりも前にハイレンジのデジタルカメラを持ってたし,絶対物理量で作業してたはずだよ.そっちの方がより強い例になるだろうね.
君がHDRの議論で完全に忘れられている重要な点を持ち出してくれたね.これはレンジの話と同じくらい,いやそれ以上に色の解像度の話なんだ.僕は10億の値を量子化したものを4ビットで表現できるのと同じくらい簡単に,[0..1]のレンジを10ビットで使うことができるんだよ.キャプチャされたシーンのレンジについて話すだけでは,話のほとんど,そして重要な部分を全部見落としてるんだ.僕たちは長い間,屋外写真,高品質なフィルム,露光を制御する能力を持ってたけど,それが「HDR」が何かっていうのを説明してるわけじゃないんだ.
”High dynamic range”はトーンマッピングよりもずっと古い言葉だよ.僕は”dynamic range”が1920年代までさかのぼる用例を見たし,”high dynamic range”は1940年代までさかのぼるね:https://books.google.com/ngrams/graph?content=dynamic+range%2Chigh+dynamic+range&year_start=1800&year_end=2019&corpus=26&smoothing=3&direct_url=t1%3B%2Cdynamic%20range%3B%2Cc0%3B.t1%3B%2Chigh%20dynamic%20range%3B%2Cc0
略語の「HDR」は,低いダイナミックレンジのディスプレイで高いダイナミックレンジの画像を近似的にレンダリングするためにトーンマッピングを使うことを指すんだ,って君は主張するかもしれない.でもそうだったとしても,問題になってる文章は略語を使ってないんだよ.それは具体的に「高い」ダイナミックレンジについて話してるんだ.
ダイナミックレンジはどんな信号や定量化可能な入力の特性でもあって,例えば僕たちの耳に当たる音圧や,眼球,フィルム,センサーに当たる光子なんかも含まれるんだ.
ごめん,すごく身構えてるみたいだけど,君をイライラさせるつもりはなかったんだ.よし,もし君がシーンを「HDR」って呼んでるなら,Ansel Adamsに関する僕の批判は撤回するよ.代わりに「HDR」はシーンのレンジを指すんじゃなくて,デジタルキャプチャプロセスのレンジ能力を指すんだって指摘することに切り替えるね.結局のところ,言いたいことは同じだと思うんだ.HDRが形容詞として定義されてる場所はどこ?僕が最後にチェックしたときは,「range」は名詞だったと思うんだけど…違う?君が正しいんだろうけど,ちなみに君も最後から2番目のポイントでHDRを名詞として使ってたよ…あ,それに記事のタイトルでもね.
ReinhardがAdamsにインスパイアされたっていうのは素晴らしいことだね.僕もたくさんの写真家みたいにインスパイアされてるよ.Reinhard tone mapperは研究論文で使ったこともあるし,よく知ってるよ.あの論文の著者3人とも個人的に知ってるんだ.彼らのうちの一人とカラー空間に関する論文を1つか2つ書いたことさえあるよ.まあ,インスピレーションを受けたからといって,12ストップが特に高いダイナミックレンジじゃないっていう事実は変わらないけどね.それはSDRとほとんど変わらないんだ.初期のHDRフォーマットでさえ,20ストップとか30ストップくらいあったんだよ.それは一つには,物理的な輝度を相対的な[0..1]のレンジの代わりに使うことがポイントだったからなんだ.
8ビットRGBは実際にはダイナミックレンジをある程度説明してるんだ.1ビットの違いがだいたい「ちょうど識別できる差」(JNDって呼ぶ研究者もいるね)になってる限りはね.これは8ビットが約8ストップになるっていうのと偶然一致してて,RGB画像はだいたい50年くらいそうやってるんだよ.8ビットの値を使って200ストップとか0.003ストップみたいな任意の量を表現するのは全く有効な計算だけど,かなり変だろうね.
たくさんの人が8ビット画像を「LDR」って呼んでたし,今でもそう呼んでるよ.「LDR」の何千もの用例のうち,たった3つだけどここに挙げるね[1][2][3].それにLDRはSDRよりもたぶん15年くらい前から使われてるんじゃないかな?LDRはsRGBよりも古いよ.僕は実際には8ビットsRGBのことを言ってたわけじゃないんだ.LDRとSDRは近いけど全く同じものじゃないから,LDRについて調べてみてね.君が僕が言ってた本当のポイントを避けたのは残念だよ.たとえLDRをSDRに置き換えたとしても,そのポイントはまだそこにあるんだ.
アナログカメラと露光制御に関する文章のどこが分かりにくいんだ?君が理解できなかったみたいだから喜んで説明するよ.絞りを調整することで,どんなダイナミックレンジのシーンでもフィルムの約12ストップのレンジとか,紙や古いテレビの約8ストップのレンジに収まるようにできるってことを言ってたんだよ.なぜHDRがデジタル画像の属性であって,シーンの属性じゃないのかを明確にしようとしただけなんだ.[1]https://www.easypano.com/showkb_228.html#:~:text=The%20Dynam…[2]https://www.researchgate.net/figure/shows-digital-photograph…[3]https://irisldr.github.io/
これだね!そうだね,君が全く正しいと思うよ.「HDR」っていう言葉は,デジタル画像フォーマットがどう進化してきたかの名残みたいなもので,一番人気のある画像フォーマットや一番普及してたディスプレイが色についてそんなに洗練されてなかった時代と関連して初めて意味をなすんだよ.
とはいえ,よく忘れられてる大事な部分が一つあるね.HDRのアイデアの一つ,時には,相対的な明るさじゃなくて,物理単位での絶対値をキャプチャすることなんだ.これがフィルムや紙やテレビにはない,区別する要素だよ.一部の新しいディスプレイは絶対輝度の機能を持ち始めてるけど,歴史的にほとんどのメディアは相対的な色の値を表示してたんだ.
君はAnsel AdamsがHDRを「使わなかった」と主張してこのスレッドを始めたね.僕は彼がHDRコンテンツをトーンマップしたと主張する,有名な研究論文をリンクしたんだ.そしてその論文は彼のアプローチに基づいたトーンマッパーを実装してるんだ.これは全て明白に見えるね.>Ansel Adamsに関する僕の批判は撤回する
いいね,これで終わりだ.>代わりに「HDR」はシーンのレンジを指すんじゃなくて
おいおい.僕の頭に最初に浮かんだ研究論文はこれだよ:https://static.googleusercontent.com/media/hdrplusdata.org/e…「驚くべきことに,ダイナミックレンジの高い日中のショットも光量不足に悩まされることがある.」「暗い場所や,非常にダイナミックレンジの高いシーンでは」「ダイナミックレンジの高いシーンではローカルトーンマッピングを使う」
君は「HDR」を今の論文とは違う定義にしようとし続けてるね.今だけじゃない—あの論文は2016年に発表されたんだ!ねえ,たぶん1990年代にはHDRは違う意味だったのかもしれないし,あるいは曖昧さが少ないときは「HDR」を略語として使うのがOKだったのかもしれない.正直どうでもいいし,君はみんなを混乱させてるだけだよ.>絞りを調整することで,どんなダイナミックレンジのシーンでもフィルムの約12ストップのレンジとか,紙や古いテレビの約8ストップのレンジに収まるようにできる
君は間違った用語を使い続けてるから意味不明に聞こえるんだよ.君が意味不明だった最初の文章に戻ろう:>アナログカメラには露光制御があるから,好きなレンジをキャプチャできるんだよ
君は「レンジ」って言い続けてるけど,僕が理解できる限り,君は「輝度」って言ってるんだよ.カメラの絞りを変えるのは,フィルムやセンサーに当たる輝度をスケールするんだ.シーンのダイナミックレンジを変えるわけじゃない.アナログカメラはどんなレンジでもキャプチャできるわけじゃないよ.カメラの設定を変えたりNDフィルターを付けたりすることで,カメラのダイナミックレンジ内に収まる輝度値のウィンドウを変えることはできるんだ.カメラが「どんなレンジでもキャプチャできる」っていうのは,「あのソファ,ドアをノコギリで真っ二つにすれば通せるよ」って言うようなもんだよ.
>Reinhard tone mapperは研究論文で使ったこともあるし,よく知ってるよ.あの論文の著者3人とも個人的に知ってるんだ.彼らのうちの一人とカラー空間に関する論文を1つか2つ書いたことさえあるんだ.
君を訂正することが不安を煽るならごめんね.でも権威に訴えるつもりなら,知り合いの話なんかしないで論文にリンクしてよ.
これだよ!そうだね,君が全く正しいと思うよ.「HDR」っていう言葉は,デジタル画像フォーマットがどう進化してきたかの名残みたいなもので,一番人気のある画像フォーマットや一番普及してたディスプレイが色についてそんなに洗練されてなかった時代と関連して初めて意味をなすんだよ.
とはいえ,よく忘れられてる大事な部分が一つあるね.HDRのアイデアの一つ,時には,相対的な明るさじゃなくて,物理単位での絶対値をキャプチャすることなんだ.これがフィルムや紙やテレビにはない,区別する要素だよ.一部の新しいディスプレイは絶対輝度の機能を持ち始めてるけど,歴史的にほとんどのメディアは相対的な色の値を表示してたんだ.
でもその問題の文では略語使ってないよね
使ってるよ。なんで俺が引用した文と違う文を見てるの?
この文脈でのHDRは、ただのどんなダイナミックレンジでもないんだ。もしそうなら、曖昧すぎて意味がなくなる。
トーンマッピングはHDRと密接に関係しててよく使われるけど、必須じゃないしHDRを定義しない。俺には君の議論はストローマンに見える。
写真家は「high dynamic range」という言葉を広く使ったことなんてないし、「HDR」という略語もhdrView、Photoshop、iPhoneカメラみたいなPCアプリに登場する前には使ってなかった。
ILMがOpenEXRの仕様を公開した時(2003年)は「extended dynamic range」って呼ばれてたんだよ。
”OpenEXR (www.openexr.net)、以前はプロプライエタリだった
extended dynamic rangeの画像ファイルフォーマットをオープンソースコミュニティに”ってね
https://web.archive.org/web/20170721234341/http://www.openex…
Rea & Jeffrey (1990)は「larger dynamic range」って呼んでた。
”With γ = 1 there is equal brightness resolution over the entire unsaturated image at the expense of a larger dynamic range within a given image. Finally, the automatic gain control, AGC, was disabled so that the input/output relation would be constant over the full range of scene luminances.”
https://doi.org/10.1080/00994480.1990.10747942
みんなが「large」とか「extended」じゃなくていつ「high」に落ち着いたかは分からないけど、「形容詞 dynamic range」っていうのはほぼ普遍的だよね。
へへっ 外は「HDRコンテンツ」?俺にはまだHDRが分かってないように聞こえるな。君がそうじゃないのは分かってるけど、そう聞こえるんだよ。晴れた日には確かに高いダイナミックレンジがあるけど、HDRっていう略語はそれ以上の意味を持つ専門用語なんだ。トーンマッピングはHDRを意味しないよ。LDRやSDRでも常にある。俺がカメラの絞りが「露出」を変えると言ったのに、「ダイナミックレンジを変える」と言ったかのような反論に困惑してる。明日はもっと良い日になるといいね。君のアプリ、頑張って。この話は置いといて、正直応援してるよ。
絶対(輝度)っていうのも面白いサイズだね。人間の視覚からすると、絶対的な明るさは視聴環境全体も同じ絶対値で制御されてる場合にだけ意味があるんだ。視覚は非常に文脈依存で、俺たちは画面だけを見てるわけじゃない。
リビングで昼間や夜に暗いシーンが見れないのは楽しくないし、周囲が暗くなっちゃって網膜が蒸発する(くらい明るくなる)のも嫌だよね。みんな、コンテンツが意図したことに論理的に似てる、利用可能な環境での良い視聴体験を求めてるけど、それは制作時に監督のマスタリングモニターが彼らの目に送ったのと全く同じ光子を再現することとは常に同じじゃないんだ。
デジタル処理のトーンマッピング、つまり「Appleが知覚的なダイナミックレンジを増やすためにSDR写真を処理するSmart HDR処理って呼んでるもの」は、チャンネル数やビット深度に関係なくどんな画像にも適用できるんだ――まあ、HyperCardのディザリングされた白黒画像をトーンマップしたいなら、グラデーションマップ作成の一部としてディザリングを逆コンパイルしなきゃいけないだろうけど。
RGBでも8ビットでも、トーンマッピングを画像処理で価値のあるステップにするのに必須じゃないよ。
計算写真の論文を引用して、明るい屋外もHDRに含まれる可能性があると主張。Wikipediaを引用してトーンマッピングがHDRと密接に関連することを示す。相手のコメントが不正確で古く、計算写真の専門家ではないのに的外れな議論を持ち込んでいると批判している。
俺の記憶だと、Paul Debevecが90年代後半のある時点でGreg WardのRGBEファイルフォーマットを借りて、彼の画像ビューアツール(hdrView)やLDR露出スタックをHDRに変換するコードのために「.hdr」ってリブランドしたんだよ。
オンラインで2001年のGreg Wardのプレゼン見れるけど、「HDR」とか「HDRI」ってスライド中にいっぱい出てくるんだ。
だからうん、この用語は間違いなく90年代後半には始まってたはずだよ、もっと早くないにしてもね。でも90年代前半にそこまであったかは分からないな。
Cineonファイルがリニアライトのワークフローで処理されてた頃は間違いなくHDRって呼ばれてたよ。フィルムだけが十分なダイナミックレンジを提供できる唯一のキャプチャソースだったから、俺の意見だとそれは「HDR」だね。
でも、その用語がめちゃくちゃ広い傘みたいなもんで、ほぼ何でも当てはまるっていうのは同意。15年前は、8bpcでちょっとスーパーホワイトのグローとトーンマッピングやっただけで、その見た目をHDRって呼んでた人もいたしね。
もっとコメントを表示(2)
ディスプレイのHDR、正直言って俺には合わないんだよね。一番明るいHDRの白は太陽とかコースティクスみたいなのに取っておくべきで、屋内の写真の白い壁とかに使うべきじゃないと思う。トーンマッピングに関しても、記事の例は俺の好みからするとコントラスト低くてフラットすぎる傾向があるな。
HDRってゲームで上手くやるのホント難しいみたいだね。Helldivers 2なんて高連射武器のフラッシュで頭痛くなるし、No Mans’ Skyは彩度MAXだったり。唯一楽しめたのはReturnalかな。HDRの明るい部分の使い方が控えめで良かったんだ。特定のparticle effectsとかに絞ってた。
The Division 2は発売当初はHDRすごく良かったんだけど、アプデで台無しになっちゃった。ゲーマーがHDRは「暗すぎる」って文句言うのが理由かもね。今HDRが良いゲームはLies of P、Hunt: Showdown 1896、Monster Hunter: World(設定調整要)あたりかな。数年前だけどBattlefield 1/V/2042は良かったね。Helldivers 2のHDRは黒が明るすぎ!SDRだと真っ暗な場所がHDRだと満月みたいだったよ。
ゲーマーがHDRモードは「暗すぎる」って文句言うって話
多くの人が持ってる安物のパネルはHDR対応を謳ってるけど、色空間カバー率とかローカルディミングとかがゴミで、そういうのだとHDRがmutedに見えちゃうんだよ。
この問題の多くはQA不足だよ。HDRみたいなことやるなら色々なデバイスでテストしないと。Windows環境は消費者にとってメチャクチャだし、ディスプレイやGPUが対応してても設定ミスとかある。(アプリ側も結構怪しいし)あと安物のHDRディスプレイはだいたい hot garbage だね。
ほとんどの”HDR”モニターはHDRを表示できないジャンクだよ。HDRフォーマット/信号は誰も使ってない輝度レベルや視聴条件向けに設計されてる。結果として完全なカオス。パイプラインの各要素が何かを間違えてて、ソフトウェアはそれを補正しようと二重に間違ったデータを出すんだけど、何を補正すべきか信頼できる情報すらない。
ホントに必要なのはみんなが従う標準規格だよ。sRGBみたいに。でもHDRはディスプレイの品質や色空間がバラバラでメチャクチャ。2000 nitsと800 nitsのディスプレイじゃ全然違うのにどっちもHDRって言えるし。輝度とかでHDRのレベルを数値化する標準を作るべきだと思う。例えば2000 nitsを100% HDRとか。OLEDの問題はあるけど、それでも今よりはマシになるはず。
DisplayHDR規格はあるけど、HDR400を許したせいでダメになった。HDRの品質は最大nitsだけでなく視聴環境や黒レベルも重要だし、OLEDとLCDでも違う。sRGBも絶対的じゃなく相対的になってる。混乱の多くは、映画館用にマスタリングされたコンテンツをホーム環境に適応させる難しさからきてる。ソフトウェア側で処理するのも難しいんだ。
YouTubeに良い動画があるんだけど、現代映画でHDRを無頓着に使うと、昔好きだった映画的なルックが破壊されるって言ってる。コントラストが無くなってフラットに、”burned white”だった光は抑えられ、深い黒はグレーに。結果Wickedみたいなフラットで”washed out”な見た目に。CGI映画だけじゃなく、全ての映画に影響出てるよ。
あの洗いざらいなグレーは、エラーがスタイルになったんだって!HDRがネイティブサポートされてなかった頃、動的範囲を無理やり圧縮する“ハック”で済ませてた。それを逆変換なしで見るとひどくグレーに見えた。監督や編集者はそれを見慣れて好きになっちゃって、今じゃ意図的にああいう見た目の映画を作るようになったらしい。
アベンジャーズから後期の映画への移行はマジで目立つね。原作から離れてるから最悪の例の一つだと思う。
あなたが言ってたみたいに、確かにスタイルになっちゃってるね。でもさ、安物のJoe Public’s OOGLAMG $130 85” Black Friday TVとか明るいリビングのテレビで見るとクソに見える映画でも、ちゃんとしたHDR機器、OLEDとかローカルディミングのディスプレイ、ちゃんとキャリブレーションされてる暗いシアター環境で見るとめっちゃキレイに見えるんだよ。
本当だね!でもテレビ向けに作られた映画は、ほぼ誰も持ってない最新機器じゃなくて、平均的な「良い品質」の画面に合わせて作るべきだと思うんだ。少なくともトップレベルじゃなくても良い品質の環境で十分見れるようにね。あと、俺が考えてるYouTube動画では、映画館で見たWickedを指摘してたよ。「意図された」映像は色が薄くてコントラストがないように見えたらしい。
AIで既存の画像や動画にHDRを追加しようとするやつで、特に問題だと感じたよ。一番ひどかったのは、最近のSpongebobのゲームをやってて、メニュー画面で彼の目が巨大な太陽みたいに光ってたこと。俺のテレビは結構明るさ出せるんだけど、Spongebobの目が真昼みたいに部屋を照らすために、他の部分を暗くしてたんだ。
一部の写真家とか映像作家、ゲームデザイナーにとって、HDRは見栄えを派手にするためのギミックに感じてるみたいだね。記事でも2000年代の写真の例で少し触れてたけど、HDRテレビの普及でまた同じ傾向になってる気がする。
HDRっていうのはさ、夜に暗い映画を見てて、画面の影の暗い部分と黒い部分の微妙な違いとか、監督が丁寧に作ったかすかな輪郭を見分けてるときに、字幕が「♪」とかの記号と一緒に40Wの光を視神経に優しくぶち込んでくるときのことだよ。
俺の(SDR) OLEDディスプレイの字幕が、映像の一部の部分ほど明るくならないって事実、結構嫌いなんだよね。
写真家として、(新しい形の)HDRコンテンツの魅力は分かるんだけど、現実的にはフィードで見る写真が、ディスプレイを普通に見せてたかと思ったら網膜を焼くほど明るくなったり、さっきまで均一な白だったコンテンツがくすんだグレーに見えたりするんだ。夜遅いから
ダークモードで画面暗くしてこの記事読んでたんだけど、HDR写真が出てきたときは目を痛めないようにもっとディスプレイ暗くしないといけなくて、文章に戻ったらまた明るく戻さないといけなかった。ゲームとか映画みたいな全画面コンテンツならHDRも良いんだけど、普段使いのPCではユーザー体験としてかなり不快だよ。
記事では触れられてないけど、フィードの問題はInstagramみたいなプラットフォームがHDRの管理に全く興味ないことだと思う。例を挙げると、YouTubeは平均ラウドネスが一定の閾値を超えた動画の音量を自動調整してるよね。HDRの解決策も、ログ輝度とか合理的な指標に基づいて同様のペナルティを与えることだと思うんだ。でもInstagramではそうすぐには起こらないだろうね、なぜならひどいHDRの方がビュー数が上がる可能性が高いから。記事中のHDR写真については、あれはHDRが何ができるか示すにはちょっと強すぎるかな。だからMark IIIのベータ版ではもっと穏やかなHDRグレーディングが含まれてるんだ。
全く同意だね。俺にとって、HDRはシステムが俺の画面の明るさ設定を無視してるみたいに感じるよ。俺の画面の明るさを設定してるのには理由があるんだ。勝手に明るさを上げるのはやめてくれよ!iPhoneの写真でもHDRを無効にする良い方法がないんだ。iPhoneでHDR写真をオフにしても、他のディスプレイにキャストするとテレビがHDRで表示しようとして、全然良く見えないんだよね。
それはHDR本来の問題じゃないと思うけどね。BFV (他のゲームと混同してなければ) にはHDR調整機能があって、HDRの白とSDRの白が同じになるまでスライダーを動かせるんだ。デスクトップ環境でも同じことができそうだよね。俺の経験上、今のPCでのHDRサポートはすごく不足してるよ。WindowsじゃDolby Visionすら再生できないし、あれは唯一広く使われてるダイナミックメタデータ付きのHDRフォーマットなのにさ。