1. AirSap
  2. #60 iPhone 12で導入されたHDR..
2020-12-26 53:10

#60 iPhone 12で導入されたHDR動画って何?

iPhone 12のDolby VisionとさまざまなHDR動画形式 / 映像の色表現の歴史と規格 / 動画のHDRと静止画のHDRは全く違う!/ SDR変換の難しさ / Mini LEDと有機EL / Apple ProRAW / Deep Fusionが全カメラに!/ Maxのセンサー / 動画手ブレ補正 / センサーシフト手ブレ補正の効果 / LiDAR / あとからフォーカスカメラ / ボカシは逃げだが役に立つ
00:00
いや、HDRのね、動画の話を。 ヤバい、ヤバい。2本撮りだ、2本撮り。 そうそうそうそう。
2回に渡って出演させていただきました。 すごい、忙しい芸能人みたいな状態になってきてる。
そう、HDR動画のね、話をまだしてなかったので。 しましょう。 しましょう、というとこなんですが。
2本撮りの頭も撮っておかなくていいんですか? いや、もうこういう感じの入りで大丈夫です。
HDRにちょっと今回、さっきというか前回のお話にもさせていただいた通り、
うちのアプリの方で動画を編集するセホケドンというアプリを作っているんですけども、
うちだけにではないと思うんですが、12が出てから気づいたのは、今回HDRで動画撮影ができるようになったことで、
アプリ側でもある程度対応しなきゃいけないっていう問題が出てきたんですね。
それで、そもそもHDRって何ぞやっていうことで、ちょっと調べてきてるんですけども、
HDRというのがハイダイナミックレンジ、今までより暗い画から明るいところまで、よりオリジナルに近い表示ができるものを言うんですけども、
今までのがSDR、スタンダードダイナミックレンジって言うんですね。
今回、ドルビービジョンに対応しましたとか、いろんな専門用語が出てるんですけど、そもそもHDR何が違うかというと、
もともとテレビとか昔からあって、テレビの一番暗いところと明るいところ、100%の明るさっていう中でやってたのが、よりリアルに近づけたい。
テレビがブラウン管から液晶とかUKLとかになって、もっと明るさの幅が表現できるようになったんで、
それを映像ソースというか動画の方にも対応させようというのがHDRの考え方らしいですよ。
もともと種類が大きく分けると2つあって、1つがPQって言うんですけど、
ちょっと専門的な話なんですけど、それはもう完全に従来のものとは違って、考え方としては明るさとかを決めて、
0から100%ではなくて、この辺りだったらこの明るさっていうのを、数字と明るさを比例で決めちゃってるっていうやつがPQ。
HLGっていうのもあるんですけど、これはイギリスのPBC、イギリス放送協会と日本のNHKが共同で作った意味で、
今までのテレビと互換性ありつつ、明るさをもっと広げたもので、今までのテレビもそれなりに見えて、
新しいテレビだともっと明るさが再現できるっていう方式の2つがあります。
03:08
ドルビービジョンって何?っていう話なんですけど、HDRの撮影、編集、表示までを全部ちゃんと規格を作って、
どういう環境でも同じような明るさでちゃんと見えるっていうのを、データから表示装置まで全部規格を作ってるのがドルビービジョン。
今まではPQ方式を使って、映画とか動画配信とか、あとブルーレイみたいなやつですね、っていうところに作って、専門でやってたんですけど、
今回Appleと共同で初めてiPhone 12に入ったドルビービジョンはHLG方式、今までと互換性がある方っていうのを、
今回ドルビービジョンとして初めてiPhoneに搭載したっていうのが、今回のシステムなんです。新しい技術ですね。
ドルビービジョンだと、再生環境まで面倒見るっていうか。
そうですね。一応それに準拠した表示ができるのが、初めてドルビービジョンって言える表示装置。
なんですよね。HLG、ただのHLGの場合はもう再生装置とかは独自に、勝手に解釈して出せる?
HLGの基本的な考え方は、PQの場合は明るさ自体もこのデータと連動させてるんですけど、
HLGはある程度、グレーのところまではテレビと同じ表現で、そこから上の100%、200%っていうところを無理やり動画の中に入れちゃってるみたいな感じで、
そこからの明るさの表現は、表示するテレビにお任せしますみたいな考え方なんですよ。
なので、ドルビービジョンじゃない場合は、綺麗に見えるけど、ちょっと違ってる場合もありますよっていう感じだと思います。
なるほどなるほど。僕がソニーのα6400ってカメラ持ってて、HLGで動画よく撮ってるんですけど、
正直ね、色ミスってるなっていうことがよくあるんですよね。 そうなんだ。
これがですね、また色って別問題がありまして、色の規格っていうのもあるんですね。
もともと、これもうすごい歴史の話になっちゃうんですけど、
白黒テレビの時代に戻っちゃうんですが、今の色の仕組みって、実はそこから始まってて、
最初テレビの放送って白黒だったわけですけど、その放送後に、じゃあカラー化をしようって言った時に、
06:00
その白黒で見てる人もちゃんと見えて、かつカラーテレビの人はカラーで見られるっていう形で、
当時の技術、最先端の技術を用いて作ったのがテレビのカラー放送の仕組みで、要は白黒プラス色っていう考え方なんですよね。
人間の目って明るさの変化には敏感なんですけど、色の変化の方はそれよりも緩やかなんで、
色の方の情報をちょっと間引くことでデータは圧縮するっていう考え方、アナログの時代からずっとやっているんですけども、
元の三原色、RGBを色信号に変える時の計算の仕方がいくつかパターンがあって、
それによって見え方が微妙に違ってくるんですよ。それプラス今回HLGの場合、
ガンマっていう明るさの変化の度合い、数字の上がっていくのと人間の目の見え方の明るさの変化を調整するのにガンマっていうのがあるんですけど、
それもHLGとかの方式によって微妙に違うんで、色の再現が微妙に変わってくると。
ドルビービジョンとかだとおそらくメタデータという形で補正情報とか全部持たせたりするんですけど、
そのあたりが、例えばHDRで撮ったのをちゃんとSDRにしたいっていう場合とかに誤差が出てしまって、
色が完全には元に戻せないというか差がちょっと出ちゃうっていうのはそういうところの問題なんですよね。
なるほどなるほど、そうですね。色もそうだしね、あと明るさもね、あのひどいことになったりするんですよね。
HDRって普通のテレビより広い表現状態になっているものを普通のところで見るから、やっぱり何らかの改変はしないといけないんですよね。
特に4K放送とかは今HDRと一緒で、BT2020っていう企画の色の制方法なんですよ。
2Kのハイビジョン放送はR709っていう方式なんですけど、それ計算が違ってて、あとその数値の範囲の指定も微妙に違うんで、
実は4Kで出せるけど2Kで出せない色っていうのが実際あったりするんですよね。
そこを見た目の時に印象が同じ形にどう持っていくかっていうのはすごい難しい問題で、
例えばその今4K放送ってBSでやってますけど、同時に2Kでもやって、地上波とかでもやったりする場合ってあるんですけど、
それちゃんと色を合わせるための専用の変換機があるぐらいかなり高度な技術なんですよ、今のところ。
それをうちらがアプリでできるかっていうのは非常に難しい状態かなと思います。
なるほど。今年のタイガドラマーでもなんかちょっと最初話題になってましたよね。
HDRで撮ってて、で、色が派手すぎると放送した時に、普通のSDRで見てる時に。
09:04
その変換するルックアップテーブルっていうのがあるんですけど、それの調整の仕方が多分難しい。
その元のイメージと、2Kで見た時のイメージの差をどこまで縮めるかっていうところで、NHKの人は相当苦労しているんだと思うんですけど、
例えばですね、YouTubeありますよね。YouTubeってもうちょっと前からHDRの動画を投稿できるようになってるんですけども、
HDRって、もう実際そのiPhone12が出た日にも、それでHDR動画投稿してる方がいるんですが、
YouTubeかなりこだわってるところがあって、HDRで投稿した動画もYouTubeのサーバー内でちゃんとSDR動画に変換もしているんですが、
それがかなり綺麗だっていう感じで、ちょっと評判になっているんですね。
で、おそらくそれは単純に計算ではなくて、いろいろ画像に合わせて調整をするようなプログラムを独自に作ってるんじゃないかと思われます。
これ公開してほしいですよね。
いや、もう実際ですね、ダウンロードするのはちょっとGoogleの規約違反になっちゃってダメなんですけど、
いろんなカラーパターンとかをアップして、どういう絵はどういうふうに変換されるとか解析してる人はいたみたいですね。
かなり複雑なことをしているんじゃないかと。
確かに、今HDRでそもそも動画を見られる環境っていうのが限られてて、
iPhoneのUKLの10以降とかだったら対応してるんですけど、
あとはテレビに内蔵してるAndroid TVとかのYouTubeプレイヤーとかで一部対応してると思うんですが、
それ以外だとMacとかだとちょっと対応してなかったりするんで、
まだ普及してないっていうのもあるんで、変換しなきゃいけないっていうところがたくさんあるのはちょっとまだ大変ですよね。
なのに変換が難しいっていうのが問題なんですよね。
WWDCの方のHDRに関するチュートリアルビデオがあったんで、それ見てまして、
実際そのiOSでは対応しているけれども、Apple OSとかMac OSではまだHDR対応してないので、
そちらで再生する場合にはSDRにコンバートしてくださいねっていうサンプルソースとかも公開されてたりするんですけども、
その通りにやっても微妙にやっぱり色が違うんですね。
なんていうんですかね。
やっぱ白っぽくなる感じですか?
白っぽくなるとか、色の濃さが変わるとか、絵の種類によって変わり方が微妙に違うので、なかなか一概にどう変わるっていうのは言いにくいんですけど。
12:02
いや、なんかわかります。僕が見てねっていうMixiが出しているアプリを使っていて、
どういうアプリかっていうと、遠くにいる実家の人に子供の姿を見せるためのアプリなんですよね。
で、Androidとかも対応してるし、古いiPhoneも対応してるんで、HDR動画を上げると変換が走るんですよ。
HDR動画を上げるとき、ものすごい時間がかかるんですけど、ちなみに。
で、なんか本当に初期のiPhone12出たばっかの頃は、完全に変換ミスってたみたいで、緑色になる現象があったらしいんですけど、
それが僕がそのMAX買った頃までにはもう直っていて、直しましたっていう風になってはいるんですが、
実際上げてみるとすごい白くなったりとか、逆になんか全然問題ない感じで上がる動画もあるし。
謎ですね。
謎なんですよね。たぶん撮ってる時の露出とかも動的に変えてると思うので、iPhoneの方で。
その辺の情報をうまく扱えてないのかなっていう感じはするんですけど。
正直、確かにまず対応しなきゃいけないっていうところもあって、うちのアプリも最初入れたらやっぱり白っぽくなっちゃったんですよ。
たぶんそのHLGの動画を内部の処理がこれを判断しなくて、通常のSDRとして編集しちゃって出力するので、
この際が白っぽさっていう形で出てるんだと思うんですよね。
Appleの一応、エビファンデーションって天文的な話になっちゃいますけど、
Appleの方は一応どのフォーマットもちゃんと扱えますよって、HLGとかももうかなり前のiOSから対応はしてるっぽいんですけども、
まあそのソースがどのタイプであれ、内部的にはちゃんと正しいレコードをして、出力は指定したフォーマット、SDRでもHDRでも書き出せますということにはなってるんですけども、
そのフォーマットの違いというか、その色の扱いとかはどうしても完全に自動化っていうのは難しくて、
もしかしたら将来的に例えばAI技術、マシンラーニングとか使って綺麗に調整してくれる機能っていうのは出てくるのかもしれないですね。
そういうレベルが必要な話になっちゃうのかな。
そうです。単純に計算ではちょっと難しいかな。絵の中身によって調整の仕方が違うんじゃないかっていうので、さっき言った放送局みたいな専用の調整装置がある。
それマシンラーニング使ってほぼ完璧にできますよみたいなアプリを作って出したら結構儲かるんじゃないですか。
いやいやいや、またそういう狸な話を。
15:07
昔からiPhone、動画の前に写真でHDR撮影っていうのがあったと思うんですよ。
これってその暗いところがちゃんと写る写真と明るいところがちゃんと写る写真、それぞれ暗いところを綺麗に撮るとすると明るいところが潰れるし、
明るいところを綺麗に撮ると暗いところが真っ暗になっちゃうっていうのを多分合成して一枚のどっちも綺麗に写ってる写真を作るっていう技術なんだけど、それも多分AIの技術を使っていたりするはずなんで。
写真のHDRと動画のHDRってなんか違うよね、雰囲気が。
違いますね。
写真のHDRってむしろ絵の塗り絵的な絵画的な絵を作るっていうか、コントラストすごい激しい写真にしたりとか、何でしょうね、デコレーションするための技術みたいなところがある。
なんかどっちかっていうとダイナミックレンジ狭くしてますよね。
そう、狭くしてる。
普通の表示のダイナミックレンジに入るように詰めてる。動画の今のやつは表示の方のダイナミックレンジが広いからそこに合わせてるっていう。
表示するディスプレイの方の性能を上げて、要するに軌道をガッと上げて、
たくさん表示できるディスプレイが使えるよっていう前提で撮るのが動画のHDRだよね。
静止画のHDRって今までのディスプレイの限られた領域の色域とか明るさの領域の中で最大限人間の目に見たくない感じに振り返る。
暗いところは部分的に階調をよく見えるようにしたりとか、明るいところは白く潰れちゃうのを多少明るさを落としてでもいいから階調を殺さないように作り変えるっていう仕事をしているのが写真のHDRっていう。
同じHDRって、静止画動画で同じHDRと言われるものは全然違うよね。
どっちかっていうと、HDR動画をSDR化するのって写真のHDRかと似てません?
似てますね。
たぶん写真の方も単純に何か計算で出してるっていうレベルではないと思うので、同じように動画のSDR化も計算だけじゃなくてそういうマシンラーニング的な処理を使わないと本当に綺麗なものにはならないかもしれないですね。
ちょっと実験したことがあって、iPhone 12 Pro Maxでディスプレイの軌道を最大にしてHDR動画と同じシーンをSDRで撮った動画、全く同じ動画を最大軌道で見たらほぼ一緒に見えるんだけれども
18:20
中間帳だといろんな部分の階調の作り方がやっぱり微妙に違うんだよね。
一番明るいところと一番暗いところは同じなんだけど、真ん中の階調がやっぱり違う。
SDRで撮ったやつの方が逆に豊かに見える。HDRのやつはもう割と高コントラストなまま見えちゃうみたいな。
確かにHLGの特徴だと思うんですけど、50パーぐらいはSDRと同じ作りなはずなんで、50パーから上の明るいところの階調を無理やり潰して、本来100パーになるところが200、300、400パーぐらいの明るさのものを入れてるって言って、多分明るさを上げたらそこの差が出てきたんだなと。
もうちょっとHDRをみんなで見られる環境が出てきたらいいなっていうふうには思うんだね。
でもこれ難しいのが、じゃあ今SDRで、iPhoneでせっかくHDR撮れるのに、HDRオフにして撮る気になるかって言われると、
ならないね。
ならないんですよね。未来に見ることを考えると。
撮る時はその時の最大のスペックで撮っておきたいっていうのはありますよね。
記録ってそういうもんだもんね。一番いい画質で撮っておきたい。子供の写真だったり、うちだったら犬の写真だったりっていうのは、もうちょっとでも画質を落としたくないですからね。最高のやつで撮り続けたい。
そうですね。多分インスタ映えみたいななんかタピってる写真とか撮るときはSDRで撮ってみんなに正しいものがね。死後ですけど。もう滅んでしまいましたけど。
バナナらしいですよ、最近。
ああらしいですね。家で作ったらって思いますけど、まあまあそれを置いて。
あのね、そういう刹那的な消費をするための動画だったらいいと思うんですよね。SDRにしない方が。
そうですね。気軽に撮れるし。むしろ公開する動画の方をギラギラにSDR変換した方がいいんですかね。なんか見た目的にこう、目を引くような。
注目はされるだろうけど、見る人のディスプレイが古いままだからダメだろうね。
古いSDRに変換するときに、あえて色とかを強調しちゃうって。
多分普通にやると大人しくなっちゃうから、その方がいいかもしれないですよね、SNS系は。
タイトー上げたりとか、コントラスト上げたりとか。
21:01
多分YouTubeとかはその上げ具合とかを調整してるんですよ。不自然にならない程度にちょっと強調というか上げてあげると、多分SDRで見たときに綺麗に見えるんじゃないかなと思う。
HDR動画って街歩きとか風景動画とかそういうのが多い。
綺麗だよね、YouTubeはね。
東京とか街歩きしてる動画のチャンネルとか見ますけど、すごい綺麗です。
iPhone12、11からなんだけど、HDRで見たらめっちゃ綺麗ですよ。色とか。夜景の色とか。びっくりした。
でもね、iPhoneのHDR動画すごいなって思うのは、多分そのYouTuberとかのやつってHDR撮れるカメラで撮って、その後動画編集ソフトとかで色の調整とかをしてると思うんですよ。明るさの調整とか。
iPhone何もしなくても綺麗なのがすごいなと思ってて。
それは素晴らしいですね。
そうなんですよ。僕ソニーのカメラで撮ってて結構ミスるんですよ、明るさとか。iPhoneミスんないんですよ。
どれ撮っても綺麗ですよね、何も。
そうなんですよ、設定とかを変える必要がない何もっていうのがすごくて。
あれですね、一眼とかだと、やっぱりプロ向けだったりするんで、撮影の時の設定とか後で現像するっていう前提で自動化はあまりしてないっていうことじゃないですか。
いや多分自動化できないんだと思うんですよね。
iPhoneのスペックがないとおそらく自動化できなくて、現在の明るさとかを解釈して被写体を解釈してとこまでiPhoneやってるはずなんで、そこまでやんないと無理なんだと思うんですよ。
早い頭脳で。
そうそう、だからそれはすごいなっていう感じがありますね。
さっき言ったHLGじゃない、PQの方の撮影編集はものすごい大変みたいです。色の調整とかが。
ただ大変なんだけど、そこでできたメタデータで、SDRの変換とかもそのパラメータでやってくれるんで、イメージを崩さないように変換はできる。
この話をしてるとあれですね、5、6年後ぐらいに画期的なフォーマットができていそうな。
簡単にSDRにすって戻せるやつはとりあえず欲しいですね。
そうですよね。
今4KにAI技術を使って、昔のSD画質をめちゃくちゃ高画質にするやつとか出てるんですけど。
やってるね、テレビでね。
びっくりするぐらい綺麗になるんですよね。
だから、そういうのがあるぐらいだから、SDRとHDRの変換ぐらいもできそうな気がしちゃいますよ。
誰かが作って、いい感じのライブラリーが公開されるのを待つと。
コアイメージの中にそれを入れてほしいですね。
24:02
これって、僕ちょっとまだ試してないんですけど、
例えばiCloudフォトライブラリーとかに入ってるやつを非対応のiPhoneで見たらどうなってるんですかね。
HDR動画。
iPhone11シリーズか、11 Proかなんて見たときは、もう普通にHDR動画として見えます。
そうですよね。
12ミニで見ても、60pのHDRもちゃんと60p HDRで再生してくれます。
そうですよね。
11とか液晶の端末で見ると、確かSDRになりますね。
UKLの機種。
いや、11とかも一応対応してるんですよ、確かHDRの再生は。
明るくなります?
明るくはならないんだけど、HDR再生対応ってなってたはずですよ。
明るくはどうなんでしょうね。
だから、完全に対応してないMacとかで見ればいいのか。
そうですね。
それがそのSDR変換がうまくいっているのであれば、Appleはもう持ってるはずなんですよね。SDR変換器を。
それがその今のiOSとかに入っているフォーマットコンバーターとどう差があるのかっていうのは気になります。
なんかAppleは一番いいやつ持ってるんじゃないですか。
一番いいやつ。
なんかあれですよね、ダメだけどiCloudに上がってる写真とかでマシンラーニングしたら綺麗なの作れそうですよね。
まあまあ、ありそうですよね。
変換した後に、それこそさっきの話みたいにちょっと色合いをいじるとかをかましている可能性ありますよね。
多分そんな感じだと思います。
ある程度、どういう絵の色合いとか明るさとかを見て、こういう絵はこういう色を強調した方がいいとかちょっと抑えた方がいいとか、
コントラストを下げた方がいいとか、こういうような感じなんじゃないかな。
今、HDR動画をですね、Macで再生してみてるんですが、変換は上手だと思いますね、Appleの。
なんかびっくりマーク出てて、これは正しく再生できないよって出てますけど、
なんか白っぽくはなってるけど、ちゃんとサイドは高めで出てるので、
おそらくですね、やっぱりSTR変換した後に色味を増やす処理をかけてるのかなと。
結局ですね、答えがわからないんですよ。
うーん。
だから、まあそうですね、うちの場合、単純に動画編集っていうことであればHDR対応した方がいいんだろうなと思うんですけど、
例えば壁紙、うちの場合壁紙編集用の動画を作るとかっていう時に、壁紙、HDR対応してないので、
27:04
そもそもHDIにする理由が今ないっていうのもあって、逆にSDRにちゃんとしないといけなくて、
出力した結果がちゃんと編集の時と同じ見え方になってなきゃいけないっていうところが、今ちょっと苦労してるところです。
いやー難しいですよね、それは。
すごい難しいんです。
ユーザーがどういう結果を求めてるかによっても変わってくると思うんですよね。
より綺麗に見たいのか、まんまがいいのか。
HDRで動画を撮って、それを自分の壁紙だとかTwitterとかにそのまんまで上げれるわけではないので、
なるべく綺麗に見えるようにコンバートをかけてSDRで吐き出してあげるのが多分正解だと思うんですけど、
いや、どうやれば正解になるのかがほんと難しいというか、今のところよくわからない。
いかようにもできるけどどうしたらいいんだいっていう、どうするのが正解なんだいっていうのがまだわからない。
一個もしかしたら、答えというかその指標になるかもしれないなと思ったのは、
iPhoneって動画撮ってるときに静止画もキャプチャできますよね、○ボタンと。
で、これはSDRで保存される普通の写真なので。
で、それが一個目標かなと思ってるんですけど、あれは結構綺麗になってるんですよ。
で、なんか今使ってるライブラリーでやってもちょっと微妙に違ってたりもするんで、工夫の違いがありますとは。今後の。
なんかかなり茨の道ですね。
厳しい。
今過渡期だと思うんですよね、かなり。
iPhoneでもその撮影が出たばっかりだし、HDR対応の再生機器もまだ少ないしっていう。
iPhoneぐらいしかないですもんね、大きく数が出ているものは。
スマートフォンではiPhone、あとは家庭用のテレビとかね。
でもそんないいテレビ持ってる人そんないないんですよね、きっと。
あと確かドルビービジョン対応のテレビってすごい少ないんですよね、HDR対応でも。
そうですね、高いやつになりますね。
たぶんドルビービジョンに対応するとUKLとかじゃないとっていう話になると思うんで、結果的にハイエンドな方になっちゃうんじゃないですかね。
もしかするとミニLEDの液晶が出てくるとまた状況が変わるかもしれない。
そうですね、次のディスプレイの候補ですよね、UKELの次に。
あれはどこだっけ、LGかなんかがテレビのサンプルを作ってた気もしますけど。
確かね、ミニLEDとマイクロLEDってあるんですよ。
30:02
で、UKELの次って言われてるのがマイクロLEDなんですよね。
そうなんですか。
確かマイクロLEDは画素1個1個にLEDがあるのかな、ですよね。
ミニLEDっていうのは違う。
もっと大きく分割するんですよね。
で、今度AppleがiPadとかMacとかに導入するんじゃないかって言われてるのはミニLEDの方で。
UKEL並みのものを期待してはダメなの?
そうです。
バックライトは違う?
そうです、バックライトを細かくして大量に置けるっていう。
大芝のレグザみたいな。
なんかこれなんだっけな、どこだったっけな。
どっか車用のカーナビとかで使う用のやつで液晶2枚重ねっていうのがあって、
1枚でバックライトの明るさの情報をやって、もう1枚で通常の絵を出すっていう。
それでめちゃくちゃ液晶なのにコントラストいいんですってやつもありましたね。
たぶんそれのもっといいやつですね。
すごい、でも発想がすごい。
どうだったのか。
これはちょっと、もうちょっと勉強しなきゃいけませんな。
Macぐらいの大きさのディスプレイはUKLにするのって難しいんでしょうね。
でもテレビあるからやろうと思えばできるんでしょうけど。
なんか最初のソニーのUKLテレビって10何インチぐらいだった気がするんですけど。
ああ、そうですね。
ただ値段が高いとかと、あれかな、寿命とかですか?
そうですね、寿命短いんですよね。
ただiPhoneX、割とちゃんと画面出てるよ。
最初に出たUKL。
確かに。
おかしのね、折りたたみ形態のUKLって1年経ったら悲惨でしたからね。
なんか画像飛んだり。
ドコモが初めて出したフォーマーの画面がUKLだったんですけど、
数年後ぐらいに修理の時に台外機で借りたらほとんど画面が見えなかったんで。
あれは酷かった。
それはそのメインディスプレイがUKLだったんですか?
そうです。なので画面見えないんで操作できなくて、
修理の台外機でいいのかなこれって思いましたけど。
画素かけたり線入ったり、割れてんじゃないかっていう。
とにかく明るさが全然なくて文字が読めないとか。
今はだいぶ表示の仕方とかも含めて良くはなってると思うんですけど。
今のUKL、寿命もあんまり気にならないよね。寿命で悪化するとか。
33:01
自宅のテレビもUKLで3年以上使ってますけど、いまだに全然綺麗ですし。
うちもそうですね。
残像も残ってないし。
なんか自分でメンテナンスしますし。
だいぶ品質は液晶と比べてもこんなに悪くないくらい、
寿命も伸びてるような気はしますね。
むしろ昔のプラズマテレビの方が焼き付きとか酷かったですけど。
まあ酷かった。
焼き付きって懐かしいですね。
焼き付き、そう焼き付くんです。
焼き付きは多分どの世代でもありますよ。
本館ね、BRTね。
いやプラズマでも多分液晶でもあると思いますよ。
スイッチとかにちゃんと焼き付き防止ボードとかあるじゃない。
境界をごまかすためにちょっとずつ動かす機能ね。
たぶん焼き付きは永遠の課題じゃないですか。
まあでも昔ほど焼き付かなくなりましたよね。
ここはかなり良くなってる。
そろそろMacにUKL載せてもいいのになって思いますけどね。
なんか他に理由があるんでしょうかね。
コストですかね。
コストですね。
まあでもApple Siliconになってコストが低減できるようになったはずなので乗るかもしれないですね、そのうち。
HDR動画撮れるようにしたんだからね。
再生できないとAppleデバイスでっていうのは。
編集は多分ほとんどMacでやってる人が多いと思うんで。
なんか表示環境大事ですよね。
M1チップになって4K、8Kもいけますよみたいな。
Macだから今までの液晶だとか画質が悪いものもちゃんとシミュレートできるように作ってくれないと困る。
絵描く人とか写真編集する人とか非常に困ると思う。
ギラギラ美しすぎても困るぞみたいな。
昔からMacってあれですよね。
画質とか色合いとかをちゃんと補正できるっていうイメージが強いですね。
ちゃんとしてたね。漢字トークの頃から。
カラーシンクがありましたからね。
こんな感じですかね、HDRは。
そうですね、ちょっともう懐かしい話に漢字トークまで出てきたところで。
漢字トーク。
今後またいろいろ進展もあるとは思うので、まだHDR自体が新しい技術だったりして、
とにかくもうAppleも含めて情報が非常に少なくて困ってるという感じ。
またちょっと1年後とかに状況変わってるかもしれないですね。
もうすぐあれも出ますよね。
12 Pro用に新のApple ProRAWフォーマット。
多分次のOSのアップデートで来るんでしょうかね。
まあ分かんないですけど。
分かんないですし、知ってるとしても言えないですけどね。
36:00
年末には公開っていうふうには公開サイト上では言われてます。
あ、そうですね。公式情報でね。
Appleのサイト。公式情報で今年年内にようになります。案内は出てたので。
Apple ProRAWがね。
これがね、ちょっと楽しみです。公開されてるだけの情報だとどうなるのか一つよく分かってない。
あれ写真だけでしたっけ。
写真だけのはず。
普通のRAWと違うのは、ディープフュージョンとかマシンラーニングで得た結果もRAWの中に入れてくれるって書いてあったけど。
違うのか。そういう認識でいたんだけど。
僕もそういう認識ですね。
今までってRAWで取ったらディープフュージョンとか全然関係なしだし、本当にその状態で返ってくるだけだったんだけど。
それがちゃんとApple Siliconの頭脳でやってくれたところもちゃんとRAWデータの中に入ったので、
それを使った静止画の編集がどんなふうにアップデートされてて、
より美しく編集ができるようになったのか、結構興味深いというか楽しみにしてるところですけど。
プロモデルでしかできないんですよね。
そうなんですよ。ミニでできないんです。
それが残念ではあるんですが、プロでやりますよ。MAXで。
たぶんあれメモリー食うんでしょうね。おそらく。
でしょうね。メモリーもそうですし、ストレージも半分までしかないですし。
この動画のHDRが60Pだと撮れないっていうのもメモリーの関係なのかもしれないですね。
かなぁと僕は思ってますね。
図のカメラも一緒なのに、違うところってそれぐらいですね。
あとは政治的な理由かどっちか。
政治的な理由は…
プロと呼ばなければいけない。
それはたぶんメモリー積載量を変えたことがそうかもしれない。どちらかというと。
コストとかにも帰ってくるんですよね。
あとはあれですね、撮影したやつを今度編集するのに
アドビとかがどういう感じで対応するかっていうのもありますね。
アドビはもう情報を得て作り始めてるんだと思うけどね。さすがに。
いろんなディープフュージョンのデータとかをどう扱ってくるか。
ディープフュージョンといえば、12シリーズ全カメラでディープフュージョン聞くのすごく良くないですか?
すごく良いですね。すごく良い。超広角でも聞くのが何気に素敵ですね。
だから何気に素敵ですよ。
そうですよね。あとインカメも。
インカメもね。インカメ僕はほとんど使わないんだけど、自分の自撮りする人も美しく撮れるっていうのがいい。
そうですね。なんか今まで11使ってた時に超広角がやっぱりディープフュージョン聞かないからちょっと使うの二の足踏んでたんですけど。
39:09
ざらざらになっちゃうんですよね。
とりあえず全部のレンズ使うから良いですね。
広角が一番綺麗なのは確かなんですけど、標準のね。
1倍って。
1倍が。でももう2.5倍とかも0.5倍とか全然使っても汚いって感じにはならないからとても良いですね。
とても良い。カメラは本当素敵。
良いよね。本当良いですよね。iPhoneのカメラ。
僕は高級コンパクトデジカメが好きで、GRシリーズとかあるじゃないですか。結構好きで持ち歩いて撮ってたんですけど、iPhoneの11くらいから本当にいらなくなっちゃいまして。
あまりにiPhoneが綺麗に撮れるから。すごい進化でしたね。
すぐ撮れますよね、犬とか。ちょっと良いシーンが。
プロマックスの広角がセンサーでかくなったっていう話あるじゃないですか。
ありますね。
で、あれ画素ピッチだけ出てて、ちょっと逆算してみたんですよ。どんぐらいのセンサーサイズかなって。
おそらく1.75分の1ぐらいですね。
普通のコンパクトデジカメ。
初代のGRデジタルと同じ。
おお。
そうなんだ。
結構すごいですね。安いコンデジよりセンサーでかいですよ。
これね、iPhone11の時からもそうなんですけど、手ブレ補正の補正のされ方がすごく良くなってるんですよ。
ジンバルっていうか、そういう手ブレ補正を外に付けてね、手ブレ補正をなくす機械があるんですけど、そういうのを付けなくても、歩きながらでも画面揺れないぐらいですね。
うん、ですよね。
動画の手ブレ、ブロージングというか。
昨日は動画で撮るじゃないですか、僕。だから結構走りもあったり歩きもあったり、自分の撮影者が動いて撮るんですけれども、
それでもiPhone11、もちろん12もそうなんですけど、自分の歩いてる足の振動が画面にあまり出てこなくなったんです。
それぐらい安定して撮れるようにしてるので、動画のスタビライジングっていうので、それの効果がすごい進化してるような気がします。
そういう意味だと、そのPro Maxのセンサーシフトって効果感じます?
それがあまり、いや、揺れなくなってるのはわかるんですけど、セーラーがセンサーシフトにしたから良い、悪いっていうのはわかんない。
その、ミニと比較してっていうところで。
僕はほとんどわからないです。
やっぱりそうですよね。
ミニも相当きれいに動画撮れますから、これはもうiPhone11 Proの頃から変わってない良さは。
42:06
急に12になって良くなったとは思わない。
おそらく静止画の時の方が意味あるんでしょうね、きっと。暗いところの。
こういうもんですもんね、センサーシフトって。
結構暗いところ撮れますよね、Pro Max。
撮れる、撮れる。すごいきれいに撮れます。
ナイトモードを振っても結構明るいですよね。
はいはい。やっぱセンサーで赤くなってレンズ赤が悪くなったら違うもん。
違うもん、違うもんですね。良くなるんですね。
あと、ライダーで即興して。
ライダーがいつ動いてるか、いまひとつよくわかんないんですけど、これ活躍してるんでしょうか?
ポートレートモードにしてない時はあまり活躍してないですよね、これ。してんのか?
あ、知ってるはずですよ。オードフォーカス合わせるのに。
早くなってる?
早くなってる。特に暗い時だと早くなってるっていう話ですけど、
ちょっとライダーなしの、どうせiPhoneがないからちょっとわかんないんですけどね。
これで比べてみてもいい?
フォーカスの速度。
どっちも速いからわかんないっすわ。
そこですよね、問題は。
12ミニもフォーカス遅いわけじゃなくて結構早いんで、わかりません。
ライダーは結局どの程度効果があるのかっていう問題がありますね。
Apple ProRAWにライダーで撮った情報も入れてくれるんでしょうかね?
載るんじゃないですか。デフス情報が載るって書いてあった気がします。
デフス情報的?後からフォーカスカメラ作りたいんですよ。
後からフォーカスカメラじゃなくて後からフォーカス編集。
今もうすでに何本かできるのがあるんですけど、
これを普通、結構操作は難しいわけなんですよ。
いろんなことができるように。
マニア向けに作ってるアプリなので。
普通にタッチしてフォーカスが変わるぐらいのものが欲しいなって。
本当だったらiPhoneの写真アプリに標準で欲しいぐらいだと思うんですけど、
なぜかできないんですよね。
そういえばそうですね。できないですね。
できるはずなのにやってない。
でもこれ、ウチらがカードパーティーが作ったらその後に
アップルがやって終わるみたいな話に。
ありがちな。
ありがちですね。いつものパターン。
クオリティ高いのを作れば買収してもらえますよ。
マジですか。クーパーチーノ済みますか。
フォーカスを後から合わせ直すっていうのは犬の写真を撮ってる時にすごく欲しくてですね、
45:07
iPhoneのカメラは犬認識をして犬にピントが合うんですけども、犬の顔を割と寄ってクローズアップで撮ると
目にちゃんとピントが合ってくれないことがある。
そういう時には後からちゃんと目をタップして目をくっきりとフォーカスを合わせるっていうことを撮りたいなと思うので、
それをデプスの情報を使って何かしたらいいかなと思ったりもしております。
福江さん頑張ってもらおう。
でもちょっと面白そうです。
犬を、なんか新しいものを買いましたってツイッターに写真を上げる時に、その商品の後ろ側に犬が写ってたりするんですけど、僕の場合。
その写真、そういう写真を撮ると犬の方にフォーカス持っていかれちゃうんですよ。
ディープラーニングか何か知らないんですけど、犬認識されて、俺はこの商品にフォーカスを合わせたいのに、
それはディープラーニングしてくれなくて、マシンラーニングしてくれなくて、犬の方に常にフォーカスを合わせられちゃうんで、
それを写真を撮った後にでも手前の方にフォーカスを変更できたらいいと思ったり。
フォーカスでも変更できるんですかね?
望遠レンズで撮ると結構難しいんですけど、ピント自体が合ってないので。
そうですよね。
ただ標準広角のレンズ、メインのレンズだったり、超広角ってそもそもオートフォーカスないので固定焦点なので、超広角で撮ったら全部にピント合ってます。
それでポートレートモードの話ですもんね。元のデータがあるはずだからできると。
望遠で撮っちゃうと元データがピンボケでフォーカスが合ってるピンボケっていうのが混じったりするので、
ピント合わせたいところにはすでにボケてるっていう元写真しかないので、それをフォーカス合わせ直すのは難しいんですけど、
超広角レンズで撮ったやつに関しては全部にフォーカスが合ってるようで、後からどこをぼかせばいいかっていうのができる。
プロマックスだと広角だと無理ですね。広角でも。
センサーがでかいから。
センサーがでかいから。今やってみたんですけど、適当にカメラ起動してみたけど、後ろめちゃめちゃぼけてるんですよね。
じゃああれですな。
これフォートレートモードいらないじゃんって今思いましたね。
ぼけるから。
めっちゃぼける。
確かにね。
物撮りだったらね、いらないですね。
今回iPhone12 Pro Maxでセンサーが大きくなってしまって、だんだん一眼に近づいてきたので、今度はフォーカスを合わせる作業が必要になってきたというか、
48:12
今までパンフォーカスで良かったのに、全部フォーカス合わせてるような写真の撮り方で良かったのに、
ちゃんとピントが合ってるとか合ってないところをカメラが意識して撮影しないといけなくなってくるので、
逆にセンサーの大型化っていうのは自由度がなくなるんですよ。
だからフルサイズのセンサーってすごく流行ってますけど、一眼の世界だと。
失敗写真もめちゃくちゃ多いんですよ、フルサイズにすることで。
昔の小さいコンパクトデジカメだったら、パクッて撮ってもいい感じでみんな撮れてたのに、
フルサイズで撮ってしまったが故に全然関係ないところにピントがあって失敗写真になっちゃったとか、
っていう事件が多発しているはずなんですけど、成功した写真があまりにも綺麗だからみんなそこに気づかないフリしてるんですよね。
最近はね、瞳オートフォーカスとかあるから失敗率を下げる技術がね。
それはある、確かに技術でカバーしている部分でしょうけど。
まあでもパワフォーカスはすごい便利だから、それこそできるのかな。
iPhoneの標準なんだけど、絞りをめちゃめちゃ絞って撮るカメラアプリとか。
絞って、感度上げて。
マニュアル撮影が全部今iPhoneができるようになっているので、それはできますね。
ザラザラになるのもディープフュージョンみたいに。
それをマニアックな感じの写真アプリじゃなくて、
もう起動したらパンフォーカスになってるカメラですよみたいなのがあると意外とウケるかもしれないですね。
分かんないですけど。
フォーカスする時間を待たなくていい。
フォーカスしないカメラみたいな。
超広角はすごい楽ですよ。
フォーカスする必要がないカメラ。
僕はどっちかというと背景ぼかしたくない人なんです。
ぼかしは逃げだと思ってるんで。
ぼかしたらなんか上手に見えるんですけど、すごいステレオタイプな写真にしてやがっちゃうんですよね。
なので、ぼかさない背景も入れてなんか写真撮るのが楽しいと思っている人なので。
なかなか最初からぼかされちゃうというよりは、
全部パンフォーカスで撮って、後からぼかすポイントを決められるっていう人たち。
すごい未来的で楽しいなって思って。
他社のアプリですけれども、フォーカスっていうアプリが確かありまして、
その辺のことが全部できるんですね。
フォコスみたいに書くやつですよね。
あ、そうですそうですそうです。
有料のアプリだったらなんですけど、あれがすごい気に入っていて。
51:03
ただあれが非常にね、いろいろできるがゆえに難しいんですよね、使い勝手。
使い勝手がひとつ言うのは、ここまでいろいろできなくてもいいから。
いろいろに使いたいな。
例えば、iPhoneの写真アプリの中に普通にそういう機能が欲しいなって。
そういうふうに思ったりしますけど。
Apple入れといてよって、せっかく思ったりします。
確かに。
もうなんか2時間ぐらい喋ってる。
そう、これね、結構ね、収録時間がすごいことになっていて。
なんか音声ファイルが1.89GBになってるんですけど。
ほんとだ。
ということで、ちょっとね、まだまだ話せる感じがあるけれども。
実は今収録しているのがね、もう23時40分を回ったところなので。
そろそろね、終わりたいと思いますという感じで。
ほんとは今日、他もいろいろ話したかったんですけどね。
HDR以外も大きな発表がありましたし、どこもそこから。
もうね、その話するともうここから1時間ぐらいになっちゃうみたいな。
せっかくiPhone12の話したのに、5Gの話が全くなかったので。
そうだ。
そうだ。
そうだ。
5Gって、そういえばその機能入ってたなって。
はい。
忘れてた。
1回だけ5Gって表示で見ましたけども。
でも今回カメラというね、映像の撮影の話。
次回はモバイルの話もぜひ。
ぜひ。
じゃあまたゲストで来ていただけるということで。
こんな僕たちよろしければ。
じゃあそんな感じでね。
お聞きいただきありがとうございました。
ありがとうございました。
ありがとうございました。
53:10

コメント

スクロール