Что такое HDR
Для полного понимания принципа работы HDR+ придется для начала разобраться с обычным HDR.
Основная проблема всех камер смартфонов — маленький размер матрицы (а точнее — фотоячеек) и, как следствие, недостаточный охват динамического диапазона. Чтобы исправить этот недостаток, был разработан алгоритм HDR (High-Dynamic Range), принцип работы которого следующий: камера делает кадр со стандартным для данной сцены уровнем экспозиции, затем делает недоэкспонированный кадр, на котором будут четко видны лишь пересвеченные области изначального снимка, далее выполняется переэкспонированный снимок, на котором видны только затемненные детали изначального снимка, а все остальное пересвечено. Далее снимки накладываются друг на друга и объединяются при помощи специальных алгоритмов, качество которых зависит от производителя софта камеры. В результате получается снимок с хорошей проработкой деталей как в тенях, так и в более светлых местах.
Недостатки HDR очевидны: долгое время съемки приводит к тому, что попавшие в кадр движущиеся объекты будут двоиться, а даже небольшая тряска смажет картинку.
Стандарты в деталях
Как уже упоминалось ранее, современная поддержка HDR-видео включает в себя три самых популярных стандарта: HLG, DolbyVision и HDR10.
HLG
Стандарт, включающий в себя гамма-кривую (вот здесь тоже щеки надувать не будем и умными словами про функции писать не будем, гамма-кривая — любительское определение) HLG и цветовое пространство (контейнер) Rec.2020. Под максимальной яркостью подразумеваются 1000 нит. Но используется и для большей. Этот стандарт был задуман как стандарт для передачи прямых трансляций в HDR. Его смысл заключался в том, что сама кривая очень просто подстраивается под любую яркость дисплея. Она хорошо может работать как при 300 нитах, так и при 1000 нитах. Т.е. его гибкость является его преимуществом. По этой же причине данный стандарт был горячо принят видеографами. Он позволяет не сильно утруждать себя контролем баланса светов и теней. Достаточно примерно понимать, что первая половина гистограммы — это основная часть сцены, и вторая часть — для ярких областей и бликов. С этим стандартом легко работать и легко преобразовывать на экранах любой яркости. Одновременно с этим стоит заметить, что в самом начале своего пути стандарт не предназначался для записи сырого материала с последующей постобработкой. Это стандарт доставки, а не стандарт записи. Но Sony каким-то образом умудрились его подать как логарифмический профиль. Причем в самом начале для глубины цвета 8 бит. Аппараты фирмы Сони, в том числе смартфоны, до сих пор нормально воспринимают 8-битный HLG. Тру-колористы данный стандарт не считают за HDR-стандарт.
BBC WhitePaper WHP 309.
Dolby Vision
Стандарт для высококачественного контента. Включает в себя гамма-кривую PQ и цветовое пространство P3 (в файлах упаковывается в контейнер Rec.2020), обычно 12 бит. Максимальной яркостью подразумевает 10000 нит, но имеет две опорных градации 1000 и 4000 нит. Создавался с целью показать то, что подразумевал создатель контента без искажений яркости и цвета.
Что значит без искажений? Гамма-кривая PQ разрабатывалась с целью соотнести яркость реального мира с яркостью видео-контента, а также ориентацией на возможности дисплеев. Представим, что у нас есть два дисплея: 600 нит и 1000 нит. И контент, предназначенный для дисплея 1000 нит. В этом случае контент не должен быть подстроен под возможности дисплея 600 нит, такой дисплей должен отобразить все, что предназначается отобразить до этого предела и остальное срезать (не все так идеально в реальности). Таким образом у обоих дисплеев кадр до 600 нит будет абсолютно одинаковым, а монитор в 1000 нит сможет показать дополнительный контент выше 600 нит. Это главное преимущество данного стандарта, помимо всего прочего. Dolby Vision обладает огромными возможностями по динамическим метаданным. Динамические метаданные — это информация, сопровождающая каждый отдельный кадр, в которой содержатся указания для проигрывателя, как он должен реагировать на кадр. Этот инструмент дает художнику возможность не меняя содержания самого кадра, придать ему эмоцию. В пределах этих метаданных достаточно тонко можно поменять и цвет и яркость. 10 бит может оказаться недостаточным для такого вида манипуляций, поэтому стандарт подразумевает 12 бит. Чаще всего с этим стандартом мы имеем дело в кинотеатрах. Чтобы обеспечить корректную работу данного стандарта в домашних условиях, надо неплохо постараться. Тру-колористы считают настоящий Dolby Vision настоящим HDR, и не признают никакие другие стандарты.
HDR10
Бесплатная альтернатива Dolby Vision от Samsung. Гамма-кривая и цветовое пространство те же. Предполагается использование битовой глубины цвета 10 бит. В самом начале целились на максимальную яркость 1000 нит, но с учетом быстрого развития HDR-видео, порог был повышен до 4000 нит. Да, сама гамма кривая как и в Dolby Vision предполагает максимальный предел в 10000 нит. Но почему-то в контексте HDR10 такая яркость не упоминается. Следующее отличие от Dolby Vision — это отсутствие динамических метаданных. Этот вопрос был решен в стандарте HDR10+. Тот самый плюс означает поддержку динамических метаданных. Здесь так же их “бюджетная” версия. С помощью метаданных в HDR10+ можно отрисовать свето-теневой рисунок кадра, и на этом всё. Такой гибкости как в Dolby Vision нет. Второй минус метаданных HDR10+, сколько уже времени я вращаюсь в сфере покраски видео, еще ни разу не встретил ни одного приложения, способного работать с этими метаданными. Т.е. они как бы есть, но их как бы нет. Для кого они существуют в стандарте и освещаются в рекламе, остается загадкой.
Данный стандарт в обоих вариациях (с + и без) был тепло принят производителями смартфонов, которые хотели, чтобы их аппараты поддерживали HDR-видео. С приходом HDR-дисплеев в смартфоны, производители задумались о том, чтобы контент в HDR10+ можно было бы записывать. Плюс тут конечно оказался лишним, но об этом все умолчали. Минусом данного стандарта как стандарта записи видео является его непредназначенность для этого. При использовании HDR10 очень сложно контролировать экспозицию в светах, что приводит к некрасивому клиппингу, когда насыщенное небо переходит в резко очерченный солнечный круг. При работе с HDR10 надо очень ответственно подходить к вопросам цвета в светлых участках кадра, потому что HDR10 при проигрывании контента проигрывателем предполагает дополнительное насыщение светлых областей кадра. Насыщенность светов есть преимущество HDR10 перед HLG, у которого чем ярче пиксель, тем больше он теряет насыщенность. Но касается это преимущество HDR10 как стандарта доставки видео-контента, а не записи. При записи все это контролировать просто невозможно. И никогда этот стандарт не предполагался для записи. Но либо рынок диктует правила, либо сами производители таким образом стараются удивить, сегодня почти все современные смартфоны снимают HDR10. Исключением являются только Apple и Sony. Сегодня HDR10 это самый популярный стандарт. Он поддерживается большинством производителей смартфонов, мониторов и телевизоров, и даже лазерными проекторами.
HDR10+ WhitePaper.
Пример HDR-видео, снятого на телефон приложением mcpro24fps.
Что такое HDR+
Умные головы придумали алгоритм, лишенный недостатков HDR. Впрочем, общее с HDR у него одно лишь название.
HDR+ расшифровывается как High-Dynamic Range + Low Noise. Свою известность он получил за ряд выдающихся возможностей: алгоритм способен устранять шумы практически без потери детализации, повышать качество цветопередачи, что крайне важно при плохом освещении и по краям кадра, вместе с этим он сильно расширяет динамический диапазон фотографии. HDR+, в отличие от стандартного HDR, почти не боится тряски смартфона и движения в кадре.
Первым смартфоном с поддержкой HDR+ стал Nexus 5. Из-за не самого лучшего баланса белого и маленького отверстия диафрагмы (f2.4) камера этого смартфона считалась не более чем крепким середнячком. Все изменилось с выходом обновления Android 4.4.2. Именно оно принесло с собой поддержку режима HDR+ и изумительное качество ночных снимков. Они хоть и не отличались большой яркостью по всему полю кадра, но благодаря HDR+ практически не содержали шума при сохранении мелких деталей и обладали превосходной (для смартфонов 2013 года) передачей цветов.
Nexus 5 + HDR+
Другие статьи в выпуске:
Xakep #232. Опасный IoT
- Содержание выпуска
- Подписка на «Хакер»-70%
()
Если разобраться подробнее
И все же без терминологии не обойтись: в игру вступает понятие «динамический диапазон». Здоровый человек без труда различает и очень яркие, и очень темные объекты, просто переводя взгляд с одних на другие: к примеру, с пестрого фасада дворца Пена в Синтре на насыщенно-синюю мозаику в его арке.
Если взглянуть на любую картинку и принять самую темную ее точку за 0, а самую яркую — за 100, станет очевидно, что наши глаза улавливают любые оттенки в любой точке этой условной шкалы. Это и есть наш динамический диапазон.
Вот только фотокамеры устроены иначе: даже самый навороченный объектив не способен охватить полный спектр и точно передать детали и с яркостью 0, и с яркостью 100. Именно поэтому их динамический диапазон определяют как «узкий» или «широкий», «хороший» или «плохой». Камере доступен лишь ограниченный отрезок шкалы, в среднем от 30 % до 70 %. Чем шире динамический диапазон устройства, тем эффективнее оно балансирует яркость.
«+7» или «8» в номере телефона: в чем разница и на что это влияет?
История создания HDR+
Как же компания, никогда не занимавшаяся камерами, создала алгоритм, который творит чудеса, используя обычные, по меркам флагманов, камеры Nexus и Pixel?
Все началось в 2011 году, когда Себастьян Трун (Sebastian Thrun), глава компании Google X (теперь уже просто X), подыскивал камеру для очков дополненной реальности Google Glass. Массогабаритные требования предъявлялись очень жесткие. Размер матрицы камеры должен был быть еще меньше, чем в смартфонах, что крайне плохо сказывалось бы на динамическом диапазоне и приводило бы к появлению множества шумов на фотографии.
Выход оставался один — попытаться улучшить фотографию программно, с помощью алгоритмов. Эту задачу должен был решить Марк Левой (Marc Levoy), преподаватель факультета информатики Стэнфордского университета, эксперт в области вычислительной фотографии. Он занимался технологией захвата и обработки изображений на базе программного обеспечения.
Марк сформировал команду, известную как Gcam, которая занялась изучением метода Image Fusion (сплавление изображений), основанного на объединении серии снимков в один кадр. Фотографии, обработанные при помощи этого метода, получались более яркими и резкими, имели малое количество шумов. В 2013 году технология дебютировала в Google Glass, а затем, в этом же году, переименованная в HDR+, появилась в Nexus 5.
Еще один ночной снимок с Nexus 5
()
Битовая глубина цвета
В контексте HDR-видео битовая глубина 8 бит устарела. Учитывая то, что разработчики стандарта вкладывают в него требования на будущее, было сразу понятно, что такой широкий цветовой охват и такая высокая контрастность не будут дружить с такой низкой битовой глубиной цвета. Чем выше контрастность, чем шире цветовое пространство, тем больше заметны проблемы постеризации при низкой глубине цвета. Поэтому было принято решение использовать в стандартах минимальное значение в 10 бит. Здесь стоит сделать оговорку о стандарте HLG, который телевизоры Sony поддерживают с глубиной цвета 8 бит. Что касается дисплеев, то тут все очень запутано и непонятно. Одни матрицы с честными 10 битами, другие с 8 битами + FRC (Frame rate control), когда 2 бита добавляются через игру с частотой мерцания (нечестные 10 бит). Фактически лично я разницы не вижу. Но уверен, что есть люди, которые смогут отличить честные 10 бит от нечестных. А может быть есть еще какая-то проблема, которая возникает при использовании нечестных 10 бит. Ниже я сильно утрированно попытался показать, почему так важны 10 бит. Чтобы исключить щеконадувательство особливо умных, сразу предупреждаю, что я не пытался учитывать контрастность и не пытался показать все как есть. Ориентировался исключительно на один параметр: максимальную/пиковую яркость выдуманных дисплеев в нитах.
Предположим, что у нас есть 10-битный контент в виде градиента из 64 блоков. Первый монитор у нас с низкой контрастностью в 300 нит и 8 битовой глубиной цвета. Обратите внимание, что мы видим отдельные блоки, но они по яркости идут достаточно равномерно. Второй монитор — высококонтрастный монитор с максимальной яркостью в 1200 нит, т.е. в 4 раза ярче, и битовой глубиной 8 бит. Этот же контент уже не выглядит таким плавным и мы начинаем видеть границы битовой глубины достаточно отчетливо. Третий монитор — высококонтрастный монитор в 1200 нит и битовой глубиной 10 бит, т.е. в 4 раза больше градаций серого. Здесь никаких вопросов не возникает. Все 64 блока отображаются с той яркостью, с которой и было задумано. Градиент выглядит плавным.
Как работает HDR+
HDR+ — чрезвычайно сложная технология, детально разобрать которую в рамках данной статьи невозможно. Поэтому мы рассмотрим общий принцип работы, не останавливаясь на деталях.
Фундаментальный принцип
После нажатия кнопки спуска затвора камера захватывает серию недоэкспонированных (с короткой выдержкой) кадров (это нужно для сохранения максимального количества деталей на снимке). Количество кадров зависит от сложности условий освещения. Чем темнее сцена или чем больше деталей в тени нужно осветить, тем больше кадров выполняет смартфон.
Когда серия снимков будет сделана, она объединяется в один снимок. Тут выручает заниженная выдержка, благодаря которой каждая фотография в серии выглядит относительно четко. Из трех первых кадров выбирается самый приемлемый в плане как резкости, так и детализации для использования в качестве основы. Затем полученные снимки разделяются на фрагменты и система проверяет, можно ли совместить соседние фрагменты и как это сделать. Обнаружив лишние предметы в одном из фрагментов, алгоритм удаляет этот фрагмент и выбирает похожий с другого кадра. Полученные снимки обрабатываются с помощью специального алгоритма, основанного на методе удачных экспозиций (в основном он применяется в астрофотографии для уменьшения размытости изображений, вызванной мерцающей атмосферой Земли).
Далее в дело вступает сложная система подавления шумов, которая включает в себя как простой метод усреднения цвета пикселей на основе нескольких снимков, так и систему предсказания появления шумов. Алгоритм работает очень мягко на границах переходов тональностей, чтобы минимизировать потерю детализации, пусть даже и ценой наличия небольшого количества шума в таких местах. А вот на участках с равномерной текстурой «шумодав» выравнивает картинку вплоть до почти идеально равномерного тона с сохранением перехода оттенков.
Работа шумодава в сложных условиях. Слева до обработки, а справа — после
(
)
А как же расширение динамического диапазона? Как мы уже знаем, использование короткой выдержки избавляет нас от пересвеченных мест. Осталось только удалить шумы на темном участке ранее описанным алгоритмом.
На завершающем этапе выполняется постобработка полученного изображения: алгоритм делает минимизацию виньетирования, обусловленного попаданием света на матрицу под наклонным углом, корректирует хроматическую аберрацию заменой пикселей у высококонтрастных краев на соседние, увеличивает насыщенность зелени, синие и пурпурные оттенки смещает в сторону голубого, усиливает резкость (шарпинг) и выполняет ряд других шагов, повышающих качество фотографии.
Иллюстрация работы конвейерного алгоритма HDR+ из доклада разработчиков
Слева фотография из стоковой камеры Samsung в HDR, а справа фотография, созданная в Gcam в HDR+. Видно, что алгоритм принес в жертву детализацию неба для прорисовки объектов на земле.
()
()
Обновление HDR+ в Google Pixel
В Google Pixel алгоритм претерпел существенные изменения. Теперь смартфон начинает снимать сразу после запуска камеры и в зависимости от степени освещения делает от 15 до 30 кадров в секунду. Эта технология называется ZSL (Zero Shutting Lag) и была придумана для того, чтобы делать моментальные снимки. Но Pixel использует ее для работы HDR+: при нажатии на кнопку спуска смартфон выбирает от 2 до 10 кадров из буфера ZSL (в зависимости от условий освещения и наличия движущихся объектов). Затем из первых двух-трех кадров выбирается лучший, а остальные, как и в предыдущей версии алгоритма, слоями накладываются на основной.
Наряду с этим появилось разделение на два режима: HDR+ Auto и HDR+. Последний берет максимально большое количество снимков для создания итоговой фотографии. Она получается более сочной и яркой.
HDR+ Auto делает меньше фотографий, благодаря чему движущиеся объекты становятся менее размытыми, влияние тряски рук ниже, а фотография готова практически мгновенно после нажатия на кнопку съемки.
В версии Google Камеры для Pixel 2/2XL режим HDR+ Auto был переименован в HDR+ On, а HDR+ стал называться HDR+ Enhanced.
Во втором поколении Google Pixel появился специальный сопроцессор, называемый Pixel Visual Core. В настоящее время чип применяется только для ускоренной обработки фотографий в режиме HDR+, а также предоставляет сторонним приложениям возможность выполнять снимки в HDR+. На качестве фотографий, сделанных Google Камерой, его наличие или отсутствие никак не сказывается.
Принцип работы
Принцип работы режима.
HDR в телефоне включается как вручную, так и работает в автоматическом режиме. Если режим активирован, при нажатии кнопки спуска фотокамера делает сразу несколько фотографий подряд – каждый снимок имеет разную чувствительность и экспозицию. Полученные исходники проходят обработку программными алгоритмами, которые определяют удачные кадры, их части, после чего происходит склейка выбранных в единый снимок.
Если использовать расширенный диапазон, пользователь получает фотографии с коротким режимом выдержки. При быстрой работе системы автофокусировки фото получается чётче качественнее – в большинстве случаев на порядок лучше, чем при стандартном режиме.
INFO
Google использует HDR+ даже для устранения проблем с железом. Из-за конструктивной ошибки Google Pixel / Pixel XL мог сделать фотографию с сильным засветом. Google выпустила обновление, которое использует HDR+, чтобы убрать этот засвет, комбинируя снимки.
Преимущества и недостатки
Выделим основные достоинства HDR+:
- Алгоритм замечательно устраняет шумы с фотографий, практически не искажая детали.
- Цвета в темных сюжетах гораздо насыщеннее, чем при однокадровой съемке.
- Движущиеся объекты на снимках реже двоятся, чем при съемке в режиме HDR.
- Даже при создании кадра в условиях недостаточной освещенности вероятность смазывания картинки из-за дрожания камеры сведена к минимуму.
- Динамический диапазон шире, чем без использования HDR+.
- Цветопередача преимущественно получается естественней, чем при однокадровой съемке (не для всех смартфонов), особенно по углам снимка.
На ниже размещенных иллюстрациях слева расположена фотография со стоковой камеры Galaxy S7, а в правой части — фото в HDR+ через Google Камеру на том же устройстве.
Ночные фотографии города. Тут прекрасно видно, что HDR+ дает нам возможность получить отчетливое изображение группы граждан, расположившихся под вывеской Билайн. Небо выглядит чисто, дорожный знак отчетливо. Трава, как и должна быть, зеленая. Вывеска Билайн с правильной передачей цветов. Отчетливая прорисовка балконов, проводов и крон деревьев. Важно — проработка деталей на деревьях справа (в тени) у HDR+ несколько хуже, чем у стоковой камеры.
()
(
)
(
)
Обрати внимание на прорисовку лиц скульптур, сочность красок одежды, отсутствие критичных шумов. Однако прорисовка объектов в тени опять оставляет желать лучшего.
(
)
(
)
(
)
Городская окраина. Тусклого света фонарей достаточно для прорисовки HDR+ поверхности стены здания.
(
)
()
(
)
Утренние фотографии. В сложных условиях утренней съемки при ярко выраженном контровом свете цвета выглядят естественно, рисунок на стволах деревьев отчетлив, изображение куста и травы в тени дерева просматривается в глубину.
(
)
(
)
()
Недостатков у HDR+ мало, да и носят они несущественный характер для большинства сюжетов. Во-первых, для создания HDR+ фотографии требуется много ресурсов процессора и оперативной памяти, что приводит к ряду негативных последствий:
- повышается расход аккумулятора, и устройство греется при объединении серии снимков;
- нельзя быстро сделать несколько снимков;
- мгновенный предпросмотр недоступен; фотография появится в галерее после окончания обработки, которая на Snapdragon 810 длится до четырех секунд.
Частично эти проблемы уже решены с помощью Pixel Visual Core. Но этот сопроцессор, скорее всего, так и останется козырем Google Pixel.
Во-вторых, для работы алгоритму необходимо как минимум две фотографии, а в среднем происходит захват четырех-пяти кадров. Поэтому:
- обязательно возникнут ситуации, в которых алгоритмы будут давать сбои;
- HDR+ немного проигрывает классическому HDR по охвату динамического диапазона;
- создание одной фотографии и ее обработка с использованием быстрого ISP-сопроцессора будет предпочтительнее в экшен-сценах, потому что позволяет избежать двоения и смазывания объектов при невысокой выдержке.
Недостатки HDR+ из доклада его разработчиков
Ночная фотография с множеством движущихся объектов
()
Цветовой охват
Перед тем, как начнем рассматривать стандарты, я хочу обратить внимание на цветовой охват Rec.2020 и битовую глубину цвета. Цветовой охват в большей степени ориентируется на дисплеи, чем на сенсоры камер. Именно у первых в потребительском сегменте есть ограничения в возможностях. Сенсоры уже давно ушли вперед. У сенсоров нет проблем, чтобы запечатлеть весь спектр видимых человеческому глазу световых волн. Глаз видит 380-700 нм, сенсор видит 400-1100 нм. Поэтому и проблем с цветовым охватом нет. Этим я хочу закрыть тему постоянного вопроса: «а умеет ли сенсор такой широкий охват». Умеет и больше.
Давайте рассмотрим эту диаграмму. Rec.709 (он же sRGB) — это то, что нам способны отобразить мониторы уже продолжительное время, и то не всегда на 100%. Rec.2020 — это то, что закладывают разработчики стандартов HDR на будущее. Сегодня ни один монитор на 100% отобразить весь Rec.2020 не способен. Загогулина, раскрашенная в разные цвета,- это то, что видит человеческий взгляд. Мысленно продолжите фигуру за 700 до 1100 и чуть-чуть сократите с 380 до 400, и вы получите то, что умеет сенсор современной камеры. И это много больше, чем Rec.2020. C ДД чуть поскромнее. “Взрослые” камеры умеют в 14 стопов и выше (в случае необходимости мы можем взять камеру RED с параллельной записью разной экспозиции в два отдельных файла и получить сверх широкий ДД). Говоря простым языком, стоп определяет диапазон яркости, ярче в 2 раза, чем предыдущая яркость. Так, если х — исходная яркость, то 1 стоп = х*2 (600 нит по отношению к 300 нит = +1 стоп). Сенсоры камер смартфонов — в 10-11 стопов. С дисплеями чуть по-другому: обычные HDR дисплеи умеют отобразить 10-11 стопов, премиальные 13-14, профессиональные до 24 стопов (Например, Eizo ColorEdge Prominence CG3146). Здесь я хотел бы еще раз обратить внимание на то, что, когда речь идет о сенсоре камеры — речь идет о всей площади сенсора, а когда мы говорим о потребительском сегменте дисплеев, то есть шанс, что пиковая яркость работает одновременно всего лишь на 10% площади дисплея. В этом случае можно считать, что сенсор в 11 стопов может запечатлеть больший ДД, чем монитор отобразить.
Принято считать, что именно Rec.2020 используется в HDR-видеоконтенте. На самом деле, чтобы отобразить Rec.2020, монитор должен буквально светить лазером прямо в глаза. Как я уже писал выше, на сегодня нет ни одного монитора, способного отобразить весь Rec.2020. Rec.2020 остается контейнером с надеждой на будущее развитие, но в реальности сам контент стараются поставлять в цветовом пространстве P3. Колористы, которые красят HDR-контент, красят его в пределах P3, но помещают его в контейнеры с метаданными Rec.2020.
На каких устройствах работает HDR+
Чисто теоретически HDR+ может работать на любом смартфоне с версией Android не ниже 5.0 (необходим Camera2 API). Но по соображениям маркетинга, а также из-за наличия некоторых оптимизаций, требующих специальных железных компонентов (сопроцессор Hexagon в Snapdragon), Google намеренно заблокировала включение HDR+ на любом устройстве, кроме Pixel. Однако Android не был бы Android’ом, если бы энтузиасты не нашли способ обойти это ограничение.
В августе 2022 года один из пользователей 4PDA сумел модифицировать приложение Google Camera таким образом, чтобы режим HDR+ можно было использовать на любом смартфоне с сигнальным процессором Hexagon 680+ (Snapdragon 820+) и включенным Camera2 API. Первое время мод не поддерживал ZSL, да и в целом выглядел сыро. Но и этого было достаточно, чтобы улучшить качество фотосъемки смартфонов Xiaomi Mi5S, OnePlus 3 и прочих до ранее недостижимого для них уровня, а HTC U11 так и вовсе получил возможность на равных соревноваться с Google Pixel.
Позже к адаптации Google Camera на телефоны сторонних вендоров подключились другие разработчики. Спустя некоторое время HDR+ заработал даже на устройствах со Snapdragon 808 и 810. На сегодняшний день практически для каждого смартфона, основанного на Snapdragon ARMv8, работающего на Android 7+ (в некоторых случаях и Android 6) и имеющего возможность использовать Camera2 API, существует портированная версия Google Camera. Частенько она поддерживается отдельным энтузиастом, но обычно таких разработчиков сразу несколько.
В начале января 2018-го пользователь XDA miniuser123 сумел запустить Google Camera с HDR+ на своем Galaxy S7 с процессором Exynos. Немного позже выяснилось, что Google Camera работала также на Galaxy S8 и Note 8. Первые версии для Exynos были нестабильны, часто падали и зависали, в них не работала оптическая стабилизация изображения и ZSL. Версия 3.3 уже достаточно стабильна, поддерживает оптическую стабилизацию изображения и ZSL и все функции Google Camera, за исключением портретного режима. А в число поддерживаемых устройств теперь входят несколько смартфонов Samsung серии A.
Но ведь мой iPhone снимает Dolby…
Теперь давайте вспомним, где мы слышали о стандарте Dolby Vision, касаемо смартфонов? Правильно! iPhone. Казалось бы, как круто, Dolby Vision в смартфоне! Но не тут-то было. Маркетинг снова нас увлек своей красивой болтовней. Каким образом получилось так, что в Dolby неожиданным образом смастерили новый стандарт, использующий гамма-кривую HLG, и подразумевающий 10 бит, для меня до сих пор остается загадкой. Но факт остается фактом: специально для Apple Dolby пошли на большие уступки. Что мы имеем в результате? Мы имеет стандарт HLG с возможностью вписывать динамические метаданные от Dolby. И чем дальше в лес, тем больше дров. Чтобы работать с динамическими метаданными от Dolby, колорист должен купить у Dolby не самую дешевую лицензию. У Apple такая лицензия есть, и их нативное приложение имеет возможность работать с этими метаданными. И всё. Все преимущества на этом кончаются, что в принципе вынуждает воспринимать Dolby Vision на смартфонах Apple как обычный HLG 10 бит у тех же Sony. Может быть Apple имеют какие-то далеко идущие планы на этот счет. Но пока что всё это выглядит как красивый маркетинг. Потому что мало того, что никто не имеет лицензий на редактирование метаданных, так еще и пользователей, способных это сделать корректно, надо поискать. Плюс приложений, способных работать с метаданными Dolby Vision, критически мало. Dolby Vision от Dolby — очень мощный стандарт видео, лучший, что есть сегодня. Dolby Vision от Apple — жалкое подобие, призванное популяризировать стандарт (все производители телевизоров кинулись его поддерживать), что тоже неплохо. Т.к. тру-колористы стандарт HLG не считают за HDR-стандарт, то и представленный Apple Dolby Vision не вызвал в них никакого восторга.
Using an Apple iPhone 12 captured Dolby Vision content as a source in a Dolby Vision production.
Как получить HDR+ на своем устройстве
Если у тебя смартфон на Exynos, то выбор невелик. Переходи в тему обсуждения на XDA, открывай спойлер V8.3b Base (если у тебя Android или Pixe2Mod Base (для Android 7) и качай последнюю версию. Также можешь посетить группу в Telegram, где оперативно выкладывают все обновления Google Камеры.
Владельцам смартфонов с процессом Qualcomm придется поискать. Энтузиасты активно поддерживают версии Google Camera с HDR+ для множества смартфонов. Приведу наиболее известные модели:
- OnePlus 3/3t;
- OnePlus 5/5t;
- OnePlus 6;
- Xiaomi Mi Max2;
- Xiaomi Redmi 4x;
- Xiaomi Redmi 5 Plus.
Если в списке нет твоей модели, рекомендую прогуляться по темам обсуждения камеры и самого устройства на 4PDA и XDA. Как минимум там будут пользователи, пытавшиеся запустить HDR+.
Ко всему вышесказанному упомяну, что в интернете есть страница, где собраны практически все версии Google Camera, на которой удобно тестировать различные Gcam на малоизвестных устройствах.
Что такое Al в камере смартфона?
Что такое АI камера и для чего она нужна? AI означает искусственный интеллект. Искусственный интеллект внутри камеры смартфона – это ИИ специально обученный алгоритм, который умеет определять сцену, объект съемки.
Интересные материалы:
Как печатать с компьютера на принтер Canon? Как перебросить фотографии с компьютера на ноутбук? Как передать данные с компьютера на компьютер? Как передать фото с iPhone на компьютер через Bluetooth? Как передать музыку с компьютера на флешку? Как передать видео на компьютер? Как перейти в обычный режим на компьютере? Как перекинуть фото с айфона на компьютер через iTunes? Как перекинуть фотографии с одного компьютера на другой? Как перекинуть запись с диктофона на айфоне на компьютер?