G sync или freesync: NVIDIA G-Sync против AMD FreeSync

Содержание

NVIDIA G-Sync против AMD FreeSync

Во времена древние, как первая лампочка Ильича, дальние предки нынешних киберспортсменов играл в Pong на пухленьких телевизорах и горя не знали. Но времена шли, графика становилась лучше, а частота обновления кадров — выше. И дошло до того, что каждый компонент в компьютере, будь то видеокарта или монитор, работают на своей волне, делая картинку рваной. А устраняют сие безобразие технологии NVIDIA G-Sync и AMD FreeSync, которые мы разберём на примере монитора AOC G2460PF.

Назначение NVIDIA G-Sync и AMD FreeSync

Тут без сюрпризов. Обе технологии призваны аннулировать разницу кадров, отображаемую монитором и выдаваемую видеокартой. Если этого не делать, то на мониторе может отображаться и текущий кадр, и пара кусков следующего, из-за чего появляется заметный “сдвиг” и “разрыв” изображения. Геймерам с намётанным глазом это как солёной салакой по свежепобритому подбородку.

Обе технологии призваны заменить программный костыль под названием VSync, который обрезает количество кадров, не давая ему подниматься выше определённого уровня.

Это помогает делать изображение более стабильным, но увеличивает задержку ввода и никак не влияет на рваную картинку в случае более низких показателей FPS.

Читайте также: 5 КЛЮЧЕВЫХ фактов об AMD Zen 2, Ryzen Matisse и Radeon Navi

Применение

В отличие от VSync, G-Sync и FreeSync являются решениями на стороне железа. G-Sync — технология проприетарная, владелец её — NVIDIA, и появилась она первой. Вслед за ней последовала и FreeSync от AMD, которая была рождена вольным и бесплатным стандартом.

G-Sync реализована специальным чипом внутри монитора, и за лицензирование этой технологии производителю приходится платить дополнительные деньги, что выливается в повышенной стоимости итогового продукта (причём где-то на $200). Работает она только с видеокартами от NVIDIA, что логично.

FreeSync — технология бесплатная, и реализовывается без нужды в дополнительных чипах  чуть ли не программными средствами и силами самих производителей, будь то AOC или кто-либо угодно. Мониторы с поддержкой FreeSync стоят ощутимо дешевле. Работает стандарт, соответственно, лишь с видеокартами AMD Radeon и встроенными видеоядрами APU от AMD.

Пару слов скажем и о FreeSync 2. Эта технология свежая, была анонсирована в 2017 году и мониторы с её поддержкой появились ну очень недавно. Она разработана для того, чтобы повысить качество картинки с HDR (он же расширенный динамический диапазон). Из-за HDR повышается задержка и возрастает нагрузка на устройства отображения, ведь картинка несёт в себе больше информации о цвете. FreeSync 2 компенсирует оба момента, в том числе и добавлением в видеопоток промежуточных кадров, чтобы не было разрывов картинки.

Также важной составляющей FreeSync 2 является поддержка Low Framerate Compensation (LFC), которая решает проблему падения частоты кадров ниже определённого уровня. Проблема не уходит полностью, но её ущерб плавности картинки минимизируется.

Читайте также: Обзор APU AMD Athlon 200GE. Гиперпендель гиперпню

Качество

У проприетарности G-Sync есть один важный плюс — реализация технологии на всех мониторах одинаковая и одинаково хороша. Она обеспечивает минимальную задержку ввода, но из-за особенностей работы мониторы с ней имеют всего один видеоразъём, и если очень повезёт — два. Обычно это HDMI и DisplayPort, причём максимально новых версий, 2.0 и 1.4 соответственно.

У FreeSync всё наоборот с точностью до пятого символа после запятой. Имплементация технологии происходит силами производителя монитора, и задержка ввода будет зависеть от контроля качества этого самого производителя. Производитель же решает и то, сколько видеоразъёмов и какого рода будет поддерживать монитор. У AOC G2460PF, к примеру, их целых четыре штуки, включая не только HDMI и DisplayPort, но и DVI-D, и даже VGA.

Впрочем, работать FreeSync умеет лишь с HDMI и DisplayPort. Можете подключить видеокарту и через VGA/DVI, но бороться с разрывами в этом случае придётся силами VSync.

Универсальность

Как уже говорилось, G-Sync нужно лицензировать и платить дополнительные баксы в зеленую казну. Поэтому мониторы с этой технологией в разы более редкие.

Добавить FreeSync в монитор намного легче, поэтому их — как грибов после дождя. Легче найти геймерский монитор с этой технологии, чем без нее.

Что же касается поддержки видеокарт, то G-Sync поддерживает все модели NVIDIA GTX после 650 Ti, а также модели для ноутбуков после 960M. FreeSync поддерживает видеокарты Radeon R7 и выше, все модели RX и APU 6-го поколения и выше.

С FreeSync 2 дела обстоят значительно хуже — поддерживаемых мониторов единицы. От AOC есть, впрочем, парочка моделей. Например, изогнутый Agon AG322QC4 диагональю 31,5 дюйма, разрешением QHD и частотой 144 Гц. Кроме того, для передачи видеоданных с FreeSync 2 понадобится кабель HDMI не ниже версии 2.0a и DisplayPort не ниже версии 1.4.

Итоги

Если вы планируете собирать игровой компьютер и выбираете себе монитор для максимальной плавности геймплея, то выбор очевиден. К видеокарте NVIDIA покупайте монитор с G-Sync, к видеокарте AMD — с FreeSync. Впрочем, у последней технологии есть логичный плюс — бесплатность.

Купив, скажем, AOC G2460PF к видеокарте вроде GTX 1060 3GB, вы пожалеете не так сильно, как о покупке монитора с G-Sync к какой-нибудь RX 580. Но, AMD — выбор не ваш, значит ваш выбор — G-Sync.

G-Sync vs FreeSync и VSync

Игровой сектор растет со все возрастающей скоростью. В последние годы появились новые технологии, которые позволяют лучше взаимодействовать с видеоиграми и повышать реализм. В этой статье мы расскажем, что такое технология Nvidia G-Sync и как она работает.

Эта технология все чаще встречается в мониторах, а также в телевизорах, хотя обычно она доступна только в высококачественных моделях. Однако, если вы настоящий геймер, то вам рекомендуется создать команду, обладающую этой технологией. Попробуем разобраться, из чего состоит технология G-Sync, какие преимущества она дает при игре и почему это важно. Также расскажем, что лучше: G-Sync или FreeSync.

Nvidia G-Sync — это:

G-Sync — это технология, разработанная известной компанией Nvidia — брендом, специализирующимся на видеокартах и других аппаратных компонентах.

Опция G-Sync синхронизирует частоту кадров (FPS) видеокарты, поддерживающей эту функцию, с частотой обновления (Гц) монитора c поддержкой G-Sync.

Это дает преимущество динамической или переменной частоты обновления, которая полностью устраняет так называемый эффект разрыва изображения и «заикание экрана», устранение пометок экрана, задержки ввода VSync и пропусков. Обычные мониторы работают с фиксированной частотой обновления 60 Гц, 100 Гц, 144 Гц.

Это означает, что экран обновляется 60 раз за одну секунду (если это монитор с частотой 60 Гц) для создания изображения. Графический процессор в первую очередь должен, конечно, отрендерить определенное количество кадров и отправить их на экран.

Если графический процессор недостаточно мощный, чтобы поддерживать частоту обновления монитора, видеоигры будут вызывать заикание изображения на экране. Если карта отправляет больше кадров, чем частота обновления монитора, будут возникать микроотрезы. Именно здесь вступает в игру технология GSync, которая устраняет или значительно снижает эти проблемы.

Частота кадров в секунду остается в диапазоне динамической частоты обновления, который начинается с 30 Гц / fps и заканчивается максимальной частотой обновления монитора. Как мы уже говорили, экраны, поддерживающие G-Sync, обычно стоят намного дороже. Это связано с тем, что, в отличие от обычных игровых, мониторы G-Sync имеют специальный встроенный модуль для включения переменной частоты обновления.

Сертификаты G-Sync и их различия

В экосистеме G-Sync существует три типа сертификатов, позволяющих дифференцировать конечную производительность. Высшим является Ultimate, затем стандарт G-Sync и наконец тот, который классифицируется как просто совместимый.

G-Sync Ultimate

Версия под названием Ultimate обеспечивает поддержку игр HDR с минимальной задержкой ввода, сохраняя при этом все оригинальные преимущества G-Sync.

Требования к Nvidia G-Sync Ultimate


G-Sync видеокарта GTX 1050 или выше.
Монитор с максимальной яркостью не менее 1000 нит, цветовым пространством DCI-P3 и подсветкой Директ.
DisplayPort 1.4.
Переменная частота обновления, разгон и ULMB.

Мониторы с поддержкой G-Sync

Это стандартная версия, которая в отличие от версии Ultimate G-Sync, не имеет специальных характеристик для HDR.

G-Sync compatible

Сертификат Nvidia G-Sync compatible (совместимый), который Nvidia предлагает мониторам и телевизорам. На самом деле устройства с таким сертификатом не используют процессоры Nvidia. Однако они подтверждены брендом, который дает гарантию, что это устройство совместимо с переменной частотой обновления (VRR) и обеспечит хороший игровой процесс без фрагментации или мерцания изображения.

Помимо того, что у этих устройств нет собственного встроенного модуля, они также не прошли 300 тестов, которые компания проводит для обеспечения качества. Эту сертификацию можно найти в самых дешевых моделях мониторов. В то же время это хорошая отправная точка для тех, кто хочет получить удовольствие от игрового монитора, но без особых затрат.

Телевизоры с G-Sync

Как мы уже сообщали ранее, в сентябре 2019 года Nvidia заключила партнерское соглашение с LG, чтобы включить переменную частоту обновления на OLED-телевизорах LG C9, E9 и Z9 через HDMI 2.1. Из новой линейки 2020 совместимыми моделями являются новые серии с G-Sync: LG BX, CX, GX и ZX. Благодаря этим моделям LG OLED достигается низкая задержка и отклик в играх с переменной частотой обновления без разрывов или задержки ввода.

Мониторы FreeSync, совместимые с G Sync

Существует большое количество мониторов, которые совместимы не с G-Sync, а с поддержкой FreeSync. Некоторые из этих моделей могут также поддерживать и VRR FreeSync на видеокартах Nvidia. Однако в этом случае качество производительности не гарантируется.

В январе 2019 года Nvidia выпустила обновление драйвера, которое позволяет видеокартам GTX 10, GTX 16 и RTX 20 (или новее) использовать переменную частоту обновления через DisplayPort на мониторах с технологией FreeSync.

Кроме того, будущие Nvidia G-Sync мониторы будут поддерживать Adaptive Sync через HDMI и DisplayPort. На сегодняшний день многие мониторы Nvidia сертифицированы как совместимые с G-Sync. Это означает, что подобные мониторы FreeSync работают без мерцания, визуальных артефактов, чрезмерного двоения изображения или других проблем.

ULMB (сверхнизкое размытие при движении)

Хотя G-Sync обеспечивает более плавный игровой процесс, предотвращая разрывы экрана, уменьшая заикание и уменьшая задержку ввода, она не влияет на размытие при движении. По этой причине многие мониторы, поставляемые с G-Sync, также имеют функцию под названием ULMB.

Когда эта технология активирована, она запускает сканирование подсветки для уменьшения ощущения размытости изображения. Режим ULMB работает только при определенных заранее заданных фиксированных частотах обновления, таких как 100 Гц, 120 Гц и т. д., и не может быть активирован одновременно с G-Sync. Также стоит отметить, что использование ULMB имеет важный недостаток. Она значительно снижает яркость.

G-Sync vs FreeSync и VSync — отличия

VSync

Чем отличается G-Sync от FreeSync и VSync? Для начала следует знать, что G-Sync — это улучшенная версия VSync. VSync можно найти в настройках драйвера дисплея или в настройках видеоигры. Если включить VSync, то графический процессор будет удерживать кадр до тех пор, пока монитор не будет готов к его отображению. Это устраняет разрыв экрана, но увеличивает задержку ввода.

Когда VSync в играх отключена, графический процессор отправляет изображения непосредственно на монитор сразу после отрисовки. При выключенной VSync отправка изображения происходит независимо от того, завершил ли монитор цикл обновления и готов ли он перейти к следующему изображению. В результате пользователь может наблюдать частые разрывы экрана. Владельцам видеокарты с FreeSync AMD следует искать обычный игровой монитор с поддержкой FreeSync.

FreeSync

FreeSync — это технология, разработанная AMD. Она является прямым конкурентом GSync. Технологию AMD FreeSync легче внедрить, потому что она дешевле и проще в реализации. Мониторы FreeSync не имеют дополнительных затрат, поскольку в них нет специального модуля внутри дисплея. Однако мониторы FreeSync обычно имеют более узкий динамический диапазон.

Например, монитор G-Sync 144 Гц имеет динамический диапазон 30–144 Гц, а стандартный монитор FreeSync 144 Гц обычно имеет диапазон VRR 48–144 Гц. Конечно, бывают исключения, когда монитор FreeSync может иметь такой же широкий динамический диапазон, но такие мониторы встречается реже.

Большинство мониторов FreeSync также поддерживают технологию AMD LFC, которая обеспечивает плавную работу за счет умножения частоты обновления, когда частота кадров в секунду падает ниже динамического диапазона. Наконец, все дисплеи G-Sync поддерживают Variable Overdrive. Это позволяет динамически изменять время отклика в зависимости от текущей частоты обновления.

В результате устраняется сдвоенное изображение при высокой частоте кадров и лишние пиксели при низкой частоте кадров. Мониторы AMD Free-Sync не могут динамически изменять время отклика перегрузки. Поэтому, если появляется агрессивная перегрузка, и частота кадров падает, это приводит к излишним пикселям. К счастью, такое случается нечасто.

Так что же лучше: FreeSync или G-Sync

В целом технология FreeSync позиционируется как лучшая альтернатива для геймеров с ограниченным бюджетом. С другой стороны, G-Sync действительно предлагает лучшую производительность и является лучшим вариантом. Монитор с опцией G-Sync следует выбирать в том случае, если вы ценитель высочайшего качества изображения и готовы за это переплатить.

https://ultrahd.su/video/g-sync-vs-freesync-vs-vsync.htmlG-Sync vs FreeSync и VSync — отличияultrahdВидеовидеоИгровой сектор растет со все возрастающей скоростью. В последние годы появились новые технологии, которые позволяют лучше взаимодействовать с видеоиграми и повышать реализм. В этой статье мы расскажем, что такое технология Nvidia G-Sync и как она работает. Эта технология все чаще встречается в мониторах, а также в телевизорах, хотя обычно она…ultrahdultrahd AdministratorUltraHD

Что такое G-Sync, FreeSync, V-Sync и HDMI VRR?

Всех ПК-геймеров планеты Земля объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:

  • V-Sync,
  • G-Sync,
  • FreeSync
  • А ведь еще есть Adaptive Sync
  • А в HDMI 2.1 недавно добавили VRR.

Но легче от этого не становится. Только больше путаешься. Чем все эти технологии отличаются? Какую выбрать видеокарту и монитор? И будет ли это всё работать на телевизоре?

Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.

Для тех кто не в курсе. А в чём собственно проблема?

Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:

  1. графический процессор должен подготовить кадр и передать его на монитор,
  2. ваш монитор должен показать этот кадр.

Вроде бы всё просто! Но тут кроется небольшой конфликт. Монитор работает по строгому расписанию. Нужно обновлять изображение на экране через равные промежутки времени, строго определённое количество раз в секунду. Этот параметр называется частотой обновления и измеряется он в герцах.

Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.

А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.

Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.

Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.

Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.

V-Sync

Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.

Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.

При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.

Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.

Но история с кратными значениями — не самая главная проблема технологии. Есть другой не очевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть Input Lag.

Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?

Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.

  1. Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
  2. Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
  3. Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).

Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.

G-Sync

Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!

Представляете? Так тоже можно было!

В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.

А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.

Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?

Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.

Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.

VESA Adaptive Sync

Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?

Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!

А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.

AMD FreeSync

В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.

Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.

Кстати, чуть позже, FreeSync 2 переименовали в в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.

Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.

И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?

До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.

G-Sync Compatible

Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.

Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.

VRR

С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.

Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.

Итоги

Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!

Post Views: 9 512

Тестирование поддержки FreeSync в GeForce: это всё меняет

Приятным сюрпризом от NVIDIA на CES 2019, конечно, стало заявление о поддержке технологии VESA Adaptive Sync в продуктах GeForce — проще говоря, видеокарты NVIDIA теперь поддерживают AMD FreeSync. На данный момент только ускорители серий Pascal и Turing получили такую совместимость, но это очень важное событие: в настоящее время более 550 мониторов совместимы с открытым стандартом переменной частоты кадров, и с появлением нового драйвера на прошлой неделе видеокарту GeForce можно протестировать на любом из них.

NVIDIA добавила поддержку FreeSync в свою марку G-Sync — как бы отлично это ни звучало, следует подчеркнуть, что не всё так просто. Из 400 протестированных мониторов NVIDIA сертифицировала только 12, которые обеспечивают адаптивную синхронизацию без артефактов. Компания предупреждает о возможной несовместимости других дисплеев и артефактах, включая пульсирование и двоения, в то время как на других иногда выводятся чёрные кадры и так далее. Специальная ветка Reddit и связанная с нею огромная таблица постепенно создают картину того, как на деле карты GeForce работают с дисплеями FreeSync.

Eurogamer решил протестировать ASUS VP28U — дисплей 4K начального уровня с поддержкой FreeSync, который не входит в дюжину избранных самой NVIDIA. Этот дисплей ориентирован на бюджетных пользователей и хотя бы поэтому NVIDIA вряд ли бы дала ему сертификат G-Sync. По той же причине любопытно, на что можно рассчитывать?

Сначала к монитору ASUS через DisplayPort (пока нет поддержки HDMI VRR) была подключена видеокарта GeFore RTX 2080 Ti, но затем журналист быстро переключился на менее мощную GTX 1080 Ti, потому что новый флагман семейства Turing порой оказывался слишком быстр, чтобы на нём проверять преимущества VRR. Привязка к 4K/60p в современных играх даже для GTX 1080 Ti — порой нетривиальная задача. Как и многие другие мониторы начального уровня FreeSync, ASUS VP28U может поддерживать VRR только в диапазоне между 40 Гц и 60 Гц — то есть выдавать кадры через 16,7–25 мс. Если производительность игры выпадает из этого окна, теряются все преимущества VRR. Одним из многих достоинств «чистого» G-Sync является компенсация низкой частоты кадров, которая сглаживает ощущение при выпадении из диапазона VRR. Это очень полезная функция, которая доступна только на некоторых экранах FreeSync.

NVIDIA рекомендует лишь дюжину мониторов FreeSync. Что если протестировать GTX 1080 Ti на базовой модели вроде ASUS VP28U? Результат не идеален, но он вовсе не плох

Какими оказались первые впечатления? Технология работает, и до тех пор, пока игра остаётся в заявленном диапазоне VRR, игровое окружение преображается. Теперь GPU напрямую отвечает за вывод нового кадра на экране. Обусловленные вертикальной синхронизацией (V-Sync) дрожания при частоте кадров ниже 60 в секунду исчезают. Ужасные разрывы экрана, связанные с отключением V-Sync, пропадают тоже — до тех пор, пока частота кадров не упадёт ниже 40 кадров/с (ограничения монитора). В результате плавность и положительные впечатления от игры существенно возрастают даже на таком недорогом дисплее, как VP28U.

Чтобы добиться идеального окружения и оставаться в заявленном диапазоне VRR конкретного дисплея, необходимо регулировать настройки игры. Стоит сказать, что диапазон FreeSync может значительно варьироваться от экрана к экрану. Так что при покупке монитора без поддержки G-Sync для сопряжения с видеокартой NVIDIA нужно внимательно ознакомиться с характеристиками и, возможно, присмотреться к огромной составляемой сообществом таблице — судя по ней, многие дисплеи имеют стробирующий эффект в режиме VRR, который сильно отвлекает. Это время от времени появлялось и на ASUS VP28U, в зависимости от выводимого контента и, как правило, в нижней части диапазона VRR. Монитор с полноценной сертификацией G-Sync может обойтись дороже, но зато игрокам не придётся беспокоиться об этих проблемах.

Тестирование ASUS VP28U с консолью Xbox One X, которая тоже поддерживает FreeSync

Адаптивная синхронизация используется в дисплеях с высокой частотой кадров, но в диапазоне до 60 Гц эффект от неё наиболее сильный. Считается, что идеальная плавность достигается на частоте 60 кадров/с, но при работе синхронизации наблюдатель, как правило, не увидит разницы с частотой 50 кадров/с. И в этом оптимальном диапазоне нет разницы между G-Sync и FreeSync.

Технология адаптивной синхронизации великолепна — особенно в разрешениях вроде 4K, где требования новейших игр делают вывод с твёрдой частотой 60 кадров/с чрезвычайно сложной задачей (особенно в случае трассировки лучей и других тяжёлых режимов). Battlefield V большую часть времени выдаёт 60 кадров/с на GTX 1080 Ti при 4K и настройках Ultra. Тем не менее, как только возрастает количество эффектов пост-обработки во время интенсивного боя, частота чаще всего находится в диапазоне 55–60 кадров/с, а может упасть и до 50 кадров/с. На обычном экране это бы бросалось в глаза, но с VRR впечатление достаточно плавное, да и некоторый запас диапазона частот позволяет не тратить много времени, подстраивая графику игры под наихудший сценарий.

Кроме того, поддержка ведущим производителем видеокарт открытого стандарта адаптивной синхронизации сделает мониторы с поддержкой FreeSync более распространённым явлением, если не нормой. И хотя такие артефакты, как стробирование, в настоящее время широко распространены на многих экранах, тот факт, что на них обращено внимание, может привести к общему повышению качества поддержки VRR. Вдобавок ко всему, это даёт возможность NVIDIA обеспечить совместимость для грядущей волны телевизоров HDMI 2.1, где VRR является частью спецификации. Отдельные 4K-экраны от Samsung уже поддерживают FreeSync, но пока NVIDIA работает с VRR только через DisplayPort — будем надеяться, в будущем подоспеет и поддержка HDMI.

Для владельцев видеокарт NVIDIA теперь гораздо проще и дешевле использовать технологию, которая является одним из самых сильных улучшений в игровом окружении на ПК. Однако при выборе более дешёвого варианта стоит помнить, что качество реализации будет зависеть от конкретного дисплея и функциональность может оказаться не такой надёжной, как у существующих экранов G-Sync. Но благодаря поддержке NVIDIA открытый стандарт VRR, наконец, получил огромный импульс, и это можно только приветствовать.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Что такое AMD FreeSync и Nvidia G-Sync

Мы уже давно привыкли к тому, что мониторы имеют фиксированную частоту развертки изображения — обычно 60 Гц. Фиксированная частота пошла еще с ЭЛТ-телевизоров, когда видеоряд имел четко заданное количество кадров в секунду — обычно 24. Но вот в играх частота кадров не является постоянной — она может изменяться в очень широких пределах, и из-за того, что частота развертки не совпадает с частотой рендеринга кадров видеокартой, в итоге и появляются разрывы изображения, что мешает комфортному игровому процессу. Это происходит из-за того, что изображение выводится на дисплей даже в том случае, если вывод части предыдущего кадра ещё не закончен полностью — оставшаяся часть буфера приходится на текущее обновление экрана. Именно поэтому каждый выведенный на монитор кадр при несовпадении частот, указанных выше, будет по сути состоять из двух кадров, отрендеренных видеокартой.

Вертикальная синхронизация

Самый простой метод решения проблемы — включение вертикальной синхронизации. Что она делает? Она выводит изображение на монитор только тогда, когда кадр полностью готов. Соответственно, если у вас монитор с 60 Гц, и видеокарта выдает больше 60 fps — вы получаете плавную картинку без единого разрыва и артефакта (при этом видеокарта не будет нагружена на 100%). Но тут уже появляется другая проблема — задержка при выводе изображения. Если монитор обновляется 60 раз в секунду, то на один кадр тратится 16.7 мс, и даже если видеокарта подготовила кадр за 5 мс — монитор все равно будет ждать оставшиеся 11 мс:

Поэтому управление становится «вязким» — при движении мышью отклик на мониторе происходит с небольшой задержкой, поэтому становится труднее позиционировать прицел в шутерах и прочих динамических играх. Еще хуже, если видеокарта не способна выдать в игре 60 fps — к примеру, если fps 50, и включена вертикальная синхронизация, то каждую секунду будет 10 кадров, в которые на экран не будет выведена новая информация, то есть каждую секунду будет 50 кадров с задержкой до 16.7 мс, и 10 кадров с задержкой в 33.4 мс — в итоге картинка будет дерганной, и играть будет невозможно. 

Поэтому до недавнего времени у игроков было три варианта — или включать вертикальную синхронизацию (если fps выше 60) и мириться с не самым удобным управлением, или отключать синхронизацию, и терпеть артефакты изображения.

AMD FreeSync и Nvidia G-Sync

Разумеется, крупные компании нашли решение проблемы — они придумали принудительную синхронизацию частоты развертки и рендеринга кадра видеокартой. То есть если видеокарта сделала кадр за 5 мс — монитор выведет предыдущий кадр на 5 мс, ничего не ожидая. Если следующий кадр был отрендерен за 20 мс — монитор опять же будет держать предыдущий кадр на экране 20 мс:

Что это дает? Во-первых, так как монитор выводит полностью готовые кадры и они синхронизированы с частотой развертки, нет никаких артефактов. Во-вторых, так как монитор выводит кадр сразу же, как он был готов, ничего не ожидая, нет никакой «вязкости» управления — изображение на мониторе меняется сразу же, как только вы пошевелили мышью. 

Различия между FreeSync и G-Sync

Каждый из вендоров пошел своим путем: у AMD частота развертки контролируется самой видеокартой, а монитор должен быть подключен через DisplayPort. С одной стороны, это плохо — если видеокарта не имеет аппаратной поддержки FreeSync, то вы не сможете им воспользоваться. С учетом того, что эту технологию поддерживают только чипы линейки R7 и R9 начиная с 200ых, а также линейки Fury и RX — за бортом остаются чипы линеек HD 7000, некоторые из которых вообще говоря ничем не отличаются от чипов 200ой линейки (да, банальное переименование). Мобильные версии видеокарт AMD FreeSync вообще не поддерживают, даже если они мощнее десктопных карт, в которых есть его поддержка. С другой стороны, так как по сути весь контроль идет со стороны видеокарты, монитор для FreeSync оказывается дешевле такового с G-Sync на 80-100 долларов, что вполне ощутимо.

Nvidia пошла другим путем — контроль за частотой развертки выполняет сам монитор, в который встроен специальный чип. С одной стороны, это хорошо — поддерживаются видеокарты начиная с GTX 650 Ti, а так же мобильные решения начиная с 965М. С другой стороны — чип стоит денег, поэтому мониторы с G-Sync дороже.

Так же различается и допустимые частоты развертки. У AMD это 9-240 Гц, у Nvidia — 30-144 Гц. Цифра в 9 Гц скорее вызывает улыбку (ибо это слайд-шоу), и 30 у Nvidia в принципе можно считать допустимым минимумом. А вот то, что у Nvidia ограничение на 144 Гц, уже может быть мало, так как топовые игровые мониторы имеют частоту вплоть до 240 Гц. Но, увы, пока что у AMD нет таких видеокарт, которые могут выдать в киберспортивных играх больше 200 fps, так что 240 Гц на данный момент — просто хороший запас на будущее. С другой стороны, если частота кадров в игре опускается ниже минимальной частоты развертки монитора, у AMD просто принудительно выставляется эта частота, то есть мы получаем те же проблемы, что и с вертикальной синхронизацией. Nvidia же сделали хитрее — чип G-Sync может дублировать кадры для того, чтобы попасть в рабочий диапазон частот монитора, так что никаких задержек в управлении или артефактов не будет:

Еще один плюс в сторону AMD — отсутствие небольших задержек при передаче данных на монитор, так как FreeSync использует технологию Adaptive-Sync стандарта DisplayPort для того, чтобы заранее узнать минимальную и максимальную частоту обновления монитора, поэтому передача данных не прерывается на координацию работы видеокарты с модулем G-Sync в мониторе, как у Nvidia. Однако на практике разница оказывается не больше 1-2%, так что этим можно пренебречь.

Разумеется, возникает вопрос — влияют ли технологии синхронизации кадров на производительность в играх? Ответ — нет, не влияют: разница с выключенной синхронизаций и FreeSync или G-Sync оказывается нулевой, и это понятно — по сути эти технологии не заставляют видеокарту обсчитывать больше данных — они просто выводят уже готовые данные быстрее.

В итоге — что же лучше? Как бы смешно это не звучало, но у пользователей нет выбора: те, кто пользуются продукцией «красных», вынуждены использовать FreeSync. Те, кто пользуются продукцией «зеленых», аналогично могут использовать только G-Sync. Но, в принципе, на текущий момент технологии выдают схожий результат, так что выбор действительно заключается только в производителе и мощности видеокарты.

Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще

Для комфортной игры всегда важно не только качество картинки (о чём мы говорили отдельно), но и частота её обновления, которая зависит от многих факторов — модели монитора, мощности компьютера и метода синхронизации. В этой статье мы рассмотрим существующие виды синхронизаций: вертикальную и адаптивную синхронизации, а также G-Sync и FreeSync, чтобы понять, в чем между ними разница и что лучше использовать.

Связь видеокарты с монитором и её проблемы

Прежде всего следует напомнить, как работает видеокарта и монитор компьютера. Во время игры видеокарта формирует кадры. Рендер каждого кадра занимает какое-то время и чем сам кадр сложнее, тем рендер дольше — увеличивают время рендера разрешение экрана, качество и количество эффектов и объектов и так далее. Сформированный кадр посылается на монитор, и видеокарта начинает создавать следующий кадр. Проблема в том, что время рендера кадра и его время на мониторе не всегда совпадают. Все проблемы начинаются отсюда.

В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.

И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.

Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.

Если кадры «тяжёлые» (большой взрыв трёх машин в 4K-разрешении, например), то рендер будет долгим и видеокарта может выдать меньше 60 кадров за секунду. Из-за этого монитору не хватает кадров, чтобы воспроизвести одну секунду, и игра компенсирует это и формирует кадры, где действие проходит быстрее, чтобы игровой процесс не замедлился. Но потом «тяжёлые» кадры проходят, и время рендера становится прежним. Но игра ещё не успела перестроиться и по-прежнему заставляет рендерить ускоренные кадры — из-за чего в какой-то момент может пойти смещение и возникнет статтер. Пример работы такого алгоритма — ниже (в верхней части ролика все кадры рендерятся за одинаковое время, в нижней время колеблется).