Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще
Разбираемся, что такое G-Sync, FreeSync, V-Sync и нужны ли они вообще
В идеальном случае эти два отрезка времени должны быть равны — тогда, когда на мониторе закончится старый кадр, к нему подоспеет новый кадр и они плавно пойдут друг за другом, не создавая проблем. Но видеокарта может «обгонять» монитор.
И тут необходимо понимать, что мониторы работают с определёнными частотами обновления — количеством обновления кадров в секунду. Измеряется частота обновления в герцах. Мониторы с 60 Гц обновляют картинку 60 раз за секунду, 144 Гц — 144 раза за секунду.
Возвращаясь к видеокарте и монитору — значение кадров в секунду, выходящих из видеокарты, плавает, и может быть как меньше 60, так и больше. Оба случая приводят к проблемам.
Если кадры «тяжёлые» (большой взрыв трёх машин в 4K-разрешении, например), то рендер будет долгим и видеокарта может выдать меньше 60 кадров за секунду. Из-за этого монитору не хватает кадров, чтобы воспроизвести одну секунду, и игра компенсирует это и формирует кадры, где действие проходит быстрее, чтобы игровой процесс не замедлился. Но потом «тяжёлые» кадры проходят, и время рендера становится прежним. Но игра ещё не успела перестроиться и по-прежнему заставляет рендерить ускоренные кадры — из-за чего в какой-то момент может пойти смещение и возникнет статтер. Пример работы такого алгоритма — ниже (в верхней части ролика все кадры рендерятся за одинаковое время, в нижней время колеблется).
Обратный вариант: видеокарта рендерит больше кадров в секунду, чем способен показать монитор. Это приводит к тому, что на мониторе может появиться сразу несколько кадров.
Подобные разрывы бросаются в глаза, и их частое появление может вызвать тошноту, боль в глазах или головокружение. В таком случае речь идёт не просто о плавной игре, но и о здоровье человека, потому борьбе с подобным уделено большое внимание. Ниже рассмотрены методы синхронизации видеокарты и монитора, которые позволяют избавиться от подобных проблем.
Какими способами можно провести подключение
Портативный компьютер имеет типичные компоненты стационарного ПК, включая дисплей, поэтому логично, что метод должен существовать. И он существует, причём даже не один. Поскольку девайсы работают каждый на своей системе, просто подключить системник к ноутбуку не получится, даже при наличии подходящих разъёмов. Несмотря на ваш энтузиазм, устройство будет подгружать собственную операционку. Чтобы один девайс выводил на экран информацию, которая поступает от другого, их функционирование необходимо синхронизировать. Иметь в распоряжении только системный блок ПК и портативный компьютер недостаточно. Для осуществления задуманного понадобятся дополнительные средства, обеспечивающие подключение. Рассмотрим, как использовать ноутбук в качестве монитора разными способами.
Коммутирование с помощью кабеля
Для выполнения подключения посредством кабеля нужно обзавестись соответствующим шнуром. Соединение выполняется через видео порты HDMI, VGA или DVI в зависимости от варианта, поддерживаемого устройствами. Современные устройства могут быть оснащены разъёмом DisplayPort, альтернативным HDMI. Возможно также использование переходника, если порты девайсов не совпадают.
Вариант 1
Заставить ноутбук работать в качестве дисплея можно, используя видео порты HDMI, VGA или DVI. Для этого выполняются следующие действия:
- Шнур подключаем одним концом в соответствующий порт ноутбука, другим – к разъёму на компьютере;
- Запускаем ноутбук и переходим к «Параметрам экрана» любым удобным способом, например, через Панель управления. Добраться до раздела настроек можно по-разному в зависимости от версии ОС Windows. Можно перейти к «Свойствам», вызвав правым щелчком мыши контекстное меню с рабочего стола – выбрать «Свойства экрана» — открыть вкладку «Параметры».
В случае с MacOS открываем «Системные настройки» и переходим к вкладке «Мониторы», остальные действия аналогичны манипуляциям с Виндовс;
- Система обнаружит подключённые устройства, поэтому в пункте Настройки экранов будет картинка с несколькими дисплеями под номерами. Здесь выбираем второй и устанавливаем дисплей ноутбука;
- Отмечаем пункты отображения визуальных данных;
- Если планируется использование ноутбука как монитора для компьютера по умолчанию, отмечаем пункт «Использовать данное устройство как основное».
Вариант 2
Кроме того, подключение устройств может выполняться через порты Ethernet, в таком случае способ предполагает создание локальной сети. Для соединения применяются разъёмы Ethernet ноутбука и системника. Нам понадобится соответствующий кабель (витая пара), по обеим сторонам которого находятся коннекторы Ethernet (стандарт RJ 45). Провод, как правило, длиной 0,5-15 метров, чего хватает для выполнения процедуры. Подключаем один конец кабеля к порту LAN ноутбука, другой – в аналогичный разъём сетевой карты компьютера.
Удалённый доступ при помощи ПО
Ноутбук на седьмой Windows и выше можно подключить к системнику и без проводов, задействовав приложение Air Display. Устанавливается и активируется софт на обоих девайсах. С помощью программы можно переключать дисплеи, а также применять их одновременно. Использование ноутбука в качестве монитора возможно при применении программ удалённого доступа, таких как TeamViewer, RDesktop, ZoneOS ZoneScreen, RAdmin и пр. С их помощью вы будете удалённо использовать дисплей. Любое из приложений имеет свои нюансы настройки, устанавливать ПО нужно как на ПК, так и ноутбук. При установлении соединения один из девайсов становится сервером, другой – клиентом, при выполнении действий с ведущего устройства на экране клиента отображается всё, что выполняется на экране сервера. Осуществить сопряжение устройств, применяя TeamViewer просто. Для этого требуется знать пароль и ID компьютера, которые будут присвоены при запуске на нём приложения. В окне программы, запущенной на ноутбуке, потребуется ввести эти данные в соответствующие поля. После этого с дисплея ноутбука будет доступен рабочий стол ПК с возможностью управления им, при этом условием осуществления манипуляций является работающий монитор компьютера. В ином случае способ не подходит.
Сопряжение устройств с помощью беспроводной передачи Wi-fi
Альтернативный вариант проводному подключению – соединение посредством сигнала Wi-fi. Метод подходит, когда стационарный ПК оснащён Wi-fi-модулем, нет в наличии кабеля или желания его использовать. Почти во все модели портативных компьютеров интегрируется Wi-fi, за редким исключением (тогда можно подключить внешний модуль в виде устройства USB). Чтобы использовать экран ноутбука как монитор, выполним следующее:
- Активируем модуль Wi-fi на ноуте, а также стационарном ПК. При отсутствии такового на компьютере, модуль с возможностью подключения к USB или PCI-разъёму, можно приобрести. Лучше выбирать USB-устройство, поскольку модуль, подключаемый в PCI-порт материнской платы использовать не всегда удобно;
- Создаём на одном из устройств беспроводную сеть;
- Для этого переходим к Центру управления сетями и общим доступом через Панель управления;
- Выбираем пункт «Создание и настройка подключения или сети»;
- В новом окне мастера установки выбираем из списка вариантов выполнение подключения вручную;
- Заполняем поля (имя сети, тип безопасности, пароль), ставим галочку в пункте автоматического запуска при подключении, жмём «Далее»;
- Сделанные манипуляции обеспечивают создание сети, запускается она в автоматическом режиме. Как только всё готово, к ней можно подключиться со второго устройства.
Возможен также вариант с использованием роутера, позволяющего подключать несколько девайсов одновременно и объединять их. Сделать ноутбук монитором для системного блока с помощью передачи Wi-fi сможет помочь специальная программа под названием MaxiVista. Она платная, но есть возможность использования версии для ознакомления с урезанным функционалом. Установив софт, модули нужно настроить дистанционно с указанием последовательности мониторов.
Введение
В Windows 7 упростилось добавление второго монитора за счет использования нового сочетания клавиш Win+P. Это удобно, когда нужно изменить параметры дисплея во время презентации с помощью проектора, подключенного к ноутбуку.
Далее приведены два способа подключения нескольких мониторов в Windows 7. Прежде всего, убедитесь, что внешние мониторы подключены к ноутбуку или стационарному компьютеру.
Способ 1. С помощью сочетания клавиш «Win+P»
Нажмите на клавиатуре клавишу с логотипом Windows + P. Выберите один из следующих параметров в зависимости от необходимости (снимок экрана для этого шага приведен ниже).
Способ 2. С помощью меню «Разрешение экрана»
1. Щелкните правой кнопкой мыши свободное место на рабочем столе, а затем нажмите пункт Разрешение экрана (снимок экрана для этого шага приведен ниже).
2. В раскрывающемся списке Несколько экранов выберите элемент Расширить эти экраны или Дублировать эти экраны. Примечание. Если дополнительный монитор (мониторы) не отображаются в списке, нажмите кнопку Найти. Если это не удалось, попробуйте перезагрузить компьютер и повторно выполните шаги 1 и 2 (снимок экрана для этого шага приведен ниже).
Для получения дополнительных сведений перейдите по указанным ниже ссылкам:
973782 Сообщение об ошибке при настройке параметров экрана для использования трех и более экранов на ноутбуке, работающем под управлением Windows 7: «Не удалось сохранить параметры экрана»
Подключаем монитор по HDMI к ноутбуку (компьютеру)
Процесс соединение вспомогательного дисплея осуществляется по одной схеме. В первую очередь следует быть уверенным, что все компоненты имеют одинаковый разъем, подобрать под него шнур. Как подключить монитор к ноутбуку через hdmi:
1. Выключение экранов. Многие пользователи не пользуются данным советом, а зря. Такое действие спасет оборудование от поломки. Бывает так, что из-за несоблюдения этого простого правила перегорает видеокарта или другая деталь.
2. Соединение монитора с девайсом при помощи кабеля. Один конец шнура вставляется в разъем ноутбука, другой – в экран. При правильном выборе соединяющего провода проблем с коннектом не произойдет. Если нет возможности достать HDMI кабель, то можно воспользоваться переходниками.
3. Завершающим этапом выступает включение оборудования. После загрузки операционной системы на обоих мониторах появляется изображение.
Преимуществом выступает то, что не нужно лезть в дополнительные настройки и тратить кучу времени на синхронизацию. Современные карты, такие как Intel HD, Nvidia (например, видеокарта ASUS GeForce GTX 1050 TI 4GB DDR5 OC) или AMD не требуют дополнительной регулировки.
Если картинка не вывелась на монитор автоматически, тогда необходимо вручную произвести переподключение. Для этого используются горячие клавиши. Ими могут быть F4, F8 или другие — это зависит от модели гаджета.
Что такое G-Sync, FreeSync, V-Sync и HDMI VRR? — Разбор
Всех ПК-геймеров планеты Земля объединяет одна проблема — вертикальные разрывы изображения. И вроде бы есть куча технологий которые решают эту проблему:
- V-Sync,
- G-Sync,
- FreeSync
- А ведь еще есть Adaptive Sync
- А в HDMI 2.1 недавно добавили VRR.
Но легче от этого не становится. Только больше путаешься. Чем все эти технологии отличаются? Какую выбрать видеокарту и монитор? И будет ли это всё работать на телевизоре?
Давайте сегодня раз и навсегда разберемся в технологиях адаптивной синхронизации изображения.
Для тех кто не в курсе. А в чём собственно проблема?
Чтобы изображение появилось на экране, должно произойти, как минимум, две вещи:
- графический процессор должен подготовить кадр и передать его на монитор,
- ваш монитор должен показать этот кадр.
Вроде бы всё просто! Но тут кроется небольшой конфликт. Монитор работает по строгому расписанию. Нужно обновлять изображение на экране через равные промежутки времени, строго определённое количество раз в секунду. Этот параметр называется частотой обновления и измеряется он в герцах.
Обычные мониторы работают на частоте 60 Гц, то есть способны выводить 60 кадров в секунду, а игровые на 144 Гц и выше.
А вот графический процессор живет в совершенно ином мире. В играх постоянно всё меняется: колышется листва, журчит ручеёк, враги выпрыгивают из-за угла. Каждый кадр отличается по своей сложности, поэтому на их просчет уходит разное количество времени.
Иными словами, у монитора частота кадров постоянная, а у видеокарты переменная.
Вот и выходит, что за один цикл обновления монитора видеокарта может подготовить больше одного кадра или меньше.
Из-за этого мало того что страдает плавность картинки, так еще и появляются артефакты в виде вертикальных разрывов изображения. Кстати, при просмотре фильмов тоже могут появляться такие артефакты, потому что кино снимают в 24 к/с.
V-Sync
Очевидно проблема требовала решения, и еще на заре компьютерных игр оно появилось! Название у этого решения — вертикальная синхронизация или V-Sync. Наверняка вы встречали такую опцию как в настройках видеокарты, так и в играх.
Работает эта штука достаточно топорно. Фактически она просто принуждает видеокарту выводить кадры с частотой кратной частоте обновления экрана. Например, если у вас монитор 60 Гц, то максимальное количество кадров в секунду тоже будет 60, даже если ваша видеокарта способна на большее. И в общем-то часто такое ограничение вполне уместно, если у видеокарты хватает мощи и нет просадок ниже 60 к/с, но если они есть — начинаются проблемы.
При включенной вертикальной синхронизации, следующее кратное значение — это 30 к/с. Поэтому даже если ваш фреймрейт просел фактически всего на пару кадров, вы всё равно увидите падение до 30 к/с. Такой перепад мало того, что большой и очень визуально ощутимый, так ещё и будет происходить с небольшим лагом. Поэтому если стабильного FPS в 60 к/с или 30 не достичь, то включать V-Sync вообще нет никакого смысла.
Справедливости ради, чем выше герцовка монитора, тем больше мы имеем кратных значений, на которых может работать синхронизация. Поэтому на игровых мониторах V-Sync работает куда лучше.
Частота обновления монитора | Возможные частоты V-Sync |
60 Hz | 20, 30, 60 |
120 Hz | 20, 24, 30, 40, 60, 120 |
144 Hz | 24, 36, 48, 72, 144 |
240 Hz | 20, 24, 30, 40, 48, 60, 80, 120, 240 |
300 Hz | 20, 25, 30, 50, 60, 75, 100, 150, 300 |
Но история с кратными значениями — не самая главная проблема технологии. Есть другой не очевидный недостаток: вертикальная синхронизация — увеличивает задержку ввода, то есть Input Lag.
Игра медленнее реагирует на ваши действия, всё происходит с задержками и как-то плывёт в молоке, поэтому прицелиться становится гораздо сложнее. Почему так происходит?
Это интересно, смотрите! Каждый кадр рассчитывается и выводится на экран через один и тот же конвейер. Упростим его до трёх этапов.
- Каждое ваше действие, например щелчок мышки надо как-то интерпретировать и обновить состояние игры. За это отвечает центральный процессор (синяя полоса на картинке). Центральный процессор подготавливает кадры для графического процессора и помещает их в очередь рендеринга графического процессора.
- Затем графический процессор (зелёная полоса) берет эти подготовленные кадры из очереди и рендерит их.
- Только потом эти кадры выводятся на дисплей (серая полосочка на картинке).
Ну и в чём проблема, спросите вы? Дело в том, что ЦП не берется за подготовку следующего кадра, пока предыдущий не будет выведен на экран. Поэтому ограничивая количество выводимых кадров в угоду синхронизации с дисплеем, мы фактически увеличиваем задержки с которыми обновляется состояние игры! И если в каких-то простеньких играх типа пасьянса такие вещи допустимы, то в соревновательных играх вертикальная синхронизация может стать серьёзной помехой.
G-Sync
Но переживать не стоит, так как решение появилось еще в 2013 году. Именно тогда компания NVIDIA представила свою технологию адаптивной синхронизации — G-Sync. В отличие от старой технологии, G-Sync позволяет подстраивать не видеокарту под частоту обновления монитора, а наоборот заставляет монитор менять свою частоту под видеокарту!
Представляете? Так тоже можно было!
В результате мы получаем потрясающе плавную картинку без вертикальных разрывов и задержки ввода! Просто сказка! G-Sync также работает в огромном диапазоне частот. Изначально это было от 30 до 144 Гц, а сейчас уже есть поддержка до 360 Гц и может даже выше, тут скорее всё зависит от монитора.
А если фреймрейт падает ниже 60 Гц G-Sync умеет дублировать пропущенные кадры.
Получаются сплошные плюсы и проблема решена еще в 2013 году? Так почему же мы до сих пор об этом говорим?
Ну как сказать. Во-первых, эта технология закрытая, соответственно, G-Sync работает только с карточками NVIDIA, но это пол беды.
Все волшебные функции G-Sync стали возможны благодаря специальному чипу, который необходимо встроить в монитор. Естественно, эти чипы производит тоже NVIDIA и стоят они недешево. Поэтому мониторы с поддержкой G-sync в среднем стоят на 250-300$ дороже и таких моделей очень мало. То есть получилась классная, и для 2013 года революционная технология, но не универсальная и дорогая.
VESA Adaptive Sync
Поэтому уже спустя год, в 2014, Ассоциация стандартизации Video Electronics Standards Association или VESA представила открытую технологию Adaptive Sync, которая умеет, в принципе, всё то же самое, что и G-Sync, но без дорогостоящих чипов и работает на частотах от 9 до 240 Гц! Неплохо да?
Но для внедрения технологии нужно, чтобы её поддержку внедрили в прошивку и драйвер монитора, драйвер видеокарты, операционной системы и в игры!
А также необходимо наличие DisplayPort версии не ниже 1.2a, так как технология стала частью именно Display Port. Как видите, чтобы технология взлетела, нужно было проделать много работы. И этой работой занималась компания AMD.
AMD FreeSync
В 2015 году AMD внедрили Adaptive Sync в драйвера своих видеокарт и назвали технологию FreeSync. Реализация от AMD быстро получила очень широкое распространение. Добавить поддержку FreeSync в монитор оказалось настолько дешево, что сейчас сложнее найти игровой монитор без этой фичи, чем с ней.
Но AMD не остановились на просто внедрении стандарта от VESA. Также они добавили поддержку HDMI, начиная с версии 1.4. А в 2017 выпустили FreeSync 2, в который добавилась поддержка HDR и компенсацию низкой частоты кадров, как в G-SYNC.
Кстати, чуть позже, FreeSync 2 переименовали в в более элитное FreeSync Premium Pro, а обычный FreeSync для мониторов с частотой 120 Гц и выше стали называть FreeSync Premium. Хотя такие маркетинговые финты я не одобряю, но в остальном сплошной респект AMD за популяризацию стандарта.
Кстати, NVIDIA также в 2017 году добавила поддержку HDR и назвала это всё G-Sync Ultimate.
И вроде бы всё классно, в команде у красных и у зеленых есть по своей шикарной технологии. Но что делать, если у тебя видеокарта от NVIDIA, ты хочешь нормальную поддержку G-Sync, но покупать дорогущий монитор с этой технологией совсем не хочется? Или наоборот — не покупать же Radeon только потому что у тебя монитор с FreeSync?
До недавнего времени выбора не было никакого. Хочешь подешевле и побольше выбор мониторов — покупай Radeon. В другом случае, придется раскошелиться.
G-Sync Compatible
Но в 2019 году NVIDIA пошли навстречу покупателям и добавили поддержку стандарта VESA Adaptive Sync в драйвера для своих видеокарт серии RTX, а также для карточки GTX 1080. А значит теперь можно легко насладиться лучшим из двух миров: взять себе карточку от NVIDIA и монитор с FreeSync по вкусу. Вот только есть проблема. Если на FreeSync мониторе не написано G-Sync Compatible — значит он не был протестирован NVIDIA на совместимость и никаких гарантий, что всё будет работать нормально, вам никто не даёт. А NVIDIA тестирует далеко не все, и далеко не самые доступные модели.
Поэтому инициативу по тестированию в свои руки взяло интернет-сообщество. Они составили табличку с огромным списком протестированных пользователями мониторов.
С мониторами, кажется, разобрались. Но как быть, если хочется поиграть на большом экране телевизора через консоль или ПК. Будет ли работать адаптивная синхронизация? Спешу вас порадовать — будет! При условии что ваш ТВ оснащен портом HDMI версии 2.1, в который добавили технологию переменной частоты обновления VRR — Variable Refresh Rate.
Причём всё будет работать и с видеокартами от NVIDIA и с Radeon. Всё потому, что VRR — это та же самая технология VESA Adaptive Sync, но теперь она стала ещё и частью стандарта HDMI 2.1. Именно таким образом адаптивная синхронизация реализована в консолях нового поколения. А также, вы удивитесь, в Xbox One S и One X. Да, в коробки текущего поколения от Microsoft VRR завезли даже раньше, чем HDMI 2.1.
Итоги
Что, в итоге спустя 6 лет после своего появления, технология Adaptive Sync стала фактически отраслевым стандартом. Захватив видеокарты от AMD и NVIDIA, телевизоры и даже интегрированная графика от Intel в 11-м поколении процессоров теперь поддерживает эту технологию. А это значит, что в светлом будущем мы будем жить без единого разрыва, по крайней мере, вертикального!
Что такое адаптивная синхронизация?
Вот один неоспоримый факт: в последние несколько лет на рынке РС ноутбуков было продано больше, чем настольных компьютеров. Это неизбежный побочный эффект мобильной революции, в результате которой сегодня мы живем в мире, в котором пользователи компьютеров больше не хотят быть «на якоре» в одном месте. Вместо этого они хотят использовать их в движении, в любое время, в любом месте, как им заблагорассудится.
Для большинства современных моделей это не проблема – современные конфигурации ноутбуков обеспечивают молниеносную скорость в таких сценариях использования, как веб-серфинг, работа с офисными приложениями, просмотр фильмов и прослушивание музыки.
С играми, однако, ситуация обстоит немного по-другому. Традиционно они являются одними из самых «жадных» на аппаратные ресурсы компьютерных приложений, предъявляющих исключительно высокие требования к характеристикам системы. А поскольку современные мобильные технологии все еще требуют определенного уровня компромисса между производительностью и энергоэффективностью, даже самый мощный (и дорогой) ноутбук игрового класса не может обеспечить производительность уровня настольного ПК, оснащенного компонентами последнего поколения.
Но это может остаться в прошлом благодаря очень интересной технологии под названием «Адаптивная синхронизация». За нее мы должны благодарить компанию NVIDIA, которая, хотя и не может быть названа ее создателем, внесла наибольший вклад в коммерциализацию этой технологии.
С ее помощью совсем скоро игровые ноутбуки будут иметь возможность предложить игровой опыт сопоставимый по качеству с таковым у их настольных аналогов, причем без решительных компромиссов с точки зрения эффективности использования энергии.
Синхронизация кадров и почему это проблема для геймеров?
Если вы читали материалы, в которых обсуждается игровая производительность той или иной конфигурации, вы, вероятно, заметили, что в них авторы часто ссылаются на один конкретный показатель – 60 кадров в секунду. Для большинства геймеров заветные 60 fps являются своего рода «Святым Граалем» высококачественного компьютерного гейминга, но причина этого связана не с компьютерным «железом», а с характеристиками современных ЖК-дисплеев.
Сегодня большинство дисплеев, особенно те, которыми оснащаются мобильные компьютеры, используют фиксированную частоту обновления. Это один из ключевых показателей каждого монитора, который указывает на то, сколько раз в секунду обновляется изображение, отображаемое на нем.
Другой параметр, который уже относится непосредственно к видеокарте, известен как «Количество кадров в секунду» (frames per second или просто fps) и его название говорит само за себя: это количество игровых кадров, которые могут быть обеспечены соответствующей конфигурацией для создания реалистичной иллюзии движения.
Чтобы получить максимальные игровые переживания, эти два показателя должны быть синхронны – т.е. оборудование компьютера должно обеспечивать 60 кадров в секунду, которые монитор будет визуализировать с частотой обновления 60 Гц. В этом идеальном случае вы увидите на экране картинку, которая будет плавной, без мерцаний, разрывов или размытия.
Увы, на практике такого никогда не будет. Причина заключается в том, что любой современный дисплей работает с фиксированной частотой обновления 60 герц (хотя в некоторых мониторах частота составляет 120-144 Гц). Однако количество кадров в секунду обязательно варьируется, то есть этот показатель не может быть постоянным. Например, в игре с открытым миром одна и та же система может выдавать 50+ кадров в закрытых помещениях (т.е. производительность, близкую к заветным 60 fps), но на открытых локациях показатель может быстро проседать до 30-40 кадров в секунду. На слабых конфигурациях разрыв между частой обновления дисплея и количеством кадров в секунду будет еще больше.
Проблема дополнительно усложняется еще и тем, что количество кадров в значительной степени зависит от выбранного уровня графических настроек и разрешения в игре. Так, например, определенная конфигурация может гарантировать 50-60 fps и относительно комфортную игру при разрешении 1280 х 720 пикселей и среднем уровне детализации. Однако стоит увеличить разрешение до Full HD (1920 х 1080 пикселей), а визуальные параметры до уровня Ultra, и производительность «рухнет» до 10-20 кадров в секунду, что на практике сделает игру «неиграбельной».
Решение проблемы
До недавнего времени традиционным ответом на проблемы синхронизации между монитором и компьютером (видеокартой) была V-Sync. Иначе говоря, «вертикальная синхронизация». Это грубый, но относительно эффективный способ, который на практике заставляет игровой движок синхронизироваться с частотой обновления дисплея.
Увы, это решение имеет один серьезный недостаток: работает правильно только в том случае, если каждый следующий кадр визуализируется менее чем за 1/60 секунды. Если подготовка кадра занимает больше времени, то при следующем цикле обновления дисплея он просто не будет готов к визуализации. Соответственно видеокарте придется визуализировать его снова. К сожалению, это случается с большинством современных видеокарт – даже самого высокого класса, а видимым результатом всего этого становятся раздражающие задержки изображения и другие неприятные побочные эффекты.
Именно тут вмешиваются NVIDIA с идеей так называемой «адаптивной синхронизации», которая в их случае стала известна как G-Sync. Это противоположность V-Sync, которая принуждает монитор синхронизироваться с игрой, а не наоборот. Таким образом, даже если аппаратные средства (видеокарта) в состоянии обеспечить, скажем, 30 кадров в секунду, это не будет особой проблемой, потому дисплей системы будет синхронизирован с ней и будет работать с частотой обновления 30 Гц.
Эта технология может оказаться манной небесной для всех геймеров и особенно для тех, кто играет на ноутбуках, которые традиционно предлагают меньшую игровую производительность по сравнению с настольными ПК.
Не только плюсы
На бумаге G-Sync звучит чудесно и имеет потенциал обеспечить высокое качество игры даже на слабых ноутбуках, которые иначе только могут мечтать о заветных 60 кадрах в секунду. На практике, однако, все не так просто – особенно в отношении имплементации G-Sync в мобильных компьютерах.
Проблема в том, что для реализации адаптивной синхронизации монитор компьютера нуждается в дополнительном модуле, который динамически регулирует частоту обновления в соответствии с количеством кадров в секунду. Этот модуль дорогостоящий и, что еще хуже – требует достаточно много энергии, что делает его нецелесообразным дополнением, по крайней мере, в ноутбуках, для которых вопросы, связанные с потреблением энергии являются особенно болезненными.
Такова ситуация с G-Sync была в 2013 году, когда NVIDIA впервые анонсировала эту технологию. Тем не менее, компания продолжила активно работать над развитием концепции адаптивной синхронизации, и в результате миру недавно была представлена Mobile G-Sync – разновидность оригинальной идеи, разработанная специально для использования в портативных компьютерах.
Mobile G-Sync
Основным плюсом новой модификации технологии является отсутствие необходимости в отдельном аппаратном модуле синхронизации. Вместо этого Mobile G-Sync использует возможности одного из самых современных интерфейсов – embedded DisplayPort (eDP), которым оснащается большинство ноутбуков нового поколения.
В мобильном варианте G-Sync предоставляет собой скорее софтверный, нежели аппаратный метод адаптивной синхронизации. В его основе лежит сложный математический алгоритм, который пытается предвидеть с высокой точностью способность видеокарты подготовить следующий, предназначенный для визуализации кадр, и с учетом этого настраивает частоту обновления дисплея.
Конечно, достижение 100-процентной точности в данном случае невозможно, но даже приблизительный результат дает серьезное отражение на качестве игрового опыта.
Плюсы Mobile G-Sync очевидны: более гладкое воспроизведение даже на слабых аппаратных конфигурациях, при этом без увеличения потребления энергии. Но, к сожалению, технология имеет и свои слабые стороны. Как уже упоминалось, достижение абсолютной точности в прогнозировании кадра невозможно. Именно по этой причине алгоритм отчасти жертвует точностью цветопередачи за счет фиксированной частоты обновления и более гладкого воспроизведения.
Более неприятный побочный эффект от практической реализации этой технологии заключается в том, что Mobile G-Sync и NVIDIA Optimus являются взаимоисключающими. Как вы, возможно, знаете, последняя является популярной функцией, которая позволяет динамически переключаться между встроенным в центральный процессор графическим ядром и дискретной (GeForce) видеокартой. Так, при работе с легкими задачами, такими как, скажем, просмотр интернета и редактирование документов, ноутбук может использовать интегрированное видео, которое потребляет значительно меньше энергии, чем дискретный графический адаптер.
Однако для работы Mobile G-Sync дисплей ноутбука должен быть подключен непосредственно к дискретной видеокарте (с маркой NVIDIA, разумеется). Это на практике исключает участие встроенного в процессор графического ядра и делает Mobile G-Sync и Optimus взаимоисключающими.
По словам NVIDIA, это не существенная проблема, особенно для моделей ноутбуков с графическими процессорами нового поколения – Maxwell, которые являются чрезвычайно энергоэффективными. Тем не менее, это важный компромисс, на который придется пойти многим OEM-партнерам компании, если они решат предложить Mobile G-Sync как опцию в своих игровых ноутбуках следующего поколения.
Конечно, в отсутствие независимых тестов все еще не очень ясно, насколько большим будет этот компромисс и в какой степени использование Mobile G-Sync за счет Optimus отразится на времени автономной работы.
Другой вопрос, что даже самые продвинутые модели ноутбуков не могут предложить особенно впечатляющей автономности – особенно на фоне сверхэффективных мобильных систем, таких как ультрабуки последнего поколения.
Но учитывая тот факт, что речь идет об узкоспециализированных портативных конфигурациях, предназначенных для специфичной аудитории (геймеры), которые отдают предпочтение пиковой производительности, то подобная жертва в плане времени работы от аккумулятора вряд ли может оказаться смертельной в том случае, если Mobile G-Sync выполнит обещание обеспечить действительно существенное повышение качества игрового опыта.
Включение в настройках видеокарты
Вот небольшая инструкция, как включить VSyns в настройках видеокарты от разных производителей.
Nvidia
Чтобы найти настройки VSyns, откройте «Панель управления NVIDIA» и перейдите в «Настройки 3D» -> «Управление настройками 3D». Затем откройте вкладку «Настройки программы» и выберите игру, которую нужно настроить. У выбранной игры найдите параметр «вертикальная синхронизация» и установите его на «ON». После окончания настроек нажмите «Применить». Эта игра теперь будет синхронизироваться с частотой обновления монитора. Чтобы отменить это изменение, нужно проделать точно такой же алгоритм действий.
Radeon
Для включения VSyns в видеокартах Radeon для начала откройте «Настройки Radeon», кликнув правой кнопкой мыши по рабочему столу. В появившемся окне нужно перейти в раздел «Игры» -> «Общие настройки дисплея». Откроется раздел «Параметры дисплея», там, напротив пункта «Radeon FreeSyns», передвиньте флажок на «ON».
Также можно включать и выключать VSyns для каждой отдельной игры, для этого в разделе «Игры» выберете нужную игру, в открывшемся меню настроек включите «Radeon FreeSyns».
Intel HD Graphics
VSync в графических процессорах Intel можно установить либо всегда включенным, либо использовать настройки приложения, либо полностью отключить в панели управления Intel.