Влияет ли переход от DVI к HDMI на производительность?
Вкратце: нет, преобразование DVI-HDMI не приведет к снижению качества. Первоначальный ответ: Уменьшает ли переходник с DVI-D на HDMI производительность видеокарты? Нет, это не должно влиять на производительность, кроме другого разрешения.
Адаптер HDMI-DVI снижает качество?
Нет проблем не будет. Все это цифровые форматы, поэтому нет преобразования, только изменения распиновки. Единственные потери могут быть связаны с плохим подключением, кабелями низкого качества и т. Д.
Вызывает ли задержка переход от HDMI к DVI?
Как и другие говорили, переход от DVI к HDMI — это просто перестановка контактов. Он не оказывает никакого влияния на задержку ввода или качество изображения..
DVI to HDMI — это плохо?
HDMI был разработан с учетом обратной совместимости с DVI, поэтому нет потери качества видео, когда с помощью переходника или кабеля HDMI-DVI. Важно отметить, что, хотя вам не следует тратить большие деньги на кабели HDMI, поскольку большинство из них одинаковы, разные кабели имеют разные рейтинги скорости.
МИФЫ И ПРАВДА О FPS (КАДРЫ В СЕКУНДУ). 120 FPS НА 60 Hz МОНИТОРЕ ИМЕЮТ СМЫСЛ?
HDMI лучше DVI?
Учитывая, что HDMI новее DVIнеудивительно, что в обоих случаях он работает с лучшими характеристиками. Последняя версия HDMI (2.1) может поддерживать максимальную скорость передачи данных 42,6 Гбит / с. . Помимо заметных визуальных преимуществ, HDMI может передавать аудиосигналы, чего не может делать DVI.
Почему DVI выглядит лучше, чем HDMI?
HDMI заметно ярче при тех же настройках как вход DVI-D. HDMI становится немного темнее, если установить его в цветовое пространство ycbcr. Это сбивает меня с толку из-за того, что HDMI и DVI должны быть одинаковыми, за исключением аудио и сетевых возможностей.
Адаптеры HDMI-DVI работают в обоих направлениях?
Пассивные переходники DVI-to-HDMI будут работать в обоих направлениях и совместимы со всеми физически существующими портами DVI. Такова ситуация в реальном мире. Проблема в другом. Возможно, отображение не было изменено на правильный ввод.
Можете ли вы перейти с HDMI на DVI?
Как упоминалось в описании устройства DVI-HDMI, DVI и HDMI используют один и тот же цифровой видеоформат для видео. Это означает, что если вы только используя видеосигнал, вы можете просто использовать переходник или кабель HDMI-DVI. это просто меняет физические соединения.
Могу ли я подключить HDMI к монитору DVI?
Да, нужен переходник HDMI на DVI. Есть два типа: HDMI-штекер на DVI-гнездо, для этого вам понадобится кабель DVI. И гнездо HDMI к штекеру DVI, в этом вам понадобится кабель HDMI.
Есть ли у DVI задержка ввода?
Современные видеокарты имеют порты DVI-I, позволяющие передавать цифровой DVI или аналоговый D-sub через адаптер. Так нет дополнительной задержки ни на одном из подключений. DVI всегда превосходит аналоговый VGA d-sub, потому что это цифровое соединение.
Адаптеры добавляют лаг?
Если это активный адаптер файл. Наверное добавляет лаг. Лучше всего использовать dvi в vga, так как я считаю, что DVI все еще передает аналоговый сигнал vga на некоторых контактах. HDMI полностью цифровой и требует активного преобразования в VGA.
Что лучше: DisplayPort или HDMI?
Оба стандарта способны обеспечить хороший игровой опыт, но если вы хотите получить отличный игровой опыт, прямо сейчас DisplayPort 1.4 в целом лучше, чем HDMI 2.0, HDMI 2.1 технически превосходит DP 1.4, а DisplayPort 2.0 должен превосходить HDMI 2.1. . Однако DisplayPort по-прежнему является предпочтительным стандартом для мониторов ПК.
HDMI к DVI — это то же самое, что DVI к HDMI?
Нет разницы между передачей через DVI и HDMI. Оба используют один и тот же тип цифрового сигнала для передачи данных. Одно отличие состоит в том, что HDMI может передавать аудиосигнал. В остальном это одно и то же, всего лишь два разных разъема, оптимизированных для разных целей.
Что лучше VGA, DVI или HDMI?
DVI расшифровывается как Digital Visual Interface и предлагает более четкое и лучшее изображение, чем VGA. Это уникальный разъем, поскольку он может передавать как цифровые, так и аналоговые сигналы. DVI также можно легко преобразовать в другие стандарты, такие как HDMI и VGA.
Источник: c-pt.ru
Мониторы 21:9 против стабильного fps — исследуем вопрос
Ультраширокие экраны давно не экзотика: продаются в любом магазине, активно рекламируются, да и в статистике Steam выбрались из зоны 0,01%. Неудивительно, ведь на них удобнее работать, да и фильмы можно смотреть без чёрных полос. Но вот беда: говорят, UltraWide-дисплеи плохо подходят для гейминга. Проверим?
Почему игры могут работать хуже?
Тут всё одновременно и просто, и сложно. Начнём с того, что некоторые блокбастеры не поддерживают сверхширокие мониторы. Например, Metal Gear Solid V не знает о существовании 3440×1440, идёт ли речь об оконном или полноэкранном режиме. Никакими ухищрениями в таком формате его не запустить.
Ряд хитов нетрудно адаптировать к экзотическому разрешению благодаря пользовательским патчам (а заодно получить бан в мультиплеере). Какие-то релизы без «костылей» запускаются в 21:9, но с проблемами: сдвигается интерфейс, криво отображается меню. А ведь есть ещё один нюанс — производительность.
Если сравнивать 1920×1080 и 2560×1080, любому понятно: во втором случае возрастает нагрузка на видеокарту. Но что, если сопоставить 2560×1440 и 2560×1080? Казалось бы, ответ очевиден: меньше пикселей — выше значение fps. Но и тут всё не так просто.
Производительность зависит не только от разрешения, но и от оптимизации движка.
Существует популярный миф о том, что разработчики тратят уйму времени и денег на адаптацию проектов под возможности популярного железа. С одной стороны, логично: если у большинства игра будет «летать», то и отзывы окажутся положительными. С другой — без смелых экспериментов банально остановится прогресс.
Поэтому появляются блокбастеры с трассировкой лучей, поддержкой свежих DirectX и сверхшироких разрешений. Само собой, всё это высокотехнологичное добро может работать не так шустро, как раньше. Технологии нужно время, чтобы устояться и избавиться от «детских болезней», а студиям — научиться правильно применять новые фишки.
Что влияет на производительность при супершироком мониторе?
Предположим, ААА-хит нормально запускается с соотношением сторон 21:9. Либо худо-бедно поддерживает отрисовку с незначительными огрехами в интерфейсе и заставках. Вариантов отображения картинки два. Некоторые игры, подобно Overwatch, срежут часть объектов в кадре сверху и снизу, сохранив исходный угол обзора по горизонтали.
Другой вариант — как во многих шутерах и гонках — оставить нетронутой высоту, но добавить недостающие фрагменты по бокам. Разумеется, второй сценарий — это дополнительная нагрузка на GPU. Причём не только по части отрисовки дополнительных точек (относительно разрешения 16:9 с той же высотой кадра), но и затраты ресурсов на генерацию дополнительной геометрии и обсчёт освещения.
Ну что, настало время проверить всё на практике?
Методика тестирования
Испытания будем проводить на двух мониторах, используя пять разрешений экрана. За 16:9 отдуваются 3840×2160 (4K), 2560×1440 (WQHD), 1920×1080 (Full HD), запущенные на AOC AGON ag271ug. За 21:9 — 3440×1440 (1440p UltraWide) и 2560×1080 (1080р UltraWide), дисплей для тестов — AOC AGON ag352ucg. Игры возьмём разные: свежие, старые, с хорошей оптимизацией и не очень. Сделаем три прогона каждого из тестов, медианный результат занесём в таблицу.
Конфигурация демостенда
Процессор Intel Core i7-7820X
Оперативная память 64 ГБ DDR4 GeIL EVO X
Накопитель NVMe SSD Intel 760p
Видеокарты MSI GeForce GTX 1080
Palit GeForce GTX 1080 Ti
Palit GeForce RTX 2080
Блок питания Cooler Master V1000
Корпус Cooler Master Cosmos II
Как мы поймём, что влияет на скорость работы игры?
Поскольку UltraWide-разрешения по сравнению со стандартными немного увеличивают угол обзора, в кадр попадает чуть больше объектов. Однако многие движки отрабатывают этот этап построения картинки примерно за одно и то же время — вне зависимости от разрешения или соотношения сторон. Проверить несложно: нужно выяснить, насколько больше точек необходимо обсчитать при отрисовке, разделив соответствующие площади изображений (2560х1080 и 1920х1080 или 3440х1440 и 2560х1440) и сравнив среднее время кадра (количество fps / 1000). Если результат измерений вписывается в теорию, дополнительная геометрия кадра никак не влияет на производительность. Не вписывается — влияет.
Проверяем арифметику другим путём. Теоретически, среднее арифметическое производительности из разрешений 1920х1080 и 2560х1440 должно быть близко по значению к результатам 2560х1080. По очевидным причинам — суперширокое разрешение по длине совпадает с WQHD, а по высоте — с Full HD, ведь общее число отображаемых пикселей сопоставимо.
Справедливо и обратное: среднее арифметическое из 3440х1440 и 2560х1080 близко к 3000х1260 (3,78 Мп). В мониторах такое соотношение не используется, зато по итоговой площади близко к 2560х1440 (3,68 Мп). Следовательно, при сравнении этих результатов мы поймём, насколько сильнее грузит систему дисплей 21:9.
С математикой покончено. Перейдём к результатам измерений?
Что показали испытания
Средние значения по 9 играм следующие: при апгрейде с Full HD на его суперширокий вариант (2560×1080) производительность падает примерно на 18±2%, переход с WQHD на UWQHD (3440×1440) отъедает 15±2%. То есть при смене монитора на аналогичный по высоте вы потеряете около 16% fps. Влияния большего числа пикселей на время отрисовки одного кадра никто не отрицал, но из чего она складывается?
Среднее арифметическое фреймрейта из супершироких 3440×1440 и 2560×1080 по 9 играм на трёх видеокартах оказалось на 25±2% меньше реальной производительности в разрешении 2560×1440. С учётом потенциальной ошибки в 2% из-за разницы в реальном количестве точек — и того больше: 27±2%. Аналогичные расчёты для среднего арифметического из 1920×1080 и 2560×1440 для выяснения «теоретической» производительности 2560×1080 с коррекцией ошибки показало всего -5±2%. То есть дополнительные объекты гораздо сильнее грузят видеокарту, чем изменившееся соотношение сторон.
Осталось понять, виной тому «лишние» треугольники моделей или же расчёт освещения. Отклонение среднего теоретического времени кадра от реально полученного в измерениях составило менее 5%. Эта цифра находится далеко за порогом значимости в рамках исследования: этап подготовки геометрии практически не заметен на фоне текстурирования и пост-обработки.
Таким образом, миф об оптимизации развеян на практике.
Этой проблемы нет у современных блокбастеров, полностью поддерживающих UltraWide-разрешения. Ведь GPU всё равно бьёт картинку на квадратные фрагменты в момент обсчёта. Куда сильнее влияют дополнительные объекты в кадре и естественный рост нагрузки из-за большего числа точек на дисплее.
Источник: www.playground.ru
Как сильно влияет 2ой монитор на производительность ?
Если один монитор является продолжением второго, то тратится вдвое больше памяти видеокарты, если оба монитора показывают один экран, то никак не влияет.
В твоем случае, с 1 Гб видеопамяти, вырастет нагрузка на оперативную память, что может сказаться на быстродействии системы и программ
C0K01
OLDFAG
Во первых, для каких задачей?
Во вторых, как дела сейчас с одним монитором
В третьих, что за монитор?
_Trader Milk_
Кошачья Папая
Если одна игра на оба моника, то заметно
Ximbioz
Фоткаюсь на плёнку
Видяшку пора бы обновить, а не второй моник докупать, лучше подожди, когда цены на видяхи упадут и купи 1060 или 1070.
Antoxlas
First LuLz
Видяшку пора бы обновить, а не второй моник докупать, лучше подожди, когда цены на видяхи упадут и купи 1060 или 1070.
До ишачьей пасхи ждать можно
botka4aet
Бог флуда
Не слушай этих лохов
Бери моник
У меня gtx 560 и все ок
Gavnor
Король флуда
Если один монитор является продолжением второго, то тратится вдвое больше памяти видеокарты, если оба монитора показывают один экран, то никак не влияет.
В твоем случае, с 1 Гб видеопамяти, вырастет нагрузка на оперативную память, что может сказаться на быстродействии системы и программ
Источник: mipped.com