Ответить
  • Артёмка Senior MemberАвтор темы
    офлайн
    Артёмка Senior Member Автор темы

    22047

    21 год на сайте
    пользователь #6766

    Профиль
    Написать сообщение

    22047
    # 20 августа 2008 08:24 Редактировалось Dimenice, 64 раз(а).

    Для выбора видеокарты используйте каталог Onliner.by: catalog.onliner.by
    Прежде, чем задать вопрос, читаем FAQ.

    Если желание задать вопрос не пропало, то готовим следующие сведения:
    Конфигурация компьютера (монитор и тип подключения, процессор, мат. плата, конкретную модель блока питания, корпус упоминаем (особенно нестандартный), желательно и кол-во доп. периферии), нынешнюю видеокарту, цели и бюджет.

    Пользователи с относительно небольшим размером системного раздела могут столкнуться со следующей проблемой, при использовании GeForce Experience:
    - при включенном автоматическом обновлении драйверов (запрос только на установку) программа качает все пакеты драйверов за последние год+, и хранит их в 2-3 местах, дублируя.
    Если системный диск С:, то пути следующие:
    - C:\NVIDIA\DisplayDriver\ тут удаляем все либо оставляем последнюю версию;
    - C:\ProgramData\NVIDIA Corporation\Netservice\ тут удаляем только exe-пакеты драйверов, со знакомым значком nv GeForce;
    - C:\Program Files\NVIDIA Corporation\Installer2\ тут чистим абсолютно все в папке, саму папку не удаляем.
    После чего отключаем в настройках GeForce Expirience (открываем его, вкладка параметры, ищем подраздел "обновления", снимаем галочку с "Загружать обновления драйвера автоматически и устанавливать по решению пользователя".
    В моем случае удалось освободить порядка 10 Гб из 60 Гб, а это весь объем моего ssd под win8.1.

    Или так

    Однако прошлые апдейты NV всё равно частично перезакачивает, так что можно отказаться от использования GeForce Expirience, если для вас критично наличие доп. места на системном диске, а драйвера вы способны установить самостоятельно скачав очередным пакетом с оф. сайта.

    1) Вопрос: Будет ли работать видеокарта стандарта PCI-E 2.0 (или 2.1, или 3.0) в материнской плате с разъёмом PCI-E 1.0 (или 2.0, 3.0) и наоборот?
    Ответ: Да, будет*. PCI-E версии интерфейсов обладают обратной совместимостью, за исключением некоторых нюансов.
    *Возможные проблемы совместимости видеокарт AMD 5xxx, 6xxx серий со старыми чипсетами nvidia. Обычно решаются обновлением биоса мат. платы (модифицированный BIOS можно получить в том числе при обращении в тех.поддержку производителя мат.платы).
    В любом случае, перед установкой новой видеокарты не лишним будет обновить биос мат.платы до последнего актуального.
    Возможные проблемы - современные видеокарты без доп. питания не всегда работают на старых чипсетах-первопроходцах с pci-e 1.1 , скорее всего из-за реализации питания через интерфейс. Это intel 945 и иже с ним.
    Так же мат.платы, основные на чипсетах via с поддержкой pci-e, не гарантируют работы видеокарт с интерфейсом подключения выше версии 1.1.

    2) Вопрос: Разъём на моей материнской плате соответствует стандарту PCI-E 1.0. Что я теряю при установке видеокарты, соответствующей стандарту PCI-E 2.0? Аналогичный вопрос при 3.0 и 2.0 версии.
    Ответ: По результатам тестов на основе современных игровых приложенийещё тест + март 2015) можно сделать вывод, что преимущества PCI-E 3.0 x16 над PCI-E 2.0 x16 пока не такие существенные, какими она заявлены. Разница в производительности для разных интерфейсов, даже при тяжелых режимах, не достигает 2%, что не является серьезным аргументом в пользу PCI-E 3.0. Чуть более заметными являются преимущества при чистой расчетной нагрузке, когда разница проявляется из-за меньшей латентности PCI-E 3.0. Очевидно, что PCI_E 3.0 будет необходим для последующих поколений видеокарт.
    Что касается вопроса разницы между 2.0 х16 и 1.1 х16, то для видеокарт среднего сегмента (middle-end, в ценовом выражении находится у отметки в ~150..280$) значительных потерь (свыше 10%) нет. Более высокие скорости 2.0 интерфейса востребованы топовыми одно- и двучиповыми продуктами. Тест форумчанина для pci-e 1.0 (n68c-s) и 2.0 (GA-770) при 550ti в системе)

    3) Вопрос: На моей видеокарте, как и на моём мониторе, есть два разъёма для подключения, допустим, DVI (белого цвета) и VGA (синего цвета), так через какой разъём мне подключать?
    Ответ: Правильным будет подключение DVI-DVI т.к. при таком способе подключении отсутствует лишнее преобразование сигнала из цифрового в аналоговый, приводящее у ухудшению кач-ва изображения. В любом случае, использование vga-разъёмов для современных видеокарт (наиболее заметно, судя по отзывам, на radeon 7xxx серии, встречаются жалобы на geforce 6xx серии. Прошлые поколения тоже не отличались особо высоким кач-вом картинки в случае vga-подключения, но отрицательный эффект был менее заметен) не рекомендуется (могут быть проблемы с масштабированием, из-за наводок и преобразований могут возникнуть рябь, полосы и т.п.). Предпочтение следует отдавать цифровым интерфейсам: dvi-i/dvi-d, hdmi, DP.

    4) Вопрос: На моём блоке питания нет разъёма для подключения видеокарты, а на моей новой видеокарте он есть. Как её подключить?
    Ответ: Для подключения видеокарты нужно приобрести переходник (обычно идет в комплекте с видеокартой) с двух разъёмов Molex (или одного) на 6-pin (или 8-pin). Пример. В противном случае современная видеокарта работать не будет из-за встроенных защитных механизмов при отсутствии замыкания части контактов доп. питания. Старые модели (geforce 6600 gt и иже с ним) при отсутствии доп. питания запускались и работали на сниженных частотах.

    5) Вопрос: Что значит "дискретная видеокарта"?
    Ответ: Дискретная видеокарта - это отдельно приобретаемая плата, которая устанавливается в специальный разъём на материнской плате (в случае настольного компьютера).
    Существуют понятие "интегрированной видеокарты" (видеокарты, встроенные в чипсет мат.платы, в процессор). Современные образцы в некоторых случаях могут превосходить бюджетные дискретные адаптеры.

    6) Вопрос: Что значит, референсная (reference) и не референсная (non-reference) видеокарты?
    Ответ: В первом случае, это та видеокарта, которая произведена самим разработчиком ГП (графического процессора), например AMD или nVidia, или имеющая эталонный дизайн, разработанный и рекомендованный производителем ГП. Ко второму случаю относятся те видеокарты, которые имеют оригинальный/изменённый дизайн по отношению к рекомендованному производителем ГП.

    7) Вопрос: Какая видеокарта лучше, референсная или не референсная?
    Ответ: Однозначного ответа на этот вопрос нет, т.к. нужно ориентироваться по конкретной модели, читая обзоры, мнения пользователей. Например, референсные модели не редко имеет систему охлаждения "турбинного" типа, что позволяет видеокарте выбрасывать горячий воздух из корпуса. Это полезно для компактных или плохо вентилируемых корпусов, где дополнительный нагрев не к чему. В то же время из-за особенностей конструкции турбинные СО довольно шумные (т.к. воздух продавливается через продольные ребра радиатора) и более эффективны при высоких оборотах. Из-за шума и не только производители нереференс вариантов предпочитают более классические компоновки СО, вы результате чего для некоторых людей при их требованиях почти единственным доступным вариантом явл-ся покупка референса с "турбинной" СО (тангенциальный вентилятор).

    8 )Вопрос: У меня устаревший/слабый ЦП (процессор), но я решил купить мощную видеокарту для игр.
    Ответ: В данном случае в покупке мощной видеокарты нет смысла т.к. ЦП станет узким местом системы и не даст видеокарте раскрыть свой потенциал, во всём должен быть баланс. Для старых двухядерный моделей (кстати, все двухядерные модели, иногда и 4х (phenom 9500), до 2008 года выпуска (pentium E, pentium D, celeron D, core2duo, athlon FX, athlon x2, phenom и athlon первого поколения под am2) слабее нынешних celeron g530 или тех же A4-3400/phenom ll x2 по процессорной части, если будете читать тесты и задатитесь вопросом, как соотнести производительность) нет особого смысла покупать что-либо выше уровнем, чем geforce 740-750/radeon r7 250-260.

    9) Вопрос: У меня была видеокарта с 256-bit шиной памяти, а сейчас мне советуют видеокарту с меньшей шириной шины. Разве это правильно?
    Ответ: Сравнение видеокарт именно по этому параметру не совсем верно, т.к. в общем вас интересует пропускная способность памяти, не считая технических хар-к ГП. А она зависит не только от ширины шины, но и от эффективной частоты и типа памяти. Так же может меняться логика работы с набортной памятью для новых GPU, новые техники сжатия текстур и т.п.
    Например, geforce 660 имеет шину памяти 192bit, тип gddr5, эффективная частота 6008MHz (3004MHz от-но gddr3, реальная 1502MHz). Это обеспечивает пропускную способность на уровне 144.2 Гбайт/с. В то же время уступающая данной видеокарте по производительности в большинстве сценариев использования geforce 570 имеет шину памяти 320bit, gddr5, 3800MHz, 152 Гбайт/с.
    Пиковый показатель пропускной способности вычисляется по формуле:
    Пропускная способность (B) = Частота передачи (f) x разрядность шины (c) x количество каналов памяти(k)
    Для 660ti 6008 МГц x 192 бит x 1 / 8 бит = 144 192 Мбайт/с. На 8 поделили, чтобы перевести Мбит/с в Мбайт/с (в 1 байте 8 бит).
    Т.е., не вдаваясь в отличия по ГП, можно заметить близкую пропускную способность памяти при значительно различающейся ширине шины памяти. Так что следует ориентироваться на несколько различных тестов в интернете перед выбором (например, тут), а не на сравнение хар-к разных ГП "в лоб".

    10) Вопрос: Стоит выбор между видеокартой на одном и том же ГП (допустим, radeon 7750), но с разным типом памяти (gddr3 и gddr5), при этом шина одинаковая, 128bit. Что предпочесть?
    Ответ: Для одинаковых ГП прирост от использования gddr5 памяти относительно gddr3 в тяжелых графических режимах может достигать свыше 40%. Рекомендуется доплатить ~10 долларов (обычная средняя разница в цене) и приобрести gddr5 вариант, даже если при gddr3 объем установленной видеопамяти 2...4Gb, а при gddr5 - всего 1 Gb (этого объема достаточно для современным решений начального уровня, больший ими задействуется с трудом).

    11) Вопрос: Почему две видеокарты конкурирующих производителей в разных обзорах показывают различные результаты, вплоть до того, что в одних источниках выигрывают до 15%, а в других уже уступают одна другой.
    Ответ: Это происходит из-за различных подходов к тестовой методике. В играх есть различные по графической сложности сцены, на производительность в которых влияют различные участки ГП. При выборе сцен с "удобной" для одной из сравниваемых карт нагрузкой можно получить заметно отличающиеся рез-ты. Так же заметное влияние могут оказывать версии игры, драйверов, использование различных типов сглаживания. Поэтому рекомендуется при сравнении использовать несколько различных ресурсов с широким набором тестовых приложений.

    12) Вопрос: Подскажите наиболее популярные сайты с обзорами видеокарт.
    Ответ: Заграничные:
    techpowerup, большая база, объемные сравнения, потребление видеокарт отдельно в различных режимах работы.
    tomshardware Различные типы исследований, обзоры с не всегда стандартными (=интересными) наборами приложений, настройками. Статьи с рекомендациями по выбору.
    techreport интересная методика сравнения, видны минусы видеокарт, "потерянные" кадры.
    Anandtech крупный и довольно уважаемый сайт.
    3dguru
    Ну и французский ресурс, где можно посмотреть снимки видеокарт под прицелом тепловизора...
    Русскоязычные:
    overclockers статьи с тестами в играх, своеобразная база (позволяет сравнить связки процессоров и видеокарт), статьи с исследованиями процессорозависимости и т.п. Результаты не всегда совпадают с другими сайтами, но интерес представляют.
    ixbt тесты, ежемесячные сравнения широкого спектра карт.
    fcenter
    Ну и хватит пока...

    13) Вопрос: Какую видеокарту лучше купить, на чипах AMD или nVidia?
    Ответ: Не нужно ориентироваться по вендору, в первую очередь нужно смотреть по производительности, которую обеспечивают видеокарты в заданном бюджете в играх, в которые предполагается играть, а так же по тем доп. возможностям, которые они предлагают. В некоторых случаях имеет смысл под конкретное приложение или игру смотреть на ГП определенного вендора, но конкретику необходимо уточнять в тематических ветках форумов.

    14) Вопрос: Какого производителя видеокарты предпочесть Asus, MSI, Gigabyte, Sapphire и т.д.?
    Ответ: Кроме характеристик, эффективности системы охлаждения, размеров, комплектации, возможностей и цены, нужно учитывать и выбирать того производителя, который предоставляет лучшие условия по гарантийному сервису продукта, т.к. брак бывает у всех производителей без исключений.
    Однако существуют не самые удачные модельные ряды, с типовыми проблемами, которых следует избегать.
    Так что каждый случай индивидуален, необходимо уточнение и изучение предложенных вариантов.

    15)Вопрос: Что даёт аппаратная поддержка DirectX 11? DirectX 12?
    Ответ: В сравнении с DX10 введены более простые в расчете шейдеры, алгоритмы и т.п.. Не редко DX10 и 11 предпочитают почти группировать, а сравнение приводить относительно DX9. В этом случае отличия в более высокой версии шейдерного кода, тесселяции, направленности на DirectCompute и т.п.
    Для DirectX 12 основным мотивом появления стало снижение процессорозависимости из-за распараллеливание нагрузки, с возможностью выдачи заметно больше кол-ва вызовов на отрисовку (drawcalls), либо заметном уменьшении требуемых нагрузок на ЦПУ при том же кол-ве вызовов drawcalls.

    16) Вопрос: Что такое аппаратное ускорение видео?
    Ответ: Опуская технические подробности, это способность видеокарты за счет отдельного блока декодирования видео обеспечивать плавность воспроизведения видео высокой чёткости (HD, FullHD). Данная возможность позволяет снизить нагрузку на ЦП и может использоваться как в домашних ПК, так и в медиацентрах, для которых нет необходимости в наличии мощных ЦП. Однако есть свои ограничения. Поддержка DXVA полноценно обеспечивается операционными системами (в случае продуктов Microsoft) Windows Vista и Windows7, в Windows XP с DXVA есть определенные проблемы.

    17) Вопрос: Я выбираю видеокарту для просмотра видео в высоком качестве (HD, FullHD), для работы с документами и в интернете, но при этом хочу, чтобы видеокарта имела все современные возможности. На чём мне остановить свой выбор, с учётом моих задач?
    Ответ: Для таких целей нет необходимости в покупке мощной игровой видеокарты, т.к. её возможности использоваться не будут, и лучше остановить свой выбор на более простых решениях, соответствующих всем современным требованиям по воспроизведению, например, Radeon HD6570-Radeon r7 230 или GeForce GT630-geforce gt720, покупать видеокарты дороже и выше классом не имеет смысла. Но...
    Современные встроенные в процессоры ГП обеспечивают приемлемый уровень начальной игровой производительности (вплотную приблизившись и даже обгоняя 8800gt, хотя прямое сравнение видеокарт разных поколений и не совсем адекватно), ускорения видео и 2D-режимов. При приобретении компьютера с нуля следует учитывать этот момент, если вы не нуждаетесь в мощной дискретной графике.

    18 )Вопрос: Что такое nVidia SLI и как работает эта технология?
    Ответ: Читаем материал из Википедии.. Технология имеет свои нюансы (AFR, micro-stuttering, не 100%-масштабируемость, поддержка драйверами, проблема отвода тепла и т.п.), так что использование не топовых видеоадаптеров в связке не рекомендуется, если одночиповое решение уступает такой связке менее 20%.
    Кроме того, необходимо заранее продумывать конфигурацию компьютера (поддержка sli/cross мат.платой, блок питания с запасом, корпус+вентиляция...), что выливается в дополнительные траты.
    Micro-stuttering можно почти побороть при использовании карт избыточной мощности, с загрузкой чипа порядка 85% + активации adaptive vSync из контрольной панели управления nvidia.
    Кроме того, видеопамять ускорителей не суммируется, две карты по 1Gb хотя и будут иметь физически 2Gb, на деле будут использовать 1Гб, продублированный в памяти обеих видеокарт из-за особенностей реализации AFR. А недостаток памяти выливается в стриминг (подгрузку) текстур с соответствующими проблемами (просадка фпс) производительности.
    Однако nvidia постоянно работает над программным обеспечением, позволяя зачастую заметно снизить негативное влияние того же micro-stutterning'a.

    19) Вопрос: Что такое AMD CrossFire/CrossFireX и как работает эта технология?
    Ответ: Читаем материал из Википедии.. Технология имеет свои нюансы (AFR, micro-stuttering (более выражен, чем у SLI, встречается даже на одиночных картах), не 100%-масштабируемость,поддержка драйверами, проблема отвода тепла и т.п.), так что использование не топовых видеоадаптеров в связке не рекомендуется, если одночиповое решение уступает такой связке менее 20%.
    Кроме того, необходимо заранее продумывать конфигурацию компьютера (поддержка sli/cross мат.платой, блок питания с запасом, корпус+вентиляция...), что выливается в дополнительные траты.
    Побороть micro-stuttering можно в части случаев использованием адаптивной синхронизации из программы radeonpro.
    Кроме того, видеопамять ускорителей не суммируется, две карты по 1Gb хотя и будут иметь физически 2Gb, на деле будут использовать 1Гб, продублированный в памяти обеих видеокарт из-за особенностей реализации AFR. А недостаток памяти выливается в стриминг (подгрузку) текстур с соответствующими проблемами (просадка фпс) производительности.
    Однако AMD работает над программным обеспечением, позволяя снизить негативное влияние того же micro-stutterning'a в части тайтлов.

    20) Вопрос: Что мне даст аппаратное ускорение физических эффектов видеокартами nVidia. PhysX?
    Ответ: Читаем старый, но необходимый для понимания, материал на ixbt.com.
    Отдельно стоит отметить, список игр, где используется ускорение физ. расчетов именно на GPU, довольно скуден. Не следует путать PhysX SDK и GPU PhysX, т.к. в очень значительном кол-во игр, несмотря на поддержку PhysX, ваша видеокарта не задействуется, а весь расчет происходит на процессоре. Лишь отдельные решения, реализуемые physX, не доступны для cpu. Так что PhysX не стоит рассматривать как весомый аргумент в покупке видеокарты, пока игра из списка не попадает под ваши основные требования при приобретении. И не забываем, что лишь достаточно мощные модели gpu и cpu обеспечивают достаточный уровень производительности для средних и высоких настроек PhysX.

    21) Вопрос: Что такое - "Вычисления на GPU"?
    Ответ: На примере AMD Radeon, на примере nVidia Cuda.

    22) Вопрос: Какое влияние оказывают различные характеристики видеокарт на их производительность?
    Ответ: Читаем материал на ixbt.com.

    23) Вопрос: Что важнее для игр, видеокарта или процессор?
    Ответ: Читаем материал на Оverclockers.ru. Фактически, необходимо соблюдать баланс между cpu и gpu. Т.к. связка i3+radeon 7850 является ещё сбалансированной, а pentium gxxx + nvidia 660 ti или i3 + radeon 7950 - уже нет (в большей части задач). Но влияние процессора на производительность падает с ростом используемого вами разрешения, в 2560х1600 все может гораздо раньше ограничится мощностью видеокарты, тогда как в 1280х1024 разница между различными процессорами может очень сильно влиять на общую картину.

    24) Вопрос: Сколько памяти достаточно для видеокарты?
    Ответ: Для игровых разрешение 1920х1080 на ультра-настройках достаточно 3-4 Гб памяти в самых требовательных играх. Постепенный выход игр под ps4, xbox one скорректировал аппетиты игр в район 3-4 Гб видеопамяти в случае высоких/ультра настроек и сглаживания типа msaa/txaa/ масштабирования разрешения от nvidia в виде DSR. Для мидл-сегмента все ещё хватает 2 Гб памяти, более требовательные геймеры готовятся выкладывать и большие суммы)

    25) Вопрос: Я хочу купить новую, производительную видеокарту. С какими проблемами я могу столкнуться?
    Ответ: При покупке высокопроизводительной видеокарты стоит учитывать достаточно высокие требования этих видеокарт к системе питания, то есть мощность БП (блок питания) должна полностью обеспечивать необходимые требования к питанию видеокарты (эту информацию можно получить на оф. сайте компаний AMD/nVidia а так же из исследований в обзорах видеокарт). Также нужно быть уверенным, что глубины и ширины корпуса будет достаточно для её установки, например, длина некоторых моделей видеокарт может достигать 300 мм, в других необходимо добавить пару сантиметров на разъемы для подключения дополнительного питания (если они расположены параллельно плате, "смотрят" на лицевую панель). Не стоит забывать и о достаточности вашего процессора для раскрытия потенциала видеокарты, а так же вентиляции корпуса.
    Именно по этому при выборе видеокарты просят уточнять вашу конфигурацию.

    26) Вопрос: У меня старый компьютер и материнская плата поддерживает только AGP-интерфейс. Какую достаточно современную видеокарту я могу установить?
    Ответ: В настоящее время наиболее соответствующие современным требованиям видеокарты для AGP-интерфейса являются видеокарты, относящиеся к 3 и 4 серии AMD, а именно: Radeon HD3650, 3850, 4650 и 4670. Но проще сменить платформу на cjdhtvtyysq бюджетный celeron+мат.плата+оперативка, куда актуальнее будет.

    27) Вопрос: Я собрался купить видеокарту, в прайсе есть два варианта - oem и retail. В чем отличия?
    Ответ: Oem поставка содержит саму видеокарту, упаковочный пакет и, в лучшем случае, диск с драйверами, иногда что-либо ещё (переходник, код в игре).
    Retail поставка - это картонная коробка, в которой помимо видеокарты, диска с драйверами, как правило, есть переходники, кабели, диск с какой-либо игрой и прочие дополнения. Так же Retail версия может иметь более длительный срок гарантии.

    28 )Вопрос: Я собрался купить видеокарту, но не уверен, хватит ли БП...
    Ответ: Вообще, вам необходимо уточнить возраст и хар-ки своего БП, А так же остальную конфигурацию.
    Пример потребления i5+gtx770, как видите, менее 300Вт из розетки в типичном сценарии использования.
    Не всегда стоит слепо доверять рекомендациям производителей видеокарт, т.к. бывают и случаи с очень оптимистичными требованиями к БП, а бывают и с завышенными. Опять же, следует обратиться к различным обзорам с тестами энергопотребления, отдельно выделив для себя процессор+мат.плату и видеокарту, добавляя около 10Вт за каждый hdd/ssd/dvd и вентилятор, оставляя некоторый запас в процентов 15% по мощности. Если БП старый, то можно отнимать от его заявленной мозность 5% за каждый год использования. Т.к. современные системы потребляют в основном нагрузку по 12v линии, то именно мощность, которую способен отдать БП по ней в Амперах нас и интересует. Складывать стоит предельные значения потребления из тестов. Немаловажны и реальные свойства БП.
    В общем случае, если вам не хочется разбираться с этим, можно и в очередной раз спросить в теме. Но не ленитесь использовать поиск, похожие конфигурации и советы по ним могут уже встречаться ранее.

    29) Вопрос: Я собрался купить видеокарту от Nvidia, но прочел, что у них хуже картинка или другие цвета, чем у AMD radeon... Такое может быть?
    Ответ: Разве что из-за использования не full RBG диапазона цветов в драйверах nvidia при hdmi или DP подключении. Можно включить, использовав эту программу NV_RGBFullRangeToggle. Меняете на 0-255, перезагружаетесь. Для использования при воспроизведении видео можно обойтись и настройкой в панели управления nvidia, регулировка параметров цвета для проигрывания видео, "с настройками nvidia", закладка "дополнительно", динамический диапазон 0-255. Все галочки с улучшения цвета и динамического автоконтраста снимаем.

    30) Вопрос: Купил AMD radeon. Непонятные изменения цвета при проигрывании видеофайлов, видео выглядит ужасно. Такое может быть?
    Ответ: отключите в драйверах различные "автоконтрасты" и т.п "улучшайзеры", с одной из версий 12 catalyst стали применяться по дефолту, могут мешать) Видео -> Цвет\Качество, отключаем постобработку (обычно достаточно отключить "динамический контраст" ).

    31) Вопрос: Меня не устраивает шум видеокарты и я хочу изменить алгоритм работы вентиляторов, я хочу разогнать видеокарту, хочу узнать температуру видеокарты, "я хочу больше проблем с драйверами и играми" (к сожалению, и так бывает :) )?
    Ответ: Воспользуйтесь сторонними утилитами, наиболее популярны для регулирования вентиляторов, мониторинга и разгона: EVGA precision, MSI afterburner. Всегда используйте последние версии, перестанавливайте утилиту после обновления драйверов, не ставьте утилиты, если вам не нужен их функционал (могут добавить проблемы с совместимостью, вылеты и т.п.).
    Для простого мониторинга температур, нагрузки и оборотов вентиляторов можете воспользоваться gpu-z, так же она позволит узнать некоторую доп. информацию о вашей видеокарте.
    Утилиты, имеющие схожий функционал и поставляемые производителем видеокарты, обычно не содержат все необходимые функции и не рекомендуются к применению, если не являются единственными вариантами, регулирующими нужные вам параметры на вашей видеокарте.

    32) Вопрос: Купил radeon 7750, 7770, 7850, 7870, 7950, 7970. А в диспетчере устройств показывает только radeon 7700 series, 7800 series, 7900 series. Это нормально?
    Ответ: Да, абсолютно. Драйвер ставится на серию видеокарт, при схожих ГП такое отображение наименования видеокарты вполне допустимо. Если вы хотите узнать доп. информацию о вашей видеокарте, можно использовать GPU-Z, ориентируясь по данным в графах и сравнивая данные с заявленными производителем.

    33) Вопрос: Хочу, чтобы встроенная графика и дискретная работали вместе! Либо, например, без нагрузки - встроенная, с нагрузкой - дискретная.
    Ответ: Для настольных компьютеров возможны всего несколько вариантов.
    1 - APU (серий процессоров со встроенным графическим ядром, A4, A6, A8, A10) AMD и соответствующая по мощности карта в пару. Hybrid crossfire. К сожалению ,все "болячки" crossfire, описанные выше, применимы к данному режиму, так же, насколько мне известно, не поддерживаются DX9 игры. Возможен такой же вариант со встроенным видео в чипсет мат.платы, но те конфигурации очень устарели.
    2 - Intel/amd с интегрированной графикой, на мат.плате с поддержкой Lucid Virtu (или Lucid Virtu MVP) и установленной в pci-e слот видекартой. С частью возможностей и особенностями работы данной технологии можете ознакомится здесь.
    По большому счету, оба варианта достаточно бесполезны и необходимы только в крайних случаях, задействования quicksync, особенностей lucid virtu MVP (не связанных с производительностью, вроде virtual vSync и т.п.), производительности любой ценой (случай AMD с crossfire, либо lucid virtu для завышенных рез-тов в 3dmark и иже).
    В то же время многие платы поддерживают одновременную работу встроенной и дискретной графики, с выводом изображения от обоих устройств сразу, с задействованием соответствующих подключению мощностей (ВК - монитор, встройка - телевизор, например), что необходимо в отдельных случаях проблем работы видеовыходов либо подключения более 2-3 мониторов при ситуациях отсутствия поддержки.

    34) Вопрос: Дословно "оперативная память у меня на компе стоит DDR2 , вот хочу купить б/у видеокарту недорогую но не знаю с какой памятью покупать надо DDR2 или можно мне DDR3 ставить"
    Ответ: Конечно, тип поддерживаемой вашим процессором или МП оперативной памяти никак не влияет на возможность дискретной видеокарты использовать установленную на ней память. Но не забывайте о возможных проблемах совместимости между старыми моделями чипсетов и новыми - видеокарт.

    Как подобрать видеокарту:

    Найдите информацию о своей конфигурации (да помогут вам AIDA и аналоги её, в крайнем случае - распечатки гарантийного талона).
    Задайте вопрос в теме, определившись с бюджетом и целями.
    Если вам понравилось читать и есть свободное время, то:
    1) Задайте себе вопрос, чего вы ожидаете от покупки. Настройки в играх, кол-во кадров (FPS) в секунду, требования к мультимониторной конфигурации, наличию фирменных технологий, а быть может к воспроизведению видео или используемые вами программные средства.
    2) Проанализируйте свою конфигурацию, т.к. ограничивающими факторами при покупке видеокарты могут стать корпус, блок питания, процессор.
    3) При наличии желания, ознакомьтесь с тематическими статьями и обзорами об исследованиях процессорозависимости и общей производительности видеокарт, подберите себе несколько вариантов, устраивающих по всем параметрам (производительность, шум, размеры, сбалансированность для системы).
    Если вы все ещё не уверены в выборе, задайте вопрос :)

    Можно ознакомится с некоторыми моментами относительно различных блоков и хар-к по данной ссылке.
    Видеокарта — электронное устройство, преобразующее графический образ, хранящийся, как содержимое памяти компьютера, в форму, пригодную для дальнейшего вывода на экран монитора.

    В настоящее время, однако, эта базовая функция утратила основное значение, и, в первую очередь, под графическим адаптером понимают устройство с графическим процессором — графический ускоритель, который и занимается формированием самого графического образа. Современные видеокарты не ограничиваются простым выводом изображения, они имеют встроенный графический процессор, который может производить дополнительную обработку, снимая эту задачу с центрального процессора компьютера. Например, все современные видеокарты Nvidia и AMD (ATi) осуществляют рендеринг графического конвейера OpenGL и DirectX на аппаратном уровне. В последнее время также имеет место тенденция использовать вычислительные возможности графического процессора для решения неграфических задач.

    Современная видеокарта состоит из следующих частей:

    Графический процессор (GPU) занимается расчётами выводимого изображения, освобождая от этой обязанности центральный процессор, производит расчёты для обработки команд трёхмерной графики. Является основой графической платы, именно от него зависят быстродействие и возможности всего устройства. Современные графические процессоры по сложности мало чем уступают центральному процессору компьютера, и зачастую превосходят его как по числу транзисторов, так и по вычислительной мощности, благодаря большому числу универсальных вычислительных блоков.

    Видеоконтроллер отвечает за формирование изображения в видеопамяти, даёт команды RAMDAC на формирование сигналов развёртки для монитора и осуществляет обработку запросов центрального процессора. Современные графические адаптеры (ATI, nVidia) обычно имеют не менее двух видеоконтроллеров, работающих независимо друг от друга и управляющих одновременно одним или несколькими дисплеями каждый.

    Видео-ПЗУ (Video ROM) — постоянное запоминающее устройство (ПЗУ), в которое записаны BIOS видеокарты, экранные шрифты, служебные таблицы и т. п. ПЗУ не используется видеоконтроллером напрямую — к нему обращается только центральный процессор.
    BIOS обеспечивает инициализацию и работу видеокарты до загрузки основной операционной системы, задаёт все низкоуровневые параметры видеокарты, в том числе рабочие частоты и питающие напряжения графического процессора и видеопамяти, тайминги памяти.

    Видеопамять выполняет роль кадрового буфера, в котором хранится изображение, генерируемое и постоянно изменяемое графическим процессором и выводимое на экран монитора (или нескольких мониторов). В видеопамяти хранятся также промежуточные невидимые на экране элементы изображения и другие данные. Видеопамять бывает нескольких типов, различающихся по скорости доступа и рабочей частоте.

    Цифро-аналоговый преобразователь (RAMDAC — Random Access Memory Digital-to-Analog Converter) служит для преобразования изображения, формируемого видеоконтроллером, в уровни интенсивности цвета, подаваемые на аналоговый монитор. Возможный диапазон цветности изображения определяется только параметрами RAMDAC.

    Коннектор
    В настоящее время платы оснащают разъёмами VGA, DVI, Display Port или HDMI. Поддержка vga-разъемов постепенно прекращается, качество изображения при подключении монитора через данный тип соединения может страдать из-за наводок и преобразований (рябь, проблемы с масштабированием, полосы и т.п.), поэтому рекомендуется использовать цифровые интерфейсы при наличии такой возможности.

    Система охлаждения (СО) предназначена для сохранения температурного режима видеопроцессора и видеопамяти в допустимых пределах. Для современных решений включает в себя радиатор (конструкция может сильно различаться), в случае активной версии СО присутствует вентилятор. Существуют и системы жидкостного охлаждения.

    Предыдущая тема.
    Куратор ветки Dimenice

    Поделись улыбкою своей - и тебе её не раз ещё припомнят...
  • ZeppeliN_Z Senior Member
    офлайн
    ZeppeliN_Z Senior Member

    3332

    9 лет на сайте
    пользователь #1613357

    Профиль
    Написать сообщение

    3332
    # 21 октября 2023 20:40

    ASUS Z490-H/i7-10700/SSD 970PRO 512GB+980PRO 2Tb/G.Skill TridentZ 2x16Gb/MSI RTX3070 SUPRIM/Dell U2520D/JBL104/TCL 55MQLED80/Pixel7
  • Sony_fun Member
    офлайн
    Sony_fun Member

    414

    16 лет на сайте
    пользователь #143363

    Профиль
    Написать сообщение

    414
    # 21 октября 2023 22:04 Редактировалось Sony_fun, 1 раз.
    DarthWin:

    ZeppeliN_Z:

    кому-то и 4080 мало

    Так а смысл играть без DLSS 3, когда оно без потери качества может чуть ли не удвоить фпс. На 4080 могло бы быть железно 135-150 фпс с РТХ и с длсс

    SONY the best
  • DarthWin Senior Member
    офлайн
    DarthWin Senior Member

    5865

    14 лет на сайте
    пользователь #287344

    Профиль
    Написать сообщение

    5865
    # 21 октября 2023 22:14
    Sony_fun:

    без потери качества может чуть ли не удвоить фпс

    Без потери качества - это у Хуанга на кухне) А у меня (и людёв) чётко видны чёрные шлейфы за движущимися объектами и т.п.
    Понятно, если стоит выбор между 30фпс в растеризации и 60фпс с длсс, нужно выбирать второе.
    Но ты как бы не совсем для этого карту (только карту) за 1200$ покупаешь :-? Чтобы тебе просто включили настройку.

    14500 | GA II Trinity SL-INF | PRO Z790-A WIFI | 6400CL32 2x16Gb | 4080 Gaming OC | 980 Pro 2Tb | Focus PX-850 | O11D Evo | 34M2C8600
  • Злой_Жук Urban roller
    офлайн
    Злой_Жук Urban roller

    34934

    21 год на сайте
    пользователь #8412

    Профиль
    Написать сообщение

    34934
    # 22 октября 2023 01:03

    DarthWin, чет у тебя маловато фпс, мы тут с народом на 4070ти сидим толпой, тестили киберпанк месяц назад, у всех было теже 126 фпс

    Добавлено спустя 8 минут 54 секунды

    DarthWin, а надо ли реконструкция лучей и ртх пути?

    Добавлено спустя 5 минут 52 секунды

    ну вот да на максимальном РТХ заметно отставание от 4080, но этож не повод играть без ДЛСС

    Я не люблю спорт - я люблю экстрим! Я не люблю ЗОЖ - я люблю адреналин!
  • Wolfheart FBY Team
    офлайн
    Wolfheart FBY Team

    25884

    22 года на сайте
    пользователь #3971

    Профиль
    Написать сообщение

    25884
    # 22 октября 2023 09:09

    С трассировкой пути и выключенным DLSS

    Для себя предпочел выключить трассировку пути, зато освещение и тени поставить на невероятные,

    Wur qanar, wur stilor, wur kas! Когда ж вы, ......, научитесь! (с) Gwynbleidd. I have the simplest tastes. I am always satisfied with the best (c) O.Wilde
  • oleg-ba Senior Member
    офлайн
    oleg-ba Senior Member

    1585

    13 лет на сайте
    пользователь #431645

    Профиль
    Написать сообщение

    1585
    # 22 октября 2023 11:00

    Господа, у этой асус, дроссели тоже поют?
    https://catalog.onliner.by/videocard/asus/rogstrixrtx4070o

  • Ruud1988 Senior Member
    офлайн
    Ruud1988 Senior Member

    1015

    10 лет на сайте
    пользователь #1474434

    Профиль
    Написать сообщение

    1015
    # 22 октября 2023 12:06

    Дожились - уже 2060 в минимальных системных требованиях. Как же разрабы и производители железа разводят людей...

  • BetaVersion Senior Member
    офлайн
    BetaVersion Senior Member

    2270

    11 лет на сайте
    пользователь #780566

    Профиль
    Написать сообщение

    2270
    # 22 октября 2023 12:49
    Sony_fun:

    Так а смысл играть без DLSS 3, когда оно без потери качества может чуть ли не удвоить фпс.

    С потерей качества. А "удвоить фпс" - это ложь/половина правды. Реальный системный фпс FG не увеличивает. Пока у тебя нет реальных хотя бы 60 фпс, лучше использовать DLSS2 и снижение настроек графики.

  • ciclop Senior Member
    офлайн
    ciclop Senior Member

    2640

    14 лет на сайте
    пользователь #284799

    Профиль
    Написать сообщение

    2640
    # 22 октября 2023 13:09
    BetaVersion:

    лучше использовать DLSS2 и снижение настроек графики.

    на картах 4ххх, доступен только длсс3 при его наличии.

    Sony_fun:

    Так а смысл играть без DLSS 3, когда оно без потери качества может чуть ли не удвоить фпс. На 4080 могло бы быть железно 135-150 фпс с РТХ и с длсс

    ну не удвоить, а прим 30% накинуть. удвоить, это к фг, но очень его не рекомендую, реально картинку разваливает. оптимально сегодня, голый длсс3 без фг, и обязательно в режиме качества. минимальные потери, максимальный профит.
    зы
    в киберпанке, разрабы реконструкцию луча, привязали к максимальным настройкам, что достаточно глупо, в других проектах возможно будет иначе, тогда в рекомендации добавляется и эта опция.

  • LonerKO Senior Member
    офлайн
    LonerKO Senior Member

    2994

    11 лет на сайте
    пользователь #908912

    Профиль
    Написать сообщение

    2994
    # 22 октября 2023 13:23 Редактировалось LonerKO, 2 раз(а).
    oleg-ba:

    Господа, у этой асус, дроссели тоже поют?

    У всех стриксов 4000 линейки поют. Правда стоит заметить что стрекот и остальные паразитные звуки сильно отличаются от квартиры к квартире от блока питания к блоку питания. Не вижу смысла брать 4070 в топовом исполнении в наших широтах. За эти же деньги уже варианты магазинных 4070ти проскакивают.

    7800X3D | Galahad II Inf | ROG B650E-F | Vengeance 2x32GB | ROG RTX 4090 OC | SF Platinum SE 1000W | SN850X | Crystal 570X RGB | LG 38GL950G | HW-Q990D
  • BetaVersion Senior Member
    офлайн
    BetaVersion Senior Member

    2270

    11 лет на сайте
    пользователь #780566

    Профиль
    Написать сообщение

    2270
    # 22 октября 2023 13:23
    ciclop:

    на картах 4ххх, доступен только длсс3 при его наличии

    В Киберпанке DLSS поделен на опции качества DLSS2 и ON/OFF переключателя FG. И так во всех играх. FG выключаешь и оставляешь только DLSS2.

  • LonerKO Senior Member
    офлайн
    LonerKO Senior Member

    2994

    11 лет на сайте
    пользователь #908912

    Профиль
    Написать сообщение

    2994
    # 22 октября 2023 13:26
    Ruud1988:

    Дожились - уже 2060 в минимальных системных требованиях. Как же разрабы и производители железа разводят людей...

    Ну так то почти 4 года прошло. Фанаты рексов 580 вообще наверное в ярости :trollface:

    7800X3D | Galahad II Inf | ROG B650E-F | Vengeance 2x32GB | ROG RTX 4090 OC | SF Platinum SE 1000W | SN850X | Crystal 570X RGB | LG 38GL950G | HW-Q990D
  • ciclop Senior Member
    офлайн
    ciclop Senior Member

    2640

    14 лет на сайте
    пользователь #284799

    Профиль
    Написать сообщение

    2640
    # 22 октября 2023 14:09

    BetaVersion, есть сама технология, на текущий момент версии 3.5, и есть аппаратная поддержка со стороны гпу, которая в старых картах ограничена 1ой и 2ой версией. то что у софта общие библиотеки, не отменяет аппаратных отличий. так что, это на 3060 работает огрызок от длсс3, а не на 4060, работает длсс2+фг.

  • BetaVersion Senior Member
    офлайн
    BetaVersion Senior Member

    2270

    11 лет на сайте
    пользователь #780566

    Профиль
    Написать сообщение

    2270
    # 22 октября 2023 17:40 Редактировалось BetaVersion, 1 раз.

    ciclop, DLSS3 - это DLSS2+FG(+Reflex). На 20/30 сериях работает только DLSS2. На 40 серии работает DLSS2+FG с возможностью активировать что-то одно или оба сразу.

  • Злой_Жук Urban roller
    офлайн
    Злой_Жук Urban roller

    34934

    21 год на сайте
    пользователь #8412

    Профиль
    Написать сообщение

    34934
    # 22 октября 2023 21:46 Редактировалось Злой_Жук, 1 раз.
    ciclop:

    оптимально сегодня, голый длсс3 без фг, и обязательно в режиме качества. минимальные потери, максимальный профит.

    Ну я вот тоже за качество, но с длсс. Фг надо тестить. Возможно лучше будет скинуть качество с ультимейт на высокие, но без фг.

    ========
    А что за трассировка пути? Есть от нее толк?

    Я не люблю спорт - я люблю экстрим! Я не люблю ЗОЖ - я люблю адреналин!
  • DarthWin Senior Member
    офлайн
    DarthWin Senior Member

    5865

    14 лет на сайте
    пользователь #287344

    Профиль
    Написать сообщение

    5865
    # 22 октября 2023 22:21
    Злой_Жук:

    А что за трассировка пути? Есть от нее толк?

    Типа более детализированные сцены получаются за счёт ещё более качественного освещения.
    Там смысл вроде в том, что лучи, отражаясь от поверхностей, летят дальше и выступают дополнительными источниками света.
    Как-то так.
    Хотя по мне это вторично, и разница если и будет видна - то только при сравнении лоб в лоб.

    14500 | GA II Trinity SL-INF | PRO Z790-A WIFI | 6400CL32 2x16Gb | 4080 Gaming OC | 980 Pro 2Tb | Focus PX-850 | O11D Evo | 34M2C8600
  • ciclop Senior Member
    офлайн
    ciclop Senior Member

    2640

    14 лет на сайте
    пользователь #284799

    Профиль
    Написать сообщение

    2640
    # 22 октября 2023 22:27
    Злой_Жук:

    А что за трассировка пути? Есть от нее толк?

    патчтрейсинг так перевели. новые лучи. оооооочень ресурсоемкие.

    BetaVersion,
    официальный чейджлог исходников длсс. они постоянно обновляют софт, сохраняя обратную совместимость со старым железом. но не более. возможности длсс, ограничены конкретным железом, а не версией длсс.

    Revision Changes Date
    3.5.10 - Updated Halton Sequence Recommendation 10/6/2023
    3.1.13 Add DLAA as a Performance Quality Mode
    Add NVSDK_NGX_DLSS_Hint_Render_Preset_G Enum
    5/4/2023
    3.1 - Add GetFeatureReqs API
    - Add UpdateFeature API
    - Add Vulkan Extensions Query API
    1/19/2023
    2.5.1 - Added preset selection section 1/4/2023
    2.4.1 - Cleaning up legacy footer 10/24/2022
    2.4 - Minor bug fixes and performance improvements
    - Added Streamline SDK pointers
    - Added Linux capability section
    3/21/2022
    2.3.2 - Removed reference to DLSS Sharpening
    - Removed reference to UltraQuality in Execution modes due to user
    confusion
    03/08/2022
    2.3.1 - Added a debug visualization to help diagnose exposure scale
    issues.
    09/30/2021
    2.2.3 - Adjusted the Texture LOD Bias recommendation for preservation
    of sharpness and intricate detail.
    09/02/2021
    NVIDIA | 11 Oct 2023 Page | vi
    - Added a few details to the Advanced Jitter debugging section.
    - Added a section about using conservative raster for improving the
    appearance of thin features
    2.2.2 - Updated based on easier access for DLSS SDK
    - Updated for Linux Support
    7/12/2021
    2.2.1 - Update NVSDK_NGX_VULKAN_RequiredExtensions() usage
    - Clarified that Vulkan application needs to run on Vulkan 1.1 or
    later
    5/26/2021
    2.2.0 - Added section on DLSS Auto-exposure
    - Slightly clarified the expected exposure value
    4/9/2021
    2.1.10 - Removed reference to DLSS Application Process 3/3/2021
    2.1.9 - Update Resource States for Vulkan. 2/12/2021
    2.1.8 - Added override for denied feature. 1/29/2021
    2.1.7 - Added new entry points for NGX SDK.
    - Added information about new entry parameters.
    - Added information for new return error code.
    - Added information about post processing shaders that require
    depth buffer
    1/13/2021
    2.1.6 - Added section 3.6.3 Motion Vector Scale 12/10/2020
    2.1.5 - Slightly clarified the usage of DLSS with multiple views, to make it
    clearer that it is not only for use with VR, but can be used in any
    multi-view use case
    12/2/2020
    2.1.4 - Added information about the proper use of the SDK API version
    value passed into the SDK at SDK initialization time
    - Added information about the NGX app logging hook API
    11/2/2020
    2.1.3 - Added section on VRAM usage
    - Added section on the current frame biasing
    - Fixed link to sample code on GitHub
    - Clarified motion vector resolution & dilation requirements
    - Added section on the JitterOffset debug overlay
    9/18/2020
    NVIDIA | 11 Oct 2023 Page | vii
    - Updated DLSS execution times
    2.1.2 - Fixed section 5 to include new parameters
    - Added caveat to mip-mapping section for high frequency textures
    - Removed unused parameters from depth buffer section
    7/2/2020
    2.1.1 - Clarified the mipmap bias requirement
    - Added section on Dynamic Resolution
    - Added section on DLSS in VR applications
    - Added section on the Exposure & Pre-Exposure parameters
    - Added section on DLSS Sharpness
    - Removed DLSS v1 transition notes from the Appendix
    6/26/2020
    2.0.2 - Added section describing the Depth Buffer parameter 4/10/2020
    2.0.1 - Clarified SwapJitter debugging hotkey
    - Added section listing the JitterConfig debugging configurations
    3/26/2020
    2.0.0 - General edits throughout the document to update for DLSS v2
    - Added renderer requirements
    - Added DLSS execution times
    - Added deployment checklist
    - Added section on jitter troubleshooting
    - Added section on resource states
    - Added section on DLSS debug logging
    3/23/2020
    1.3.9 - Added Vulkan Resource Metadata Wrapper
    - Fix bugs with debug overlay
    11/08/2019
    1.3.8 - Better explain motion vectors and added diagrams
    - Added detail on expected jitter and new debug mode
    - Further clarified LDR/HDR processing modes
    - Removed two resources and the associated data structures
    recently added to the SDK: camera vectors and transformation
    matrices
    - Fixed SDK enum and struct nomenclature to match the policy.
    - Added feature path list parameter to SDK API entry points in which
    feature DLL can be searched.
    11/05/2019
    1.3.7 - Added sample code to check for minimum driver version 10/15/2019
    NVIDIA | 11 Oct 2023 Page | viii
    1.3.6 - Added information regarding on-screen debug info (3.7)
    - Added definition of LDR/SDR and HDR (3.1.3)
    - Added section describing future DLSS resources that are being
    considered by NVIDIA researchers
    - Clarified wording in the Code Integration sections
    10/10/2019
    1.3.5 - Updated section 3.5 regarding jitter pattern recommendation 9/13/2019
    1.3.4 - MipMap LOD bias section
    - Clarified required/supported formats for various buffers
    - Updated initialization and feature creation sections (5.x) for new
    parameters, flags and options.
    9/11/2019
    1.3.3 - Updated Pipeline Placement section to include both placement
    options (pre post processing, and after post).
    - Added troubleshooting section on Specular Aliasing
    9/06/2019
    1.3.2 - Updated Section 3.1 Pipeline Placement 9/06/2019
    1.3.1 - Updates to various sections for ease of integration
    - Added Transitioning from DLSS 1.2.x to DLSS 1.3.x section 9.1
    - Added New parameters for DLSS 1.3.x section 9.2
    8/28/2019
    1.2.0.0 - Added notice about approval requirements
    - Added section on jitter
    - Clarified motion vector requirements
    - Added dedicated section for buffer formats
    8/15/2019
    1.1.0.0 - Added sections for motion vectors, format support and pipeline
    integration.
    - Alignment of doc version number with DLSS release version
    - Support for debug overlays
    - Deprecated scratch buffer setup
    - Added links to sample code
    7/08/2019
    1.0.0.7 - Support for Vulkan titles
    - VS 2012 & VS 2013 static lib inclusion
    5/17/2019
    1.0.0.6 - Inclusion of DLSS Sample Code (section 5 & 6)
    - Inclusion of RTX Developer Guidelines in SDK docs
    4/10/2019
    NVIDIA | 11 Oct 2023 Page | ix
    - General document cleanup
    1.0.0.5 - Initial release March 2019
  • ЭВМ Senior Member
    офлайн
    ЭВМ Senior Member

    5146

    17 лет на сайте
    пользователь #79590

    Профиль
    Написать сообщение

    5146
    # 22 октября 2023 23:23
    Ruud1988:

    2060 в минимальных системных требованиях. Как же разрабы и производители железа разводят людей

    cтоило бы учесть что речь идёт не только о самом видеоадаптере но и процессоре озу виндовз и видео настройках что ни в коем не отображает только единственный какой либо параметр. если верить этой писанине : https://i.playground.ru/p/56QlsdDu9gZ659msSmGS3Q.png то в минимуме указан конченый устаревший интеловский четырёхпоточник 7500 версии k -это никакущий процессор по современным меркам .в то время как всредине указан болееменее перспективный 8 ядерный 16 поточный амд 3700x . очевидно что речь идёт об ограниченных оптимизациях что и характерно для устаревших систем на базе всякого старья с которым просто не хотят связываться а клепают только исключительно под современное новьё 8)

    Добавлено спустя 17 минут 34 секунды

    https://3dnews.ru/1094787/rad-chto-vzyal-na-ps5-sistemnye-trebova ... 4339015767

    Эдик,Вася,Миша.1240v3|msi h81p33|8gb kingston|rx 570|256 Crucial mx500|2tb seagate7200|Proton bdf500s|19 Tn Hd
  • BetaVersion Senior Member
    офлайн
    BetaVersion Senior Member

    2270

    11 лет на сайте
    пользователь #780566

    Профиль
    Написать сообщение

    2270
    # 23 октября 2023 01:20
    ciclop:

    BetaVersion,
    официальный чейджлог исходников длсс. они постоянно обновляют софт, сохраняя обратную совместимость со старым железом. но не более. возможности длсс, ограничены конкретным железом, а не версией длсс.

    Где там в ченжлоге что-то написано о том, что DLSS2 работает на разном железе как-то по разному и что DLSS2 на 40 серии имеет больше фич, чем на 30 серии?

  • oleg-ba Senior Member
    офлайн
    oleg-ba Senior Member

    1585

    13 лет на сайте
    пользователь #431645

    Профиль
    Написать сообщение

    1585
    # 23 октября 2023 07:39 Редактировалось oleg-ba, 2 раз(а).
    LonerKO:

    За эти же деньги

    Это да, но стремно и напряжно брать надолго ti айку с двумя!!!! вентилями и от сомнительного производителя с температурами под 70 гр.
    У меня сейчас у моей 3060 мсай, 3х вентильной, выше 50 гр в играх, никогда и не видел.