Foreversoft.ru

IT Справочник
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Какая память видеокарты лучше

Дороже — не значит лучше. Выбираем видеокарту для бюджетного гейминга

В своё время криптовалютный бум обнулил шансы тысяч геймеров собрать что-то приличное за разумные деньги. Виной тому цены на GPU, которые из-за небывалого спроса пробили потолок. Сегодня «крипта» переживает не лучшие дни, а рынок бюджетных GPU завален сравнительно мощным прошлогодним железом по бросовым ценам. Так стоит ли переплачивать за новинки?

Что там у вендоров?

Доступных моделей на рынке немало, но достойных вариантов — считаные единицы. Героем прошлогодних сборок безоговорочно была NVIDIA GeForce GTX 1050 Ti, которая отлично справлялась с играми в «народном» Full HD на высоких настройках. На смену ей пришла GTX 1650, но с увеличением производительности она вплотную подтянулась к верхней границе бюджетного сегмента.

Если раньше «зелёные» уделывали сравнимые по цене модели AMD всухую, то с падением спроса на оптимальные для майнинга RX 570 изменились и прайсы интернет-магазинов. Radeon RX 560 перешла в ультрабюджетную категорию, а её место заняли модификации 570-й с 4 и 8 ГБ видеопамяти.

Сравнительная таблица демонстрирует номинальное преимущество AMD: GPU быстрее, памяти больше, а пропускная способность выше. На бумаге «красная» видеокарта и впрямь круче, но суровая реальность расставляет всё по местам. Для гейминга в разрешении 1080p куда важнее не «грубая сила», а эффективность и скорость выполнения простых операций.

Почему так происходит?

Современные игры изобилуют сложной геометрией и спецэффектами, но обсчитывать треугольники видеокарта может практически бесплатно. Проще говоря, избыток полигонов практически не влияет на время подготовки кадра. Гораздо больше ресурсов GPU тратит на растровые операции: нанесение текстур, обсчёт освещения и спецэффектов. И здесь ситуация двоякая.

С одной стороны, производительность напрямую зависит от разрешения дисплея (больше точек — больше расчётов). С другой — операции выполняются для целых блоков пикселей, и одновременно над одним блоком производится одна операция. Таким образом, на невысоких разрешениях графический процессор с большим числом ядер может уступать модели попроще, но работающей на более высокой частоте.

Грубая сила

Для начала проверим работу GPU в режиме пиковой эффективности — лучше всего с этой задачей справится классический синтетический бенчмарк 3DМark Time Spy с максимальными параметрами графики. Разрешение — всё то же Full HD, сглаживание MSAA x4. Иначе говоря, условия, максимально приближенные к «боевым».

ПРОЦЕССОР AMD Ryzen 7 1700 МАТЕРИНСКАЯ ПЛАТА ASUS TUF B450 ОПЕРАТИВНАЯ ПАМЯТЬ 2×8 ГБ Samsung DDR4 — 2400 MHz НАКОПИТЕЛЬ 480 ГБ SSD Adata X5000 БЛОК ПИТАНИЯ Cooler Master V700 КОРПУС Cooler Master Masterbox

Результаты в «синтетике» демонстрируют значительный отрыв AMD как от прямых ценовых конкурентов, так и «золотых» по соотношению рубль/fps моделей прошлых лет. Но помогут ли все эти терафлопсы с гигабайтами добиться достойного результата в играх? У видеокарт NVIDIA хоть и меньше вычислительных ресурсов, но их GPU лучше разгоняется. А ещё работает на более высоких тактовых частотах и быстрее справляется с простыми задачами. Для тестов мы взяли хиты прошлых лет и красивые новинки, ведь апгрейд в 2019-м делают не ради Half-Life 2.

Выводы

Разговоры об инновациях не помогли NVIDIA перехватить инициативу по доступности у «красных». При прочих равных Radeon RX 570 обеспечивает либо лучшее качество графики, либо более высокий и стабильный фреймрейт, и это несмотря на используемую архитектуру GCN, которая дебютировала в Radeon 7000 почти 9 лет назад. Не стал помехой и не самый передовой техпроцесс. Отлаженный, мощный, а, главное, доступный GPU прочно закрепился в сегменте от 10 до 15 тысяч рублей с недостижимым для остальных сочетанием цены и результатов.

Вдобавок у RX 570 есть версия на 8 ГБ — чуть дороже, зато с приличным запасом производительности. Она обеспечит ещё 2-3 года уверенной игры на высоких настройках или при переходе на WQHD-монитор. И пока криптовалюта снова не встряхнула рынок железа, есть смысл заняться апгрейдом бюджетного компьютера прямо сейчас.

Руководство покупателя игровой видеокарты


Последнее обновление от 28.09.2012


Выбор объёма видеопамяти

Производительность видеокарты определяется не только мощностью самого GPU. Любому чипу нужен большой объём выделенной памяти с высокой пропускной способностью при записи и чтении различных данных: текстур, вершин, содержимого буферов и т. п. Даже самый мощный видеочип можно «придушить» слишком малым объёмом видеопамяти, да ещё с медленным доступом, поэтому характеристики устанавливаемых микросхем памяти также являются одними из важнейших параметров современных видеокарт.

Микросхемы памяти, количество которых на некоторых моделях видеокарт достигает 24 штук, обычно располагаются на печатной плате вокруг видеочипа, на одной или обеих сторонах. В некоторых случаях для них не используется даже пассивное охлаждение, но часто применяется общий кулер, охлаждающий и GPU и память, а иногда и отдельные радиаторы. Вот так микросхемы памяти выглядят на GeForce GTX 590 со снятым устройством охлаждения:

Современные видеокарты оснащаются различным объемом локальной видеопамяти, но обычно он начинается от 512 МБ и может достигать 3 ГБ на один GPU (с удвоением объёма на двухчиповых видеокартах). Чаще всего на видеокарты low-end и mid-end сейчас ставят 1 ГБ памяти, а на high-end — 1,5-3 гигабайта на чип, но есть и исключения. Так, карты самого низкого уровня могут иметь и 512 МБ более быстрой памяти GDDR5, и 1-2 ГБ медленной DDR3.

Чем больше выделенной памяти установлено на видеокарте, тем больше данных (тех же текстур, вершин и буферов) можно хранить в ней, не используя медленный доступ к ОЗУ компьютера. Причем, больше всего места занимают текстуры и различные буферы, а вот собственно геометрические данные обычно не слишком объёмны. Рассмотрим скриншоты из довольно старой игры Call of Duty 2 с разными установками качества текстур:

Читать еще:  Подойдет ли видеокарта geforce

Но этот расчётный объем видеопамяти у игровых разработчиков растет, даже несмотря на засилие консолей и мультиплатформы. Ещё пару лет назад было вполне достаточно 512-640 МБ, а теперь появились проекты, в которых этот объёма недостаточно. Но даже среди самых последних игр таких проектов пока мало, но они уже появляются. Поэтому, в случае не слишком большой разницы в цене между видеокартами с разными объёмами памяти при прочих равных условиях (частота и ширина шины), следует покупать модель с большим объёмом. Но без погони за цифрами — никакой low-end карте не поможет пара гигабайт медленной DDR3-памяти. Такой объём ей на данный момент просто не нужен. Зато важен другой параметр, о котором мы поговорим далее.

Подробнее о пропускной способности памяти

Ещё одна важная характеристика, о которой мы уже писали — это пропускная способность памяти (ПСП), которая зависит как от частоты работы памяти, так и от ширины шины. Этот параметр определяет количество данных, которые теоретически можно передать в память или из памяти за единицу времени. Другими словами, это скорость, с которой графическое ядро может записывать и считывать различные данные в локальную видеопамять. Соответственно, чем быстрее считываются текстурные, геометрические и прочие данные, и чем быстрее записываются в буфер рассчитанные пиксели, тем выше будет общая производительность.

Пиковая пропускная способность памяти рассчитывается довольно просто — это произведение «эффективной» частоты памяти на количество данных, передаваемых за такт (ширина шины памяти). Например, для GeForce GTX 580 с шиной 384 бит и частотой видеопамяти 1002(4008) МГц, ПСП будет равна:

1002 МГц × 4 (передача данных с учетверённым темпом) × 48 (384/8 байт за такт) ≈ 192,4 ГБ/с

Если с эффективной частотой памяти всё понятно, её обычно везде пишут, и на коробках, и в характеристиках прописывают прямо, то с шиной всё несколько сложнее, ведь она далеко не всегда явно указывается производителем, поэтому на неё нужно обращать особое внимание. Большинство современных видеокарт используют 128-битную или 256-битную шину памяти на один GPU, топовые модели могут иметь до 384 бит, а некоторые недорогие платы оснащаются лишь 64-битной шиной.

Естественно, что последнее нигде широко не афишируется. Для производителя узкая шина и дешевле в производстве, и позволяет удобнее масштабировать производительность решений линейки. И две одинаковые видеокарты с одинаковыми частотами, но с разной шириной шины памяти, будут сильно отличаться по производительности. Та, у которой ПСП больше, может обрабатывать большее количество данных, по сравнению с картой с меньшей разрядностью шины, хотя сами GPU у них совершенно одинаковые.

Рассмотрим очень жизненный пример — модель GeForce GTS 450 с двумя разными типами памяти, GDDR5 на более дорогой модели и DDR3 на дешёвой. Во время выхода на эту видеокарту ставили исключительно быструю GDDR5-память с приличной пропускной способностью. Но когда её время прошло и она спустилась в нижний ценовой диапазон, производители начали экономить, выпуская варианты с DDR3-памятью, которая гораздо дешевле. Результат подобной экономии можно пронаблюдать на следующей диаграмме:

Как видите, всё очень печально для DDR3-варианта — даже в далеко не самой новой игре разница в различных разрешениях экрана составляет от 50 до 70%! То есть, мощность GPU во всех протестированных условиях ограничена медленной видеопамятью. Модель с DDR3 просто не может считывать и записывать данные с теоретически возможной скоростью. Таким образом производители вместе с компанией NVIDIA снизили себестоимость модели, спустив её ещё ниже в бюджетный сегмент.

Поэтому при выборе между видеокартой с бо́льшим и меньшим объёмом видеопамяти нужно всегда смотреть на тактовые частоты, ширину шины и цены! Так, при большой разнице в ценах между двумя решениями среднего и низшего уровней с 1 ГБ и 2 ГБ памяти нет смысла гнаться за дорогим вариантом — видеокарта такого уровня просто не получит большой прибавки в производительности от увеличенного объёма. Но если приходится выбирать между видеокартами с разным объёмом памяти и разной ПСП, то тут выбор уже не так однозначен, и нужно его совершать исходя из того, какого уровня видеокарта и насколько разнятся их частоты. Не забывая и про цену, естественно.

Например, при выборе между топовой видеокартой с 1,5 ГБ памяти и более высокими тактовыми частотами против такой же карты но с 3 ГБ памяти со стандартными частотами и более высокой ценой на данный момент выгоднее будет первая видеокарта, так как она обеспечит даже бо́льшую производительность почти во всех режимах и условиях, кроме самых высоких разрешений. То же касается, к примеру, GeForce GTS 450 с 1 ГБ GDDR5-памяти против GTS 450 с 2 ГБ DDR3 — первый вариант точно будет быстрее. В большинстве режимов видеокарты бо́льшая частота и ширина шины играет значительно более важную роль, чем бо́льший объём видеопамяти, и только в высоких разрешениях увеличенный объем может серьёзно сказаться на скорости рендеринга.

Память видеокарты для майнинга — какая память лучше и как ее определить?

Опытные майнеры знают, что эффективность графического адаптера в майнинге зависит не только от модели. Изготовители gpu-устройств не занимаются производством микросхем памяти, а закупают ее у сторонних производителей. Но, как узнать какая память на видеокарте, если в характеристике указан только ее тип, например, GDDR5.

Для игрушек и работы в офисе этого вполне достаточно, но не для майнинга. Микросхемы памяти разных производителей не одинаково выдерживают нагрузку при разгоне, а продуктивность добычи многих криптомонет напрямую зависит от параметра memory clock. Как узнать производителя памяти gpu мы вам сейчас и расскажем.

Читать еще:  Управление кулером видеокарты

Навигация по материалу:

  • 1 Проверка характеристик видеокарты на ПК
  • 2 Установите GPU-Z
  • 3 Поиск по серийному номеру
    • 3.1 Тип памяти AMD RX 470, 480, 570, 580
  • 4 Заключение

Проверка характеристик видеокарты на ПК

Посмотреть тип памяти видеокарты и ознакомится с ее общими характеристиками можно в диспетчере устройств или в параметрах экрана. Войти в диспетчер устройств можно через панель управления.

  • Щелкните по значку Windows в левом нижнем углу экрана или нажмите соответствующую кнопку на клавиатуре и откройте вкладку служебных программ.
  • Поочередно откройте: Панель управления/Оборудование и звук/Диспетчер устройств/Видеоадаптеры и перед вами отобразятся все установленные видеокарты.
  • Сделайте двойной щелчок левой кнопкой мыши по названию выбранного устройства, чтобы посмотреть его характеристики и получить доступ к управлению.

То же самое окно можно открыть, воспользовавшись опцией «Параметры экрана».

  • Щелкните правой кнопкой манипулятора по фоновому изображению и выберите вкладку параметров во всплывшем окне.
  • Когда появится следующее окно, кликните по строке «Свойства графического адаптера» и перед вами отобразятся параметры видеокарты и монитора, здесь вы можете посмотреть общие сведения.
  • Во вкладке «Адаптер» нажмите «Свойства» и появится окно с подробными характеристиками.

С помощью любого из этих способов вы узнаете тип графического процессора, объем видеопамяти и много других сведений, но поставщик микросхем GDDR по-прежнему остается неизвестным. Рассекретить его можно, установив дополнительный софт.

Установите GPU-Z

GPU-Z – это вспомогательная компьютерная программа, предназначенная для отображения информации о технических характеристиках графической карты на экране компьютера. Установив ее в OC Windows, пользователь может применять эту информацию для оптимизации работы или диагностики неисправностей графического процессора.

Программа доступна для скачивания на официальном сайте https://www.techpowerup.com/download/gpu-z/.

Утилита GPU-Z может :

  • Поддерживать карты AMD, NVIDIA и Intel.
  • Выводить полный набор характеристик отображаемого устройства.
  • Работать с датчиками видеокарты и выводить показатели на дисплей в режиме реального времени.

После установки GPU-Z.2.7.0_eng.exe появится окно программы с открытой вкладкой «Graphics Card», где вы сможете увидеть параметры видеоускорителя. Производитель памяти указан в графе Memory Type. Кроме того, утилита имеет вкладки: «Sensors» и «Validation». В верхнем углу справа есть кнопки для настройки и создание скриншотов. Программа GPU-Z умеет переключаться между картами майнинг-фермы, показывая сведения о каждом устройстве.

Перейдя во вкладку «Sensors»вы увидите показатели датчиков:

  • Частота памяти.
  • Частота ядра.
  • Температура устройства.
  • Скорость вращения кулера.

Вкладка «Validation» предназначена для получения личного идентификатора. В меню «General» можно выбрать:

  • Язык подсказки.
  • Параметры запуска.
  • Параметры обновления программы.

Вкладка «Setting» позволяет регулировать количество активных датчиков. В окне «ASIC Quality» можно сравнить характеристики вашей карты с другими видеоадаптерами этого уровня. Программа GPU-Z бесплатна и подходит к любой версии Windows.

Альтернативный способ узнать производителя микросхем видеопамяти.

  • Скачайте и запустите от имени администратора программу ATIWinflash. Ссылка на загрузку https://www.techpowerup.com/download/ati-atiflash/.
  • Выберите карту и нажмите кнопку Save, чтобы сохранить Bios.
  • Скачайте программу SRBPolarisV3-Int. Ссылка на страницу разработчика https://bitcointalk.org/index.php?topic=1882656.0.
  • Запустите SRBPolaris.exe
  • Нажмите кнопку Open Bios в правом верхнем углу и выберите только что сохраненный файл bios. room.

Сведения о видеопамяти доступна во вкладке Info, графа Mempory Type.

Поиск по серийному номеру

Немного подробнее о поставщиках. Микросхемы GDDR производят 4 компании:

В майнинге лучшего всего зарекомендовали себя графические адаптеры с памятью Samsung. Они хорошо держат нагрузку и наиболее холодные.

Устройства с памятью Hunix выдают приличный хешрейт, но менее стабильны и сильнее греются.

Видеоускорители на которых установлена память Micron плохо разгоняются и очень горячие, впрочем, бывают и исключения. Особенно часто на форумах встречаются нарекания на Elpida, хотя по хешрейту карты с этой памятью могут обогнать и хюникс и самсунг.

Важно! В большинстве случаев узнать Mempory Type можно только, поставив карту в свой компьютер, в магазине такие проверки не проводятся. Но, поставщика памяти некоторых моделей графических процессоров AMD определяют по серийному номеру.

Тип памяти AMD RX 470, 480, 570, 580

У видеокарт данных моделей, изготовленные на заводах фирмы Sapphire, существует определенная закономерность, между серийником и типом памяти.

AMD Sapphire RX 470 и RX 480 имеют серийные номера:

  • Hynix: A1630, A1637, A1640, A1648, A1715, A1718, A1721
  • Samsung: A1636, A1639, A1644, A1645, A1647, A1650, A1700, A1706
  • Elpida: A1637, A1638, A1641, A1643, A1712
  • Micron: A1610, A1701, A1702, A1707

AMD Sapphire RX 570/580:

  • Hynix: A1714
  • Micron: A1718

К видеокартам собранным на других заводах это правило не относится. Но, вы можете обратиться с вопросом, по поводу типа памяти, в отдел техподдержки производителя, видеокарту которого планируете купить. Специалисты российского отдела Sapphire Technology общаются с клиентами через социальную сеть В Контакте, ссылка https://vk.com/sapphiretechnology.

Заключение

Видеокарты серии Navi поставляются с памятью самсунг, по крайней мере, так утверждают все, кто реально их тестировал. Микросхемы GDDR5X для GTX 1080 Ti выпускает только Micron. Память этого поставщика довольно часто можно встретить на картах фирмы ASUS, а вот Gigabyte предпочитает микросхемы Hunix или самсунг. Перед покупкой почитайте отзывы о карте на тематических форумах.

Нельзя быть на 100% уверенным, что попадется именно такой производитель GDDR. Однако это вовсе не значит, что, купив для майнинга карту с памятью эльпида, вы подписали себе приговор. Разница в количестве хешей и стабильности работы между видеокартами с разным типом памяти, конечно есть, но все же, она не столь огромна, чтобы впадать в панику, и бежать обратно в магазин. Проблемы могут возникать у любой видеокарты и вы должны научиться грамотно и оперативно их устранять. Удачного майнинга!

Пoжaлyйcтa оцените и поделитесь новостью, мы старались для Вас:

Ссылка на основную публикацию
Adblock
detector