Как разогнать видеокарту nvidia geforce gt 440: обзоры и новости мира IT.

Содержание

На что способен GeForce GT 440? Узнаем на примере двух карточек от Zotac — Destroyer и Thunder

Помнит кто-нибудь такое чудо-юдо, как GT 440? Китайские коллеги с Expreview наложили лапы на нереференсную модель от Zotac, давайте быстро глянем что да как.

 

 

 

 

 

Сначала внешность новинки:

 

Хороша? Вполне, учитывая насколько бюджетное это решение.

 

 

Вот характеристики:

 

 

Правда есть сходство в характеристиках с GT 430?

 

 

 

Вот ещё несколько фотографий видеокарты Zotac GT 440 Destroyer:

 

 

 

 

 

 

 

 

 

 

 

Помимо «Разрушителя» была показана ещё одна карточка, её имя — Zotac GT 440 Thunder Edition.

 

 

 

 

 

 

 

Называть такую видяху нужно было не «Тандер Эдишн», а «Хоббит Эдишн»

 

 

 

Прежде чем перейти к тестам, давайте посмотрим на конфиг EXPReview:

 

 

Соперников подобрали достойных

 

 

 

Вид первой карточки (Destroyer) в GPU-Z:

 

 

 

 

Энергопотребление

 

График ниже показывает сколько кушает GT 440 в нагрузке FurMark’ом, во время просмотра HD видео и в простое:

 

 

 

 

 

Температурный режим

 

t° замеряли в тех же режимах работы карты, что и энергопотребление.

 

Показатели в простое

 

Показатели при просмотре 1080p видео

 

Показатели при прогреве FurMark

 

 

Отмечено, что шум от вентилятора даже в «Бублике» был незначительным.

 

 

 

 

Аппаратное декодирование HD-видео

 

Данный тест показывает, насколько хорошо видеокарта разгружает процессор при воспроизведении контента в разрешении 1080p (речь о декодировании видео силами GPU). Для видеокарт Nvidia был задействован Pure Video декодер, а для AMD’шных карточек — ATI Avivo.

 

 

 

Как видно из графика, разгрузка CPU от работы над декодированием материала получилась отменной. И нужно отметить первенство продуктов Nvidia над AMD’шным.

 

 

 

 

GeForce GT 440 против GeForce GT 430

 

Игровые тесты, уважаемые читатели. Хоть они не так актуальны, как в обзорах дорогих видеокарт, всё равно будет интересно посмотреть на что способна в электронных развлечениях GT 440.

 

 

Разогнанная видеокарта GT 440 обогнала работающую на стоковых частотах GF 430. Среднее преимущество — 12.42%.

 

 

 

GeForce GT 440 против GeForce GTS 450

 

Те же самые тесты, но против более навороченной (но всё равно слабоватой) видеокарты:

 

 

Крупный проигрыш GT 440. Что и следовало ожидать, карточка GTS 450 хотя бы позиционируется как игровая.

 

 

 

GeForce GT 440 против Radeon HD 5670

 

Вечная битва — Nvidia VS AMD, кто выйдет победителем из сражения на этот раз?

 

 

Radeon HD 5670 дороже и показывает он себя соответствующим образом — обходит GT 440 во всех тестах, пусть и не так сильно, как это сделала GTS 450.

 

 

 

 

Выводы

 

А какие тут могут быть выводы? GT 440 хороша как карта для HTPC (т.

е. для просмотра фильмов), но совершенно не подходит для игр. А версия графического адаптера от Zotac обладает эффективным и тихим охлаждением (по крайней мере, Destroyer). На этой ноте позвольте откланяться

 

 

 

Автор оригинальной статьи — Quing, «перевод» — Slayer Moon, эксклюзивно для www.u-sm.ru

Статья является вольным переводом, даже скорее, пересказом обзора устройства с сайта Expreview, она не нарушает ничьих прав, ибо все права принадлежат их авторам, а фотографии к статье — фотографам с указанного выше Интернет-ресурса

Если Вы заметите ошибки, помарки и прочее — дайте знать мне : ЛС, форум или комментарием к статье.

 

 

Понравился материал «У SM»?

Поделись им с другими:
       

 

< Робокоп против Терминатора — GeForce GTX 560 Ti против Radeon HD 6950 1ГБ Тест + видеообзор реобаса Zalman MFC1 Plus >

Видеокарта Nvidia GT 640: характеристики, тест, отзывы

К счастью, давно канули в Лету те времена, когда трехмерный видеоускоритель был объектом роскоши в компьютере. Конечно, видеоадаптеры существовали и тогда, иначе изображение просто не выводилось бы на экран монитора. Однако ни о каком собственном графическом процессоре, оперативной памяти и прочих атрибутах речи не шло. Однако времена менялись и ситуация тоже в корне изменилась. Появилась качественная видеокарта Nvidia GT 640.

Назначение Nvidia GT 640

Как и у всех других видеокарт, у Nvidia Geforce GT 640 есть очень важная обязанность – обрабатывать все процессы, которые касаются работы с видео на компьютере. Это не только непосредственно вывод картинки на экран, но и обработка текстур, работа с трехмерной графикой (благодаря наличию собственного графического процессора), с партикулами (частицами – снег, капли, искры и т.д.) и даже игровая физика.

Прежде всем этим занимался центральный процессор компьютера, которому приходилось отвечать еще за множество подобных вещей. Теперь же такие задачи берет на себя Nvidia GT 640, высвобождая для ЦП драгоценные вычислительные ресурсы.

Данная видеокарта относится к устройствам начального уровня, но и она может успешно справиться с большим кругом задач, возложенных на нее, начиная от компьютерных игр, заканчивая трехмерным рендерингом и показом фильмов в высоком разрешении. Да и на Nvidia GT 640 цена сегодня более чем демократична. Так что в качестве бюджетного варианта продукт от Nvidia можно считать вполне достойным.

Технические спецификации

Решение о покупке любой видеокарты принимается на основании знаний о ее основных технических характеристиках. И в последних модификациях рассматриваемой нами они таковы:

  • ГПУ: NVIDIA GK208;
  • тактовая частота: 1046 МГц;
  • тип памяти: GDDR5;
  • объем видеопамяти: 1 Гб;
  • разрядность: 64 бита;
  • поддерживаемые интерфейсы для подключения: DVI-D, HDMI, D-Sub (есть также вариант с mini HDMI), так что пользователь сможет подключать карточку к мониторам и телевизорам самых разных моделей без необходимости использовать всевозможные переходники и адаптеры;
  • версия DirectX 11. 1;
  • рекомендуемая мощность блока питания 300 Вт.

128-битный вариант

Видеокарта Nvidia Gforce GT 640 имеет еще и более ранний вариант выпуска – с разрядностью шины 128 бит, однако большинство представленных здесь характеристик у нее несколько слабее. В частности, в качестве ГПУ используется NVIDIA GK107, а тип памяти – GDDR3. Меньше и тактовая частота – она составляет всего лишь 900 МГц. Зато объем оперативной видеопамяти больше ровно в два раза, а вот блок питания ей требовался мощнее – на 350 ватт.

Для успешной работы видеокарты требуется, чтобы компьютер, на который ее предполагается установить, содержал в себе не менее 2 Гб оперативной памяти и операционную систему не ниже Windows XP, что на сегодняшний день выглядит уже некоторым анахронизмом.

Комплектация

В стандартной своей комплектации Nvidia GT 640 поставляется в довольно привлекательной внешне картонной коробке с фирменными цветами Nvidia.

Кроме непосредственно самого устройства, в комплекте еще идут руководство пользователя и диск с драйверами и сопутствующим программным обеспечением.

Система охлаждения

Помимо общих технических характеристик, при приобретении любой видеокарты нужно обязательно обращать внимание и на такую немаловажную деталь, как система охлаждения. От нее зависит и производительность, и габариты, и потребляемая мощность изделия.

В Nvidia GT 640 установлена активная система охлаждения воздушного типа. Окрашенный в яркие цвета вентилятор диаметром 55 мм сразу бросается в глаза. Он смонтирован на алюминиевом радиаторе. При этом тепло отводится только непосредственно от графического чипа. С одной стороны, это не совсем хорошо, но с другой – позволяет не увеличивать потребляемую мощность и габариты карты.

Судя по тестам, во время интенсивной работы ядро ускорителя прогревается до 62 градусов. При этом кулер работает примерно на 56 % от своей максимальной мощности. Шумность лежит в рамках комфортного использования в течение длительного времени.

В режиме же простоя кулер вращается со скоростью до 30 % от своей максимальной мощности, температура ядра опускается до 31 градуса.

Кроме того, кулер можно принудительно разогнать при помощи встроенного или стороннего программного обеспечения. Однако даже при ста процентах работы температура понижается незначительно – всего до 60 градусов. Уровень шумности при этом возрастает, но все еще держится в рамках комфортного.

Одним словом, система охлаждения со своей задачей однозначно справляется.

Тестирование

Конечно, поведение любой карты в полевых условиях будет зависеть от множества факторов, которые не удается воспроизвести в стендовых. Однако и от синтетических пенчмарков пока еще никто не отказывался. И вот результаты, которые показала Nvidia GT 640. Тест проводился на стенде: Intel Core i7-3770К, GIGABYTE G1.Sniper 3, 2 x DDR3-2400 8 ГБ, Microsoft Windows 7 64-bit SP1:

  • Futuremark 3D Mark Vantage – 10183 балла за общую производительность и 7960 — производительность графического процессора.
  • Futuremark 3D Mark 11 – 2640 баллов.
  • Тест в игре Metro 2033 выдал карте 12 баллов.
  • Futuremark 3D 2013 1.0 Basic, test Fire Strike – 2088 баллов общей производительности, 2170 – производительность графического чипа, 12078 баллов по обработке физики.

Что касается теста на энергопотребление, то и здесь карта показала не самые худшие, хотя и не выдающиеся результаты. В сравнении с более старшей моделью — NVIDIA GeForce GTX 650, она отстает в среднем на 40-45 %. Видеокарта Nvidia GT 640 2Gb показала результаты лучше, чем 1-гигабайтный «коллега», однако, конечно, далеко не в 2 раза.

Подводя итог, можно сказать, что детище от NVIDIA все-таки позволит геймеру ознакомиться и насладиться большим количеством современных игр, однако далеко не на самых лучших настройках.

Разгон

Для NVIDIA GT 640 разгон проводился при помощи приложения MSI Afterburner 3.0.0 Beta 18. При этом частота графического чипа была поднята с 1046 до 1226 МГц, и это замечательный показатель. Следовательно, видеокарта поддается разгону весьма охотно. Прирост производительности в этом случае составил 17,2 %, и это также впечатляет.

Частоту памяти удалось разогнать с 1253 до 1423 МГц. Прирост ее составил 13,6 %. При ручном разгоне NVIDIA GeForce GT 640 прирост FPS составил 16,1 %. Кулер работал при этом на все сто процентов мощности, температура не поднялась выше 63 градусов.

ПО

В комплекте с самой картой, кроме диска с драйверами, поставляется и весьма функциональное ПО под названием Thunder Master.

Основные возможности программы:

  • отслеживать температуру нагрева видеокарты;
  • искусственно повышать скорость вращения кулера;
  • имеется возможность записи специальных сценариев работы видеокарты – в зависимости от производимой работы;
  • можно сохранять резервные конфигурации BIOS;
  • можно разгонять видеокарту по таким параметрам, как повышение частоты графического чипа, прирост памяти, а также минимальное напряжение.

Кроме того, пользователь может сам указать, какое количество кадров он желает видеть в игре, а видеокарта сама подберет параметры, необходимые для этого.

Плюсы NVIDIA GeForce GT 640

Итак, проанализировав такого устройства, как NVIDIA GT 640, характеристики, можно заключить, что эта бюджетная видеокарта имеет немало плюсов:

  • минимальное энергопотребление;
  • низкий профиль посадки в материнскую плату;
  • поддержка DirectX 11.1, Open GL 4.3;
  • отличная система охлаждения;
  • хороший потенциал для разгона;
  • присутствует возможность использовать продвинутую быструю FDDR5 память;
  • поддержка интерфейса PCI Express 2.0 x16 в режиме работы х8;
  • большой набор видеовыходов;
  • хорошее встроенное ПО.

Отзывы о видеокарте

Конечно, ни один синтетический тест или обзор не даст такого полного представления об устройстве Nvidia GT 640, как отзывы реальных пользователей. И вот только некоторые из них.

Многие пользователи говорят, что за свои деньги карточка неплоха. Достаточно видеопамяти, особенно если приобретать 2-гигабайтную версию с GDDR 5. Низкая цена и то, что карта не требует дополнительного питания, также можно отнести к несомненным плюсам. Да, еще и слабо нагревается при этом. Можно разогнать, но увлекаться не рекомендуется, особенно тем, кто не знаком с процессом разгона подобных устройств досконально. Если не хватает средств на более дорогие модели — этот вариант наиболее оптимален. Недостатков в процессе эксплуатации не выявлено.

Некоторые отмечают, что основной плюс – это, конечно же, невысокая цена. Это отличный вариант для замены видеокарт в старых компьютерах, которые у всех пылятся дома из-за нехватки мощности. Эта комплектующая, однозначно, взбодрит его и даст вторую жизнь.

Многие даже и не догадываются, что у видеокарты имеется отличная внутренняя программа, которая оптимально и качественно может подогнать настройки параметров игры. Не придется бесконечно изменять и перезапускать игру с целью подобрать параметры для качественного игрового процесса. К примеру, Nvidia GT 640 в GTA4 советует выкрутить все настройки на максимум, но отключить тени. Пользователи утверждают, что после установки таких настроек все не просто идет, а летит. Ничего при этом не нагревается, кулер практически не шумит. В принципе, если разогнать карту, можно на максимальных настройках и с тенями полноценно играть.

Случается так, что в «Восьмерке» после обновления слетают драйвера. Родные, которые были на диске, устанавливаться категорически не хотят. Проблема решается простым скачиванием драйверов с Интернета. Карта при этом почти не греется и фильмы на больших мониторах проигрывает замечательно. При запуске на Nvidia GT 640 игры, требующей достаточно больших ресурсов, на максимальном разрешении могут возникнуть проблемы с проседанием FPS. Выход в такой ситуации один — снизить настройки, но для такой цены это простительно. В любом случае цена полностью оправдывает покупку.

Подводя итог

Nvidia GT 640, прежде всего, следует применять в составе домашних мультимедийных тестов. Именно здесь эта видеокарта показывает наилучшие результаты.

К сожалению, многие современные игры она просто не потянет из-за своей не слишком большой мощности. Однако в качестве неплохой рабочей лошадки на каждый день вполне пойдет. Для большинства повседневно решаемых задач ее ресурсов вполне хватает, и это подтверждают о Nvidia GT 640 отзывы многочисленных реальных пользователей.

Конечно, компания Nvidia учитывает все недостатки предыдущих моделей и старается их не повторять в своих новинках, хотя не обходится и без этого. На примере данной видеокарты можно увидеть, что поскольку устройство пользовалось большим спросом, компания решила повторить успех, усовершенствовав видеокарту по некоторым параметрам. Должно быть, при этом были все-таки учтены и отзывы пользователей. Например, относительно видов видеовыходов: в версии на 1 Гб и 2 Гб они различны. Однако возможность подключения к видеовыходу компьютера некоторых аналоговых устройств наверняка многим пользователям придется по вкусу.

Учитывая разнообразие современной игротеки, пользователям хочется опробовать новые игры, которые имеют, надо сказать, не самые слабые технические требования. Чтобы графика радовала вас и при этом игра хорошо прогружалась, без тормозов и зависаний, необходимо приобрести хорошую видеокарту. Однако переплачивать за такое удовольствие мало кому хочется. Как правило, все покупатели стремятся найти оптимальное соотношение цены и качества. В данном случае видеокарта, обзор которой был произведен в этой статье, является приемлемым решением, так как она сама по себе показывает неплохие результаты. При этом она также может быть подвержена разгону, а ее цена должна приятно удивить даже самого взыскательного покупателя.

видеокарта : Руководство по разгону GeForce4 Ti и MX

| | | | | | | | | | | | | | | Источник: пролог При выпуске новоиспеченной линейки видеокарт GeForce4 Ti и MX, NVIDIA вытекала традиции, начатой еще с линейки GeForce3 Ti. говорок прется о выпуске шести по-различных версий GeForce4, обладающих по-различную производительность и поддерживающих разные функции. чтоб выпустить более копеечные и, соответственно, более популярные версии, производитель умышленно занижает рабочую частоту чипа и памяти. В остатнее час экая практика получила немаленькое распространение. В качестве образца можно помянуть историю с графическими картами GeForce3 Ti500 и Ti200. костяк Ti200 разгонялось до уровня Ti500, а в кой-каких случаях получалось даже разметать память до уровня Ti500. потому GeForce3 Ti 200 стала дьявольски популярной картой, столько ровно позволяла многим пользователям получить высокопроизводительную графическую карту за небольшие гроши. Зачем разгонять? Разгон графической карты может быть столь же существенным, ровно и разгон процессора. вожделея увеличение частоты графического ядра на 20 MHz, скорее итого, не может впечатлить столько же, ровно увеличение частоты процессора Pentium 4 или Athlon XP на 300 MHz, однако фактически эти 20 MHz могут быть дьявольски пользительны, необычно если Вы владеете дьявольски ходкий процессор, и видеокарта являет ограничивающим фактором, необычно в остатних ресурсоемких играх.

вожделея проглатывать пользователи, занимающиеся разгоном в качестве развлечения, перной причиной разгона являет экономия денег. Зачем покупать более дорогую версию той или другой карты, когда менее дорогая и неспешная версия той же самой платы может быть рассеяна до уровня более законченной и более ненаглядный карты. отдельный из моделей GeForce4 начального уровня, таковые ровно GeForce4 MX 440 и Ti4400, располагают недурной шанс быть рассеянными до уровня более дорогих карт. GeForce4 Ti 4400 – это неспешная версия GeForce4 Ti 4600, с 3.6ns DDR SDRAM памятью (Ti 4600 использует 2.8ns DDR SDRAM). То же самое можно вымолвить о GeForce4 MX 440, какая, по сравнению с моделями, вкалывающими на стандартной скорости, ломит без деятельного охлаждения. GeForce4 MX 440: Разгон начального уровня Для образца мы взяли карту GeForce4 MX 440.
Эта карта являет одной из самых простых среди карт начального уровня. Она обладает дьявольски слабосильное охлаждение. буквальнее вымолвить, на карте суть токмо радиатор на графическом чипе. Что мы мастерим? Для благополучного разгона этой видеокарты необходимо ввести прибавочное охлаждение. Мы будем использовать кулер Thermaltake Crystal Orb, кой выдается невысокой стоимостью и расцветай производительностью. Также мы постановили ввести несколько алюминиевых радиаторов на четыре чипа памяти Hynix 5ns DDR. Обращаем Ваше внимание, что использование радиаторов на чипах памяти без надлежащего воздушного охлаждения глупо для разгона. Прежде итого, надобно услать кровный радиатор с графического чипа. Процесс удаления зависит от используемого способа крепления радиатора на видео карте.
всегдашне радиатор крепиться к плате двумя удерживающими штырьками. Для их удаления необходимо воспользоваться плоскогубцами. Обратите внимание, что кроме крепления к плате, радиатор может быть налеплен к самому чипу с подмогой особой клейкой термоленты. Крепление радиатора таковский лентой дьявольски непробудное, потому удалять радиатор необходимо максимально опрятно, чтоб не повредить графический чип. имеется воззрение, что если уложить плату на кой-какое час в морозильную камеру то термолента теряет свои свойства и услать радиатор становиться проще и безобиднее. После удаления радиатора невредно услать останки термоленты с чипа. Сделать это можно с подмогой изощренного пластмассового объекта с небольшим числом спирта. (Не используйте металлические объекты!!!) нынче, необходимо прикрепить радиаторы на чипы памяти. Обратите внимание, что эти радиаторы не располагают особенного крепления, потому нам придется использовать термоэпоксидную смолу. Способ использования смолы показан на упаковке. Самое перное справедливо навить слой смолы на чип. Сделать это нужно образцово столько, ровно показано на фотографии гуще. Слой смолы должен быть небольшим. Для высыхания смолы требуется образцово 10-15 минут. ровно токмо будут наклеены все четыре радиатора, можно приступать к креплению кулера Crystal Orb. Для улучшения теплообмена мы воспользуемся термопастой. Наносить пасту надобно филигранным ритмическим рядом на поверхность чипа и кулера. После закрепления кулера, плату можно находить готовой к разгону. Разгон GeForce4 Ti4400 Серия графических карт GeForce4 Ti являет самой прыткой и самой горячей среди всех карт NVIDIA на сегодняшний подевай. Для обеспечения достаточного и верного охлаждения NVIDIA разработала собственный дизайн кулера, кой способен остужать не токмо графическое костяк, однако и чипы памяти, размещенные на верхней сторонке карты. Для этой части статьи мы избрали карту GeForce4 Ti4400. Выбор Ti 4400 связан с ее довольно великим теоретическим частотным потенциалом и толстой стоимостью. гуще мы испробуем добиться частотного уровня GeForce4 Ti 4600 (ядро 300 MHz, память 650 MHz). Что мастерим? Для большинства плат этого фрукта рекомендуется отстать используемый радиатор, поскольку используемый механизм охлаждения сообразовывается довольно производительным и дудки никакого резона издерживать лишние гроши на свежеиспеченный кулер. ровно заметно из рисунков, утилитарны все карты GeForce4 Ti4400 не располагают добавочного охлаждения на чипах памяти. Это связано с толстой частотой работы памяти. Однако при разгоне карты необходимо побеспокоиться об охлаждении чипов памяти, размещенных с обеих сторонок карты. Мы использовали восемь алюминиевых радиатора (те же, что и в случае с MX440), Процедура модернизации системы охлаждения GeForce4 Ti 4400 идентична процедуре модернизации MX 440, за исключением замены радиатора на графическом чипе. Для добрейшего теплообмена между графическим чипом и радиатором мы используем чуть термопасты Arctic Silver 3. Для этого необходимо предварительно сбросить радиатор. Процедура снятия радиатора экая же, что и в случае с MX440. В подневольности от производителя и конкретной модели между радиатором и чипом может быть термопаста или термолента. После удаления кулера удалите резким пластмассовым объектом останки ленты или пасты и наметите свежеиспеченный слой пасты Arctic Silver3. Крепление радиаторов к чипам памяти производится также ровно, на GeForce4 MX 440, за исключением того, что эпоксидная смола наноситься в дьявольски миниатюрных числах в фокус всякого чипа. При придавливании радиатора эпоксидная смола растечется по всей поверхности чипа. немаленькое численность смолы повергнет к вытеканию ее на плату, что может вогнать к поломке карты. Для высыхания смолы всегдашне требуется 5-10 минут. итоги разгона Для разгона тестовых графических карт мы используем программу, позволяющую изменить частоту ядра и памяти простым перемещением бегунка в окне программы. Среди наиболее популярных программ можно упомянуть Coolbits, RivaTuner и NVMax. Выбор максимального уровня разгона для ядра и памяти осуществляется постепенным поднятием частоты и проведением нескольких циклов испытаний в 3DMark2001 SE. Этот тест дьявольски сердцещипателен к нестабильности в ядре и памяти. Если тесты протекают успешно можно еще один вознести частоту. И столько до тех пор, покуда система не возьмется трудиться нестабильно. Кроме стабильности мы обращаем внимание на появление по-различных артефактов или иных визуальных ненормальностей во час работы тестов. кое-когда во час разгона графической карты вместо зависания на экране являются визуальные анормальности фрукта небольших точек или мигающих текстур. Визуальные анормальности возникают при превышении максимально мыслимых значений частоты видеопамяти, в то час ровно увеличения частоты ядра в первую хвост связано с выделением тепла. В итоге наших экспериментов заключительные итоги для обеих карт вышли вытекающие. Карта Ti4400 (Базовая частота ядра 275 MHz и памяти – 550 MHz) несколько разочаровала нас. Слой термопасты AC3 и учрежденные на чипы памяти радиаторы не необычно поддержали при разгоне. Максимальный степень составил (302MHz костяк и 655MHz память), что чуть превышает базовый степень Ti4600, однако без использования добавочного охлаждения нам удалось добиться частоты 300 MHz для ядра и 640 MHz для памяти. В отличие от Ti4400, прибавочное охлаждение, введенное на GeForce4 MX 440 позволило получить более занятные итоги. Базовая частота MX440 — 270MHz для ядра и 400MHz для памяти. С инициативным охлаждением нам удалось добиться 305MHz для ядра, что на 35MHz длиннее базовой и на 5MHz длиннее базовой частоты GeForce4 MX460 (300MHz). Что трогает памяти, то на VisionTek GeForce4 MX 440 нам удалось добиться 520MHz, что на 120MHz (DDR) длиннее, максимально мыслимого уровня для 5ns памяти. Без добавочного охлаждения нам удалось добиться 295 MHz для ядра и 510 MHz для памяти. Обратите внимание, что использование радиаторов на чипах памяти также не дьявольски пособило во час разгона. Версия NVIDIA драйвера: 29.40 (Beta) Версия: 1.30 (retail) Max: High Quality Defaults, Geometric Detail: Max, Texture Detail: Max Co

[TPU] Выпущен NiBiTor BIOS Editor v6.02

JavaScript отключен. Для лучшего опыта, пожалуйста, включите JavaScript в вашем браузере, прежде чем продолжить.

Присоединился

Цитата:

Правильно, мы вернулись с новой версией нашего любимого программного обеспечения NiBiTor, которое представляет собой оригинальное программное обеспечение для настройки BIOS серии GeForce, обеспечивающее поддержку новейших графических карт NVIDIA и регулярно обновляемое.С помощью NiBiTor мы предоставляем энтузиастам графических карт или хардкорным оверклокерам полный контроль над некоторыми дополнительными функциями и функциями, присутствующими в прошивках поддерживаемых карт. Таким образом, пользователи могут получить дополнительную производительность, включить определенные скрытые функции, настроить тайминги памяти, получить доступ к информации об устройстве, адаптировать параметры загрузки, изменить параметры скорости вращения вентилятора и даже получить дополнительную стабильность, используя свои графические ускорители на базе NVIDIA, которые просто дадут им это. небольшая дополнительная ценность.

Поскольку мы получили довольно мало новых образов прошивки и просто хотели сделать дополнительные усилия для многих владельцев ноутбуков, мы включили несколько обновлений для них.И, как мы уже сообщали ранее, эта версия также включает поддержку ускорителей GeForce GTX 550 Ti. Конечно, если вы каким-то образом обнаружите, что ваша собственная карта еще не поддерживается, мы рекомендуем вам поделиться с нами оригинальным BIOS, что позволит нам закодировать поддержку в следующей версии. Лучший способ — поделиться через наши форумы, указав также особенности и марку, что упрощает проверку деталей, которые мы обнаруживаем в реальной прошивке.

Изменения в этой версии

  • Добавлен GeForce GTX 550 Ti
  • Добавлен GeForce GT 440
  • Добавлен GeForce GT 330
  • Добавлен GeForce GT 130
  • Добавлен GeForce G 100
  • Добавлен Quadro 600 (Ферми)
  • Добавлен GeForce GTX 470M
  • Добавлен GeForce GTS 425M
  • Добавлен GeForce GTS 350M
  • Обновленный GeForce GTX 460M

Загрузка
Источник

 

Присоединился

·

6 195 сообщений

Сладкий!

Если бы он поддерживал 590, держу пари, люди могли бы снять это глупое ограничение напряжения.

 

Присоединился

·

13 127 сообщений

Цитата:

Первоначально Послано linkin93

Сладкий!

Если бы он поддерживал 590, держу пари, люди могли бы снять это глупое ограничение напряжения.

Нет, если у вас карта asus.

 

Присоединился

·

6 195 сообщений

Цитата:

Первоначально Послано Juggalo23451

Нет, если у вас есть карта asus.

Объясните… Я не читал новостную ленту об этом, у меня нет 590, поэтому мне это бесполезно, кроме как сейчас но я предполагаю, что это какое-то оборудование, мешающее пользователям изменять напряжение вместе с драйверами?

 

Обзор

ASUS GeForce GT 440 1 ГБ — разгон и настройка напряжения

Разгон

Чтобы найти максимальный разгон нашей карты, мы использовали комбинацию GPUTool и нашего набора тестов.
Разгон, указанный в этом разделе, был достигнут с вентилятором по умолчанию и настройками напряжения, заданными в VGA BIOS. Обратите внимание, что каждый образец разгоняется по-разному, поэтому наши результаты здесь могут служить только ориентиром того, что вы можете ожидать от своей карты.
Правильное количество ROP равно 4.

Разгон нашей карты составляет 910 МГц ядра (11% разгона) и 935 МГц памяти (17% разгона). Оба разгона приличные, но я не уверен, есть ли смысл разгонять карту в этом классе производительности.

Производительность в разгоне

Используя эти тактовые частоты, мы провели быстрый тест Call of Duty 4, чтобы оценить преимущества разгона.
Фактическая производительность 3D, полученная в результате разгона, составляет 10,5%.

Температура


Температуры очень низкие, поэтому я бы хотел, чтобы ASUS немного уменьшила скорость вращения вентилятора, чтобы уменьшить шум вентилятора.

Профили тактовой частоты

Современные графические карты имеют несколько профилей тактовой частоты, выбранных для баланса потребляемой мощности и требований к производительности.
В следующей таблице перечислены настройки часов для основных сценариев производительности и измеренное нами напряжение графического процессора. Замеряем на выводах катушки или конденсатора возле регулятора напряжения GPU.

9 GPU напряжение
(измеряется)

5

7 0,90 70050
Core
часы
Memory
часы
51 MHZ 135 MHZ
Blu-ray Воспроизведение 405 МГц 324 МГц 0.90 В
3D-нагрузка 823 МГц 1620 МГц 1,10 В

Руководство по разгону графического процессора Nvidia Geforce Fermi

Введение

Архитектура fermi была раскрыта Nvidia еще в 2009 году, и первой серией графических процессоров Nvidia, основанной на этой архитектуре, была серия GTX 4XX. Первой выпущенной картой была GTX 480, а позже были выпущены различные другие карты. Затем не так давно была выпущена серия GTX 5XX, первой картой которой была GTX 580.

Основные различия между графическими процессорами предыдущего поколения, такими как GTX 2XX, и новой архитектурой Fermi заключаются в следующем:

  1. Карты на базе Fermi имеют модули памяти GDDR5 с возможностями ECC (коррекция ошибок), в то время как более старые архитектуры имели модули GDDR3 без ECC.
  2. Карты на базе
  3. Fermi имели тактовые частоты ядра и шейдеров, связанные в соотношении 1: 2, в то время как для более старых архитектур это не обязательно.
  4. Карты на базе
  5. Fermi были первыми картами, поддерживающими OpenGL4 и DirectX11 API’S (интерфейс прикладного программирования).
  6. Карты на базе
  7. Fermi имели блоки тесселяции специально для аппаратной реализации, в то время как в более старых архитектурах их не было.

Есть еще много отличий, но для простоты это самые важные, о которых следует беспокоиться.

Список графических процессоров на базе архитектуры Fermi:

  1. Двойной графический процессор: GTX 590
  2. High End: GTX 580,GTX 480,GTX 570,GTX 470
  3. Средний уровень: GTX 560 TI,GTX 560,GTX 460,GTX 465,GTX 550 TI,GTS 450
  4. Нижняя часть: GT 545, GT 440, GT 530, GT 430, GT 520, GT 510

Отказ от ответственности: Хотя я гарантирую, что информация и метод, изложенные здесь, безопасны и правильны, я не несу ответственности за какое-либо случайное приключение, которое пошло не так.

Настройка вашей системы:

  1. Во-первых, никакие настройки BIOS не требуются для GPU OC, если только вы не изменили частоту шины PCI, если да, то измените частоту PCI на значение по умолчанию.
  2. Теперь войдите в Windows и установите некоторые необходимые программы/утилиты (обсуждается позже в следующем разделе).
  3. Теперь установите для всех частот вашей карты значения по умолчанию/стандартные.

Необходимое программное обеспечение/утилиты:

1) Драйверы графического процессора Geforce — нужны ли здесь пояснения?

Загрузка – http://www.geforce.com/Drivers

2) MSI Afterburner — «лучшее» и «самое удобное» приложение для разгона, доступное на земле.

Загрузка — http://downloads.guru3d.com/MSI-Afte…load-2850.html

3) Unigine Heaven — очень хороший тест для графических процессоров с поддержкой тесселяции DX11.

Загрузка – http://unigine.com/products/heaven/download/

4) OCCT — жемчужина среди приложений для стресс-тестирования, очень универсальный инструмент для тестирования/тестирования графического процессора.

Скачать – http://www.ocbase.com/perestroika_en/index.php? Скачать

5) 3DMark11 — Очень хорошая нагрузка на GPU/CPU DX11.

Загрузка – http://www.3dmark.com/3dmark11/download/

6) GPU-Z–Инструмент мониторинга GPU.

Загрузка — http://www.techpowerup.com/downloads/SysInfo/GPU-Z/

Понимание некоторых базовых вещей :

Core Frequency/Clock : Это скорость, с которой будет работать графическое ядро, OC’ing этого объекта даст вам максимальный прирост производительности по сравнению с другими частотами. Shader Frequency/Clock : это скорость алгоритмов шейдеров, способных перепрограммировать графический конвейер, это вторая по важности частота, которую следует учитывать при разгоне.

Частота/тактовая частота памяти : Это скорость, с которой работает видеопамять или оперативная память графического процессора, это наименее важная частота при разгоне, поскольку она дает очень-очень небольшой прирост производительности.

ПРИМЕЧАНИЕ. Я до сих пор вижу, что многие люди думают о шейдерах как об аппаратных единицах, но на самом деле это не более чем алгоритмы, которые используются для перепрограммирования конвейера обработки графики для достижения желаемого эффекта затенения.

Важные напряжения

GPU VCORE : это количество вольт, подаваемое на ядро ​​графического процессора, это наиболее важное напряжение для разгона графических процессоров.

Безопасный предел: запас – 1,1 В

ПРИМЕЧАНИЕ. В некоторых графических процессорах, не основанных на эталонных печатных платах, у вас есть 2 дополнительных параметра регулировки напряжения.

Mem Volt — важно для разгона памяти.

PLL Volt — это просто уловка производителей, до сих пор не было доказательств того, что карта может повышать разгон и быть стабильной за счет увеличения напряжения PLL.

Некоторые основные правила перед тем, как двигаться дальше

  1. Не ставьте перед собой цель, разгон — это рекурсивный процесс, нет никакой гарантии, что вы достигнете желаемого разгона.
  2. Убедитесь, что температура вашего графического процессора находится в пределах 85 ° C перед любым разгоном на заводе, потому что, если ваши карты уже выше 85 ° C на складе, у вас не будет большого запаса для разгона, это не означает, что ваша карта не может разгоняться, но это означает, что не слишком безопасно запускать ваш GPU при 90-100C 24X7.
  3. Убедитесь, что на графическом процессоре нет пыли, так как пыль увеличивает температуру графического процессора.

ПРИМЕЧАНИЕ. Обратите внимание, что разгон любого компонента/графического процессора в вашей системе аннулирует гарантию, но в этом есть большая лазейка, которую ребята, такие как мы, могут использовать для RMA нашей карты, если она заблокирована, если только ваша карта не сожжена или физически не повреждена. нет способа сказать, что ваша карта была взломана и в результате она вышла из строя, поэтому будьте умны, отправляясь в центры RMA, просто не говорите им, что вы взломали, приведите разумные отговорки, например, артефакты моей карты или она не загрузится. и т.д.

Наконец-то разгон

— Без возни с напряжением

  • 1) После загрузки Windows запустите GPU-Z и Afterburner, закройте все ненужные приложения, проверьте частоту и напряжение вашей карты. Также обновите драйверы графического процессора.
  • 2) Теперь, чтобы начать OCing, включите Afterburner, и вы увидите 4 ползунка по умолчанию, а именно
  • .
  1. Базовая частота
  2. Шейдерные часы
  3. Часы памяти
  4. Скорость вентилятора

Здесь нашей целью будет стабилизировать все часы один за другим.Мы начнем с частоты ядра (такты ядра и шейдера связаны, поэтому, по сути, вы будете автоматически увеличивать оба значения, если увеличите любое из них).

  • 3) Начните повышать тактовую частоту ядра на 10 МГц за раз (вы также можете увеличивать больше, если вы чувствуете себя авантюрно, но увеличивая более низкие ступени, убедитесь, что вы найдете более стабильную и безопасную максимальную частоту). После каждого увеличения выполните 2 цикла. тестов unigine Heaven и 3dmark Vantage/11, так как они сразу же покажут стабильность вашего графического процессора либо сбоем/замедлением/повреждением текстуры, либо любыми графическими аномалиями.
  • 4) Повторяйте вышеуказанный шаг до тех пор, пока ваш GPU OC не пройдет все тесты без каких-либо проблем, после того, как вы начнете получать проблемы, уменьшите тактовую частоту ядра с шагом 5 МГц и снова запустите 2 цикла тестов unigine и 3dmark каждый и продолжайте уменьшать пока ваша карта не станет стабильной и перестанет создавать артефакты или создавать какие-либо проблемы.
  • 5) С помощью последнего шага мы успешно обнаружили наш стабильный и самый высокий потолок тактовой частоты ядра. Таким образом, теперь мы в некотором роде изолировали тактовую частоту ядра от тактовой частоты памяти, так как тактовая частота памяти до сих пор оставалась нетронутой.Итак, теперь начните увеличивать тактовую частоту памяти с шагом 10 МГц (пожалуйста, не переусердствуйте с памятью, как с основной тактовой частотой, память — это компонент, который можно легко разрушить по малейшей ошибке). Теперь повторите те же тесты и стратегию. следовали за тактовой частотой ядра на предыдущих шагах, и вы бы также узнали свой потолок тактовой частоты памяти.
  • 6) Поздравляем! вы добились стабильного разгона на вашем графическом процессоре без изменения напряжения. Теперь, чтобы сохранить эти настройки, нажмите «Применить разгон при запуске» в Afterburner и сохраните настройки разгона в профиле, представленном в Afterburner в виде чисел внизу.

— С изменением напряжения

  • 1) Здесь мы повторяем описанные выше 6 шагов от слова к слову и продолжаем дальше. Теперь, когда мы получили стабильный разгон без увеличения напряжения, и если нам нужен еще более высокий разгон, нам нужно увеличивать напряжение небольшими приращениями.
  • 2) Теперь для этого нам нужно внести некоторые изменения в параметры афтербернера, нажмите параметры в афтербернере, а затем на вкладке «Общие» установите флажок «разблокировать напряжение и включить параметры мониторинга напряжения».
  • 3) После настройки афтербернера увеличьте тактовую частоту ядра на 10 МГц снова и снова протестируйте его и посмотрите, не падает ли он, если он действительно увеличивает напряжение с шагом 5 мВ, а затем снова протестируйте и посмотрите, стабилизировалась ли карта или нет.
  • 4) Повторяйте описанную выше процедуру до тех пор, пока не достигнете желаемого разгона или 1,1 В.
  • 5) Как только вы достигнете максимально возможного разгона, помимо выполнения тестов, также запустите тест OCCT GPU в течение не менее 30 минут и проверьте стабильность карты, если она выживает хорошо, вы достигли успешного разгона, если нет уменьшите частоту ядра на 5 МГц и продолжайте делать это, пока ваш графический процессор не станет стабильным.
  • 6) Последний шаг: наслаждайтесь игрой с повышенной производительностью.

SkatterBencher #4: NVIDIA GeForce GT 710 разогнана до 1450 МГц

Разгоняем процессор NVIDIA GeForce GT 710 до 1450 МГц с помощью программного инструмента NVIDIA Inspector и одного вентилятора.

Для тех из вас, кто впервые знакомится со SkatterBencher, в основном это проект, посвященный быстрому и простому пошаговому руководству по разгону вашего ПК.В эпизоде ​​№4 мы сосредоточимся на конкретном аппаратном компоненте — видеокарте GeForce GT 710, одной из самых доступных графических карт на сегодняшний день. Надеемся, что к концу этого руководства вы увидите, что на самом деле довольно легко получить значительный прирост производительности при разгоне более доступного оборудования, такого как GT 710. Давайте начнем.

Примечание. Nvidia GeForce GT 710 на самом деле является видеокартой, выбранной для первого в этом сезоне конкурса Cheapaz Chips на OC-ESPORTS. Любой, кто следует этому руководству, сможет присоединиться к конкурсу и подать заявку.Конкурс завершится в августе 2016 года.

Страница конкурса

Cheapaz Chips: http://oc-esports.io/#!/round/cheapaz_chips_s1

Прежде чем мы начнем — установите необходимое программное обеспечение

Для разгона мы будем использовать три разных приложения. Для фактического разгона мы будем использовать Nvidia Inspector. Для мониторинга графического процессора мы будем использовать GPU-Z от TechPowerUp, а для конкурентного тестирования мы будем использовать GPUPI (Примечание: это тест для этапа 3 конкурса Cheapaz Chips).

Вот ссылки для скачивания каждого приложения:

Шаг 1: память графического процессора GeForce GT 710 Max

После того, как вы установили упомянутые выше приложения, откройте GPU-Z и Nvidia Inspector и выровняйте их рядом на рабочем столе. Убедитесь, что GeForce GT 710 выбран в раскрывающемся меню GPU-Z. Обратите внимание, что вся соответствующая информация мониторинга отображается на вкладке «Датчик» в GPU-Z, включая тактовые частоты графического процессора и памяти, а также нагрузку и температуру графического процессора.

Далее мы хотим включить функцию Render Test, чтобы максимально использовать GPU. Это можно сделать, просто щелкнув маленький вопросительный знак в правой части вкладки информации о шинном интерфейсе. Рендер-тест создает фиктивную нагрузку на графический процессор, что делает его идеальным для начального стресс-тестирования.

В приложении Nvidia Inspector убедитесь, что для области параметров разгона установлено значение «Показать». В первом поле установите состояние питания на PO. Это состояние максимального энергопотребления, которое гарантирует, что мы разгоняем карту на самом высоком уровне производительности во время высоких нагрузок, таких как игры или тесты в нашем случае.

В Nvidia Inspector можно настроить три основных параметра. Это:

  • Смещение базовой тактовой частоты (для графического ядра)
  • Смещение тактовой частоты памяти (для памяти)
  • Смещение напряжения (для напряжения графического ядра)

Для видеокарт более высокого класса вы также можете настроить мощность и температуру цели, а также скорость вращения вентилятора. Наша карта GT 710 имеет пассивное охлаждение, поэтому сегодня нам не понадобятся варианты вентиляторов.

Нажмите кнопку «Начать тест рендеринга» в GPU-Z, чтобы начать нагрузку вашего графического процессора.Теперь вы можете видеть, что тактовые частоты видеокарты увеличились. В нашем случае частота ядра графического процессора достигла 954 МГц, а частота памяти — 450 МГц. После нагрузки температура графического процессора оставалась стабильной на уровне 380°C. Теперь можно приступать к разгону!

Сначала нам нужно увеличить смещение часов на один шаг в 20 МГц, чтобы увеличить частоту памяти с 450 МГц до 460 МГц (примечание: сегодняшняя память имеет двойную скорость передачи данных, или DDR, что означает, что при нажатии +20 МГц частота памяти находится в факт поднят на 10MHz).Нажмите кнопку «+20» в приложении, затем нажмите «Применить часы и напряжения». Мы только что подняли частоту памяти на 10 МГц. Мы хотим найти максимально стабильную частоту памяти графического процессора, поэтому продолжаем постепенно увеличивать смещение тактовой частоты до тех пор, пока тест рендеринга не начнет создавать нестабильность системы. В этот момент мы узнаем верхний предел тактовой частоты памяти графического процессора нашей карты.

Нам удалось достичь смещения тактовой частоты +340 МГц, что привело к увеличению частоты памяти со стандартных настроек до 620 МГц. При конфигурации +340 МГц мы начали замечать небольшие визуальные дефекты (известные как артефакты) в тесте рендеринга.Переход на +360 МГц (620 МГц) привел к зависанию системы. Это означает, что верхний предел для памяти графического процессора составлял +360 МГц.

Шаг № 2: GeForce GT 710 Max GPU Core

Теперь мы хотим найти верхний предел ядра графического процессора нашей карты. Процесс очень похож на разгон памяти графического процессора, который мы только что рассмотрели.

Мы используем те же настройки, что и ранее, только на этот раз мы собираемся настроить смещение базовых часов. Начните с повышения частоты ядра графического процессора с шагом 20 МГц.Продолжайте, пока ваша система не начнет испытывать нестабильность.

Наша карта GeForce GT 710 710 смогла без проблем достичь конфигурации смещения базовой тактовой частоты +480, но как только мы поднялись до +500, система немедленно зависла, и Windows сообщила, что драйвер дисплея перестал работать. Другими словами, система испытывала реальную нестабильность.

Вот где может быть интересно. Мы можем попытаться увеличить мощность ядра графического процессора, увеличив смещение напряжения.Это может дать ядру графического процессора больше запаса мощности, но также повысит температуру графического процессора. Мы увеличили смещение напряжения до +124 мВ, а затем снова попытались поднять GPU, начиная с безопасного значения +440 МГц.

К сожалению, система по-прежнему зависала на частоте +480 МГц. Увеличение смещения напряжения до +200 мВ также не дало положительного эффекта. Результат, который означает, что мы нашли верхний предел частоты.

Шаг 3: Лучшая комбинация GeForce GT 710

Теперь, когда мы знаем верхний предел разгона нашей видеокарты, пришло время поэкспериментировать с тестом.Эта часть процесса разгона почти всегда будет занимать большую часть вашего времени, поскольку не существует научного правила, которое точно скажет вам, насколько ниже стабильная частота. Эмпирическое правило состоит в том, чтобы начать со значительно безопасного расстояния от верхнего предела, запустить тест и проверить стабильность.

Звучит очевидно, но всегда помните, что тесты производительности обычно выдают цифру, указывающую на производительность вашей системы. Следите за этой цифрой. Если вы видите, что цифра снижается, это означает, что что-то негативно влияет на производительность.Одной из наиболее распространенных причин этого является перегрев графического процессора. Видеокарты автоматически уменьшают тактовую частоту ядра графического процессора, чтобы защитить чип. Это то, что обычно происходит в конце запуска теста после длительного периода стресса. Следите за температурой графического процессора и настройте параметры напряжения как можно меньше, чтобы избежать перегрева.

Следующее, что нам нужно сделать, это открыть тестовое приложение GPUPI 1B. Мы можем оставить это открытым, пока мы начинаем разгонять нашу систему.Откройте Nvidia Inspector и GPU-Z, как и раньше.

Для начала выполните ту же процедуру, что и ранее, и установите для параметра Base Clock Offset значение +400 МГц и +350 МГц для памяти графического процессора. После применения настроек мы закрываем Nvidia Inspector и запускаем тестовое приложение. Тестовое приложение GPUPI имеет несколько настроек. Выберите устройства Cuda и убедитесь, что выбран GT 710. Наконец, убедитесь, что количество выбранных цифр равно 1B.

Запустите тест и дождитесь его успешного завершения.Когда тест приблизился к пятой партии, произошел сбой. Мы прервали приложение и снова открыли Nvidia Inspector. На этот раз мы настроили видеокарту на +450 МГц для ядра GPU, +320 МГц для памяти GPU и смещение напряжения +100 мВ. Если это также нестабильно, мы знаем, что частота ядра графического процессора вызывает проблемы. Если нет, то это вполне могла быть память графического процессора.

Мы снова запустили тест GPUPI 1B. На этот раз он финишировал, завершив прогон за 8 минут и 5,186 секунды. Отсюда мы можем продолжать увеличивать тактовую частоту графического процессора, чтобы улучшить наш результат.

Шаг 4. Отправьте заявку и соревнуйтесь

Теперь, когда у нас есть начальный результат, мы можем принять участие в конкурсе Cheapaz Chips на OC-ESPORTS. Для этого нам понадобится файл данных бенчмарка, скриншот с достаточной проверкой и изображение системы.

Пока у нас открыт тест, снова запустите GPU-Z. Это информирует модераторов об используемой видеокарте. Затем дважды откройте CPU-Z, сначала для отображения информации о процессоре, а затем для отображения информации о памяти.Различные соревнования требуют разного типа проверки, поэтому обязательно ознакомьтесь с правилами соревнований. Например, для конкурса Cheapaz Chips скриншот также должен включать фон конкурса.

После того, как все вышеперечисленное настроено, мы возвращаемся к GPUPI и нажимаем меню HWBOT. Мы выбираем «Отправить онлайн». Эта функция позволяет нам напрямую отправлять на страницу HWBOT из тестового приложения. Не забудьте проверить Загрузить скриншот. Оставьте нижние параметры не отмеченными, если вы не хотите вручную выбирать категории процессора и видеокарты.Чтобы завершить отправку, нажмите «Отправить».

Чтобы проверить отправку, щелкните гиперссылку URL-адреса HWBOT, которая откроет для вас веб-страницу отправки. На боковой панели мы находим текущее соревнование Чипсы Чипэз. Узнаем, что для участия в конкурсе требуется системная картинка. Это можно сделать позже, отредактировав заявку.

Перейдя на страницу конкурса Cheapaz Chips на OC-ESPORTS, мы можем найти результат, который мы только что представили, и тот факт, что он занимает 14-е место на этапе 3.Очевидно, что мы еще многое можем сделать, чтобы улучшить свое положение. Мы также можем проверить оценки выше нас, включая их конфигурации графического процессора и памяти.

На этом мы завершаем наше руководство по разгону GT 710. Мы скоро вернемся с дополнительным контентом для разгона. До следующего раза. Спасибо, что присоединились к нам.

Родственные

Точка зрения GeForce GT 440 1GB

25%

25%

9 0018 ТПГ iGame 90 018 Точка зрения GT 440 1GB
VGA-440-A1-1024-C 2 2
Boost Memory Power пользовательских серии популярность

6
красочные GT 440 1 ГБ
N440-103-N02
TBC TBC

9 красочные GT 440 1GB
N440-103-N01

TBC TBC

4%
ЦВЕТАСТАЯ GT 440 1GB DDR5
N440-105-N02
ТПГ ТПГ

5%

  ЦВЕТНОЙ GT 440 1 ГБ DDR5
N440-105-N01
ТПГ

19%
ЦВЕТАСТАЯ GT 440 1GB DDR5 iGame
N440-105-Y01
ТПГ ТПГ

10%

9


N440-105-B01
TBC TBC Igame

7%

ЦВЕТАСТАЯ GT 440 2GB
N440-203-N02
ТПГ ТПГ

13%
ЦВЕТАСТАЯ GT 440 2GB
N440-203-N01
Уточняется Уточняется

 

4% 9 0003

ЦВЕТАСТАЯ GT 440 DDR5 512
N440-055-N02
ТПГ ТПГ

35%
ЦВЕТАСТАЯ GT 440 512 DDR5
N440-055-N01
ТПГ ТПГ

4%
EVGA GT 440 1GB
01G-P3-1441
ТПГ ТПГ

9%
EVGA GT 440 1GB
01G-P3-1442
ТПГ ТПГ

4%

  EVGA GT 440 512MB
512-P3-1440
TBC 90 050 ТПГ

3%

GALAXY GT 440 1GB ТПГ ТПГ

21%

GALAXY GT 440 2GB
44GPF4DC3FFZ
ТПГ ТПГ

16%

GALAXY GT 440 512
44GGS8HX3BXZ
ТПГ ТПГ

17%

KFA2 GT 440 1GB ТПГ ТПГ

6%

KFA2 GT 440 512MB ТПГ ТПГ

4%

Manli GT 440
М-NGT440 / 5R7HD
ТПГ ТПГ

10%

MSI GT 440 1GB LP
N440GT-MD1GD3 / LP
ТПГ ТПГ

64%

MSI GT 440 2GB
N440GT-MD2GD3
ТПГ ТПГ

17%

MSI GT 440 512
N440GT-MD512D5
ТПГ ТПГ

 

28%

  TBC TBC

42%

Точка зрения GT 440 2 ГБ
VGA-440-C1-2048
TBC TBC

100%

100%

9 Точка зрения GT 440 2GB
VGA-440-C2- +2048

ТПГ ТПГ

7%

точки зрения GT 440 512
GT440-A1-512
ТПГ ТПГ

5%

9 ZOTAC GT 440 1 ГБ
ZT-40704-10L

TBC TBC

52%
ZOTAC GT 440 1GB
ZT-40702-10L
ТПГ ТПГ

6%
ZOTAC GT 440 1GB
ZT-40703-10L
ТПГ ТПГ

4%
ZOTAC GT 440 1GB
GT440- 1GD3 М.А.
ТПГ ТПГ

7%

ZOTAC GT 440 1GB GDDR5
GT440-1GD5 М.А.
ТПГ ТПГ

 

34%

  ZOTAC GT 440 1 ГБ GDDR5
GT440-TC1GD5 М.А.
ТПГ ТПГ

5%

ZOTAC GT 440 1GB GDDR5
GT440-TC1GD5 ПА
ТПГ ТПГ

7 10002

7%

9 Zotac GT 440 1GB Synergy Edition
1
ZT-40708-10L

TBC TBC Synergy

19%

ZOTAC GT 440 2GB
ZT-40706-10L
ТПГ ТПГ

31%
ZOTAC GT 440 2GB Synergy Edition
ZT-40707-10L
TBC TBC Синергизм

24%
ZOTAC GT 440 512
ZT-40701-10L
ТПГ ТПГ

4%
ZOTAC GT 440 GDDR5 512
GT440-512GD5 М.А.
ТПГ ТПГ

8%

ZOTAC GT 440 GDDR5 512
GT440 -512D5 PB
ТПГ ТПГ

6%
ZOTAC GT 440 GDDR5 512
GT440-512D5 ПА
ТПГ ТПГ

 

20%

Asus GeForce GT 440 1 ГБ GDDR5 PCIe Обзоры, плюсы и минусы

Автор: PCWorld Индия тел. 82

Asus GeForce GT 440 хорошо подходит для тех, кто хочет обновить графическое оборудование в своих системах.Учитывая, что эта карта поставляется с заводским разгоном и не имеет внешнего разъема питания, покупка этой…

Автор: techPowerUp! тел. 80

GeForce GT 440 от NVIDIA на самом деле не новинка. OEM-производители могут использовать его в своих предварительно собранных системах с осени прошлого года. Прошлогодняя OEM-карта GT 440 принципиально отличается от сегодняшней GeForce GT 440….

От Окахолика тел.

Из-за цены довольно сложно рекомендовать эту карту.Тем не менее, для HTPC сгодится из-за эффективного и бесшумного кулера. Автор: Кристиан Ней …

01Net тел. 60

Si, в момент вылета, la GT 240 nous avait emballés, la GT 440 nous laisse de marbre. Elle ne fait rien de mieux que la 240, si ce n’est ajouter quelques images par seconde sur les jeux en DirectX 11, ce qui ne les rend pas jouables pour…

Автор: Hardwareluxx тел.

Купите NVIDIA GeForce GT 440 в качестве OEM-модели, которую вы выбрали, но это не так.Таким образом, модель Retail-Modell предназначена для использования с другими фреймами NVIDIA GeForce GT 430. Модель OEM-производителя создана для NVIDIA GeForce…

. От ПК-тюнера тел.

ASUS GT 440 представляет собой двухуровневую схему, которая потребляет меньше и больше интересных устройств, объединяет все решения HD 5570 с GDDR5. Ha dimostrato un buon potenziale di overclock garantendo semper Temperature di esercizio contenute….

Заводской разгон сверху донизу

Графические процессоры NVIDIA GF104 и GF114 до сих пор пользовались большим успехом у компании. Спустя 10 месяцев после того, как GF104 выпустила серию GTX 460, NVIDIA постепенно дополняет и заменяет своего бывшего короля за 200 долларов. В январе мы увидели запуск GTX 560 Ti на базе GF114, что дало нам возможность впервые взглянуть на то, на что способен полноценный графический процессор GF1x4. Однако GTX 560 Ti позиционировалась выше серии GTX 460 как по производительности, так и по цене, поэтому она была скорее дополнением к их линейке, чем заменой GTX 460.

Поскольку каждый графический процессор GF11x фактически на полшага превосходит своего предшественника GF10x, стратегия замены NVIDIA заключалась в том, чтобы разделить исходный рынок карт серии 400 между двумя графическими процессорами GF11x. Для GTX 460 на низком уровне это было частично разделено на GTX 550 Ti, что довольно близко к производительности GTX 460 768MB. Тем не менее, GTX 460 1 ГБ осталась на месте, и сегодня NVIDIA, наконец, начинает менять это с выпуском GeForce GTX 560. Основанная на том же графическом процессоре GF114, что и GTX 560 Ti, GTX 560 в конечном итоге станет топовой версией GTX 460 1 ГБ. преемник и новая карта NVIDIA за 200 долларов.

GTX 570 GTX 560 Ti GTX 560 GTX 460 1 ГБ
Потоковые процессоры 480 384 336 336
Адрес текстуры/Фильтрация 60/60 64/64 56/56 56/56
РОП 40 32 32 32
Базовая частота 732 МГц 822 МГц >=810 МГц 675 МГц
Шейдерные часы 1464 МГц 1644 МГц >=1620 МГц 1350 МГц
Часы памяти 950 МГц (скорость передачи данных 3800 МГц) GDDR5 1002 МГц (скорость передачи данных 4008 МГц) GDDR5 >=1001 МГц (скорость передачи данных 4004 МГц) GDDR5 900 МГц (3.Скорость передачи данных 6 ГГц) GDDR5
Ширина шины памяти 320-битный 256-битный 256-битный 256-битный
Буфер кадра 1,25 ГБ 1 ГБ 1 ГБ 1 ГБ
ФП64 1/8 FP32 1/12 FP32 1/12 FP32 1/12 FP32
Количество транзисторов 1.95Б 1.95Б 1.95Б
Производственный процесс ТСМС 40нм ТСМС 40нм ТСМС 40нм ТСМС 40нм
Ценник $329 ~$239 ~$199 ~$160

GTX 560 — это, по сути, версия GTX 460 1 ГБ с более высокой тактовой частотой.GTX 460 использовала урезанную конфигурацию GF104, а GTX 560 будет делать то же самое с GF114. В результате обе карты имеют одинаковые 336 SP, 7 SM, 32 ROP, 512 КБ кэш-памяти L2 и 1 ГБ GDDR5 на 256-битной шине памяти. С точки зрения производительности решающим фактором между ними будет тактовая частота, а с точки зрения энергопотребления основными факторами будут комбинация тактовой частоты, напряжения и улучшения утечки транзисторов GF114 по сравнению с GF104. В целом, базовая конфигурация NVIDIA для GTX 560 ставит карту на 810 МГц для тактовой частоты ядра и 4004 МГц (скорость передачи данных) для тактовой частоты памяти, что по сравнению с эталонной GTX 460 1 ГБ на 135 МГц (20%) выше для тактовой частоты ядра и На 404 МГц (11%) быстрее для часов памяти.NVIDIA указывает TDP на уровне 150 Вт, что на 10 Вт меньше, чем у GTX 460 1 ГБ.

С учетом сказанного, этот запуск будет более хаотичным, чем обычно для запуска продукта NVIDIA среднего уровня. Хотя NVIDIA и AMD поощряют своих партнеров дифференцировать свои карты среднего класса на основе ряда факторов, включая заводской разгон и используемый кулер, эти продукты всегда выпускаются вместе с эталонной картой. Однако для GTX 560 это будет безреференсный запуск: NVIDIA не занимается розничным эталонным дизайном для GTX 560.Это довольно распространенная ситуация для младших моделей, когда мы часто тестируем эталонный дизайн, который никогда не используется для розничных карт, но довольно необычно не иметь эталонного дизайна для карты среднего уровня.

В результате вместо справочной карты, на которую можно ссылаться, у нас есть немного хаоса с точки зрения спецификаций карт, запускаемых сегодня. Пока вы готовы потратить немного больше энергии, GF114 работает очень хорошо, что мы видели в прошлом на GTX 560 Ti. Это привело к тому, что партнеры выпустили несколько карт GTX 560 Ti с заводским разгоном и несколько карт с эталонной тактовой частотой, если таковые вообще были, поскольку розничный рынок не предъявляет строгих требований к мощности рынка OEM.Таким образом, в то время как OEM-производители используют карты с эталонной тактовой частотой для наименьшего энергопотребления, большинство розничных карт разгоняются. Вот часы, которые мы видим в стартовой линейке GTX 560.

Список стартовых карт GeForce GTX 560
Карта Основные часы Часы памяти
ASUS GeForce GTX 560 Топ 925 МГц 4200 МГц
ASUS GeForce GTX 560 ОС 850 МГц 4200 МГц
Палит GeForce GTX 560 SP 900 МГц 4080 МГц
MSI GeForce GTX 560 Twin FrozrII OC 870 МГц 4080 МГц
Zotac GeForce GTX 560 AMP! 950 МГц 4400 МГц
KFA2 GeForce GTX 560 EXOC 900 МГц 4080 МГц
Сверкающая GeForce GTX 560 калибра 900 МГц 4488 МГц
ЕВГА GeForce GTX 560 SC 850 МГц 4104 МГц
Галактика GeForce GTX 560 GC 900 МГц 4004 МГц

Вот почему NVIDIA решила полностью отказаться от эталонной карты и предоставила своим партнерам как дизайн карты, так и тактовые частоты.В результате мы ожидаем, что каждая GTX 560, которую мы увидим на розничном рынке, будет иметь какой-то заводской разгон, и все они будут использовать индивидуальный дизайн. Тактовые частоты будут повсюду, а дизайн в значительной степени представляет собой переработанный дизайн GTX 460/GTX 560 Ti. Это означает, что мы увидим множество карт, но нет ничего, на что мы могли бы указать в качестве основы. Карты с эталонной тактовой частотой могут появиться на рынке, но даже NVIDIA пока не уверена в этом. Список розничных карт, предоставленный нам NVIDIA, имеет диапазон частот ядра от 850 МГц до 950 МГц, а это означает, что производительность некоторых из этих карт будет заметно отличаться от других.В результате наша методология тестирования несколько изменилась, о чем мы подробно расскажем в разделе «Методология тестирования».

С широким разнообразием дизайнов карт и тактовых частот GTX 560 также будут разные цены. MSRP для GTX 560 составляет 199 долларов, поскольку основной целью NVIDIA для этой карты является прибыльный рынок в 200 долларов. Однако с заводским разгоном выше 125 МГц партнеры NVIDIA также используют эти карты, чтобы заполнить пробел между GTX 560 и GTX 560 Ti.Таким образом, более медленные карты 850-900 МГц будут стоить около 199 долларов, а самые быстрые карты будут стоить ближе к 220-230 долларам. Например, карта, которую мы тестируем сегодня, — это ASUS GTX 560 DirectCU II Top, карта ASUS с самой высокой тактовой частотой. В то время как их карта 850 МГц OC будет стоить 199 долларов, Top будет стоить 219 долларов.

На данный момент у NVIDIA не будет серьезной конкуренции со стороны AMD прямо за 200 долларов. За исключением случайной карты, которая время от времени выходит из строя, цены на Radeon HD 6950 обычно составляют от 220 долларов США; Между тем цены на Radeon HD 6870 составляют от 170 до 220 долларов, при этом основная часть этих карт стоит менее 200 долларов.Таким образом, для более медленных GTX 560 ближайшими конкурентами будут разогнанные на заводе 6870 и GTX 460, последние из которых, как ожидается, продержатся еще как минимум несколько месяцев. Между тем, для более быстрых GTX 560 конкуренцией будут дешевая GTX 560 Tis и, возможно, 6950 с 1 ГБ памяти. Рынок среднего класса по-прежнему конкурентен, но на данный момент NVIDIA является единственной, у которой есть карта, специально предназначенная для 199 долларов.

Напоследок хочется еще раз отметить выбор именования видеокарты.Я начинаю звучать как заезженная пластинка, и я знаю это, но название видеокарты в прошлом году разочаровывало. У NVIDIA есть префикс (GTX), номер модели (560) и суффикс (Ti), за исключением случаев, когда у них нет суффикса. При наличии префикса и номера модели суффикс уже был излишним, но особенно проблематично, когда у некоторых карт есть суффикс, а у некоторых нет. Помните дни серии GeForce 6800, и как всякий раз, когда вы хотели поговорить о vanilla 6800, никто не мог легко сказать, говорите ли вы о серии или о карте без суффикса? Что ж, мы вернулись в те дни; GTX 560 — это и серия, и конкретная видеокарта.Суффиксы хороши, если они используются всегда, но когда они не используются, эти ситуации могут привести к путанице.

Leave a comment