За счет чего увеличивается производительность процессора а значит и компьютера: Тест: Архитектура персонального компьютера — Информатика 11 класс – «Что влияет на производительность процессора?» – Яндекс.Знатоки

Содержание

В чем измеряется производительность процессора:от чего она зависит

Опубликовано 18.06.2018 автор — 0 комментариев

Добрый день, уважаемые гости и постоянные посетители моего блога. Сегодня мы поговорим об одной наболевшей теме, а именно о скорости или в чем измеряется производительность процессора.

Сразу хочется сказать, что это не частота на ядро, как было принято ранее, а совокупность сразу нескольких математических величин, именуемых как FLOPS (FLoating-point Operations Per Second) – внесистемная единица производительности.

От чего зависит вычислительная мощность компьютера, и стоит ли обращать внимание на частотный показатель? Во всем этом мы и постараемся разобраться.

Откуда ноги растут

Довольно часто в интернете можно встретить споры о том, что «Intel тащат за счет большей частоты ядер». Иными словами, частотный параметр ставится во главу стола, а остальные нюансы (количество потоков, размер кэша, работа с определенными инструкциями и техпроцесс) почему-то забываются.

Примерно до начала 2000‑х годов подобное сравнение имело место быть, поскольку характеристики центрального чипа и его скорость упирались именно в частоту. Достаточно вспомнить следующие названия:

  • Pentium 133 и 333;
  • Pentium 800 и т.д.

А потом ситуация резко изменилась, поскольку разработчики стали уделять больше времени строительству внутренней архитектуры чипов, добавляя кэш-память, поддержку новых инструкций, способов вычисления и прочих элементов, которые увеличивают производительность без повышения той самой частоты.На арене появились новые критерии скорости:

  • кэш-память;
  • частота шины данных;
  • разрядность.

Т.е. определить возможности чипа, опираясь на один лишь частотный потенциал, стало практически невозможно.

Что влияет на производительность современных процессоров?

Итак, давайте знакомиться с понятиями, которые характеризуют работу процессора, скорость вычислений и все прочие параметры.

Разрядность – определяет размер обработки данных за такт. На данный момент существуют как 32-битные, так и 64-битные варианты. Представим, что размер данных – 1 байт (8 бит). Если чип вычисляет 4 байта информации за прогон – он 32-битный, если 8 байт – 64-битный.

Логика элементарна до безобразия: при сравнивании 2 ЦП с идентичной частотой и разной разрядностью победит тот, который обладает 64-битным набором логики (разница колеблется от 10 до 20%).

Техпроцесс (литография) – количество транзисторов, размещенных на кристалле. Чем их больше – тем выше мощность, частоты, разгонный потенциал и ниже температура под нагрузкой. Процесс измеряется в нанометрах и на данный момент Компаниями Intel и AMD успешно освоены ЦП на техпроцессе 14 и 12 нм соответственно.

Кэш-память – массив сверхскоростной и эффективной ОЗУ внутри чипа, которая отвечает за основные вычисления и обмен готовыми результатами операций с оперативной памятью ПК и прочими компонентами системы. От объема кэша зависит скорость и работоспособность компьютера.

Если у вас на руках 2 модели с идентичными частотами и техпроцессом, лучше будет та, у которой кэш третьего уровня (L3) выше, или вообще присутствует.

Рабочая температура – показатель, который напрямую влияет на производительность. Если вы решили разогнать чип, и он дошел до своего предела относительно температур – ЦП либо начнет троттлить, либо отключится, вызвав перезагрузку компьютера. Но не стоит злоупотреблять работоспособностью процессора на максимально возможных температурах – кристалл довольно быстро откажет и начнет разрушаться.Системная шина

и множитель – отвечают за разгон частот. Если вы хотите заняться оверклокингом, то множитель должен быть разблокирован на камне. Более того, делается это только на соответствующей материнской плате с чипсетом Z370 (Intel Coffee Lake) или B350, X370/X470 (AMD Ryzen).

Потенциал «разгоняемого» камня значительно выше, а потому данная покупка имеет большую ценность на будущее, да и запас прочности кристалла будет существенно выше.

Наличие встроенного графического процессора – дополнительное ядро, ответственное за графические вычисления и дополнительные задачи, связанные с обработкой изображений. Зачастую это полноценный GPU, который, правда, не имеет собственной оперативной памяти и черпает ее из ОЗУ компьютера.

Наличие вспомогательного ядра, пусть и специализированного, существенно повышает общую шустрость кристалла, обеспечивая большую производительность в сравнении с обычными процессорами.

Количество физических ядер – определяет не только скорость обработки информации, но и количество одновременно выполняемых задач, с которыми ЦП может справляться без потери мощностей и троттлинга. Здесь ситуация весьма нестандартная по нескольким причинам:

  • большинство рабочих и офисных приложений задействуют от 1 до 4 ядер, а потому здесь на первое место выходит как раз частота чипа;
  • профессиональные приложения, способные использовать абсолютно все рабочие ядра, получают отличную возможность развернуться на полную катушку, обеспечивая высокую скорость работы.

Поддержка многопоточности (Hyper-Threading или SMT) – виртуальное удвоение вычислительных ядер для более грамотного распараллеливания задач в процессе работы.

Грамотное определение производительности

Предположим, что вы более-менее разобрались в ситуации, но все равно не можете понять, какой из процессоров лучше? Возьмем ту же ситуацию с Intel Core i7 8700k, который вполне реально разогнать до 4,9 ГГц на воздушном охлаждении, и AMD Ryzen 7 2700X и его 4,3 ГГц в режиме оверклокинга. Казалось бы – выбор в пользу «синих» очевиден, но на практике «красный» лагерь рвет и мечет.

И вот тут уже на помощь приходят те самые бенчмарки, тесты и сравнения двух популярных моделей в реальных рабочих приложениях и синтетике. Одним из наиболее наглядных вариантов выступает бенчмарк Cinebench r15, который показывает статистику модели как в стоке, так и под несколькими видами разгона:

  • автоматический;
  • ручной;
  • экстремальный (издевательства оверклокеров под жидким азотом).

Много полезной информации можно найти на профильных Youtube-каналах и ресурсах типа Sisoftware Sandra

Итоги

Как вы поняли из вышесказанного, тактовая частота – далеко не самый главный показатель мощности процессора, хоть и является основным. Производительность чипа зависит от совокупности нескольких величин, да и пользователь должен четко понимать, для каких целей используется тот или иной ЦП.

Очень надеюсь, что данный материал помог прокачать ваш скилл компьютерной грамотности, которым вы теперь можете поделиться с друзьями и знакомыми, когда речь зайдет о производительности системы и факторов на нее влияющих.

Обязательно прочтите другие наши публикации, в которых мы подробно описываем важные аспекты при выборе процессора. Следите за обновлениями блога, чтобы не пропустить новые интересные материалы. До новых встреч, пока.

С уважением, автор Андрей Андреев.

Мегагерц не ловится, ядра не растут. Что случилось с техническим прогрессом в ПК?

Привет, Гиктаймс! Даже если абстрагироваться от того, что человечество променяло исследование космоса на костюмы для собак и гаджеты, как говаривал Рей Брэдбери, остаётся впечатление, что и земной «король вычислительной техники», персональный компьютер, чувствует себя плохо. За счёт чего растёт производительность железа и как долго её удастся увеличивать в условиях, когда пресловутые ядра и гигагерцы топчутся на месте?



Проще всего живётся пессимистам — их не удивляют ни экономические проблемы, ни замедлившееся развитие техники, ни природные катаклизмы. Позитивно настроенным энтузиастам приходится тяжелее, потому что «хронические болячки» железа, пустяковые на первый взгляд, со временем встают в полный рост. Сегодня мы оценим темпы прогресса различных ПК-комплектующих и попытаемся предвидеть «революции» в технологиях, если таковые намечаются.

Процессоры — рост производительности по чайной ложечке в год

Как известно, чем ближе дедлайн — тем интереснее мыть посуду. Похожим образом выглядят беседы о доработке новых поколений CPU архитектуры x86.

— Как у вас, ребята, обстоят дела с процессорной производительностью? Она возросла?
— Вы знаете, у нас такая замечательная интегрированная графика!
— Чудесно, а производительность? Ну, та, которая процессорная?
— И энергопотребление, знаете ли, снизилось. Улучшим экологическую обстановку вместе!
— Что с быстродействием-то?!

— Мы тут раскопали компьютер пятилетней давности — в сравнении с ним наш новый процессор очень хорош!
— …


Помните, что на всякую «достаточную» производительность процессора рано или поздно найдётся своя Windows Vista

Было бы лукавством не отметить, что производительность CPU год от года всё же улучшается — бесполезная на заре своего появления интегрированная графика сегодня «отправила в могилу» все дискретные видеокарты начального класса, современные архитектуры процессоры обзаводятся поддержкой новых инструкций и за счёт этого «громят» предшественников в ряде задач (кодировании видео и аудио), да и производительность на такт растёт за счёт более умных систем предсказания ветвления, к примеру.

Но в повседневных задачах домашнего ПК (игры, браузер, обработка фото), так уж получается, новые процессоры чаще всего предлагают смехотворные +5% в сравнении с предшественником. Неудивительно, что производители CPU так искусно увиливают от сравнения пограничных архитектур «в лоб». И по этой же причине они пытаются выставить достижением возможность с горем пополам играть на интегрированной графикой в новые игры, будто пользователи компьютеров не «наелись» низкой частотой кадров со старой интегрированной графикой и старыми играми…

Не хотят или не могут? Сложный вопрос, ведь тот же Intel, с одной стороны, отважно пытается соблюдать закон соучредителя компании, Гордона Мура, согласно которому число транзисторов на интегральных схемах должно увеличиваться вдвое каждые пару лет. Но оказывается не в состоянии следовать такому наказу, потому как внедрение каждого нового техпроцесса происходит всё более болезненно, и физические ограничения размеров транзисторов очень лимитируют «простор для творчества» производителей чипов. При этом тактовая частота перестала расти сравнительно давно, и не из-за «сговора маркетологов», а в силу того, что с доработками суперскалярной архитектуры мегагерцы уже не могут быть настолько линейно масштабированным мерилом производительности, как в старые добрые времена. То есть, инструкции всё равно исполнялись за аналогичный промежуток времени, а разгон процессора оказывался «кукурузным», как любят говорить оверклокеры. Другое дело, что мультипоточность и рост ядер во младших моделях не внедряется по маркетинговым соображениям, но это расплата за символическую конкуренцию между двумя ведущими производителями процессоров.

Такая безрадостная перспектива всё же не мешает постепенному прогрессу поколений Intel Core (кстати, после относительно низкочастотных Skylake вот-вот нагрянут Skylake Refresh с гораздо более внушительными гигагерцами и действительно возросшей вслед за ними производительностью), но с символическим приростом производительности даже без жёсткой конкуренции со стороны «красных» рано или поздно придётся что-то делать. Одним из способов доработки CPU может стать внедрение программируемых транзисторов, то есть, чипы, способные работать нелинейным образом. Подобная идея звучит смело, хотя она ближе к реальности, чем кажется. Да только подобное начинание отнимет много времени и средств на разработку, а такой роскоши у сжимающейся индустрии ПК нет, и пока не предвидится.

Существует и консервативный вариант «тех же щей, да в высокий сосуд налей» — тот самый FinFET или вертикальные транзисторы, а затем и многослойные чипы с общей подложкой. Накопители смогли — и процессоры смогут! Кстати, о накопителях.

Накопители — много разных и хороших, но надёжные не все

Чудны дела твои, индустрия накопителей! Перед нами редкий в компьютерной индустрии пример соседства технологии прошлого (HDD) и текущего (SSD) поколений, причём соседство выдалось мирным за счёт разной специализации накопителей двух типов.


Слева направо — SSD эпохи NVM Express, твердотельные накопители времён SATA-III и жёсткие диски

После того, как SSD резко сбавили в цене, жёсткие диски переквалифицировались в «складские помещения», с которых не пристало спрашивать «а как у вас с техническим прогрессом?» или «не планируете ли улучшить производительность и время доступа-с?». Миссия HDD сегодня подобна той, которой следуют грузовые автомобили — оперировать огромными объёмами информации там, где на «легковых» SSD это сложно либо по финансовым соображениям, либо в силу быстрого износа памяти.

Два типа накопителей пытались так и эдак совмещать — Seagate, к примеру, по сей день выпускает гибридные SSHD, чуть более отзывчивые, чем традиционные жёсткие диски, но менее дорогие в сравнении с твердотельными накопителями. Существуют и примеры удачной программной консолидации SSD и HDD в единый логический том — Apple Fusion Drive, в котором операционная система самостоятельно распределяет часто используемые файлы во флэш-память, а невостребованные в долгосрочной перспективе данные — на менее скоростной жёсткий диск.

Что касается жёстких дисков в их классическом понимании, сегодня корпоративные клиенты вольны приобретать 3,5-дюймовые «винчестеры» ёмкостью 10 Тбайт. Революционная технология термомагнитной записи (HAMR), увы, пока остаётся светлым будущим без серийного воплощения.

По-настоящему классно по меркам компьютерных комплектующих развиваются твердотельные накопители — скорость растёт, память совершенствуется, контроллеры становятся производительнее, форм-факторы — миниатюрнее. Потенциал устаревшего интерфейса SATA-III новые SSD давно превзошли и теперь прогрессируют в менее «тесном» PCI-e (как правило, с четырьмя линиями для флагманских моделей) с протоколом NVMe.

Всё многообразие флэш-памяти сегодня подразделяется на MLC и TLC. Среди них MLC — быстрый и мейнстрим, а TLC — эконом-класс с чуть меньшим ресурсом перезаписи в твердотельных накопителях.
Терабайтные накопители перестали быть фантастикой, а главное опасение всех пользователей SSD — ресурс ячеек памяти, износ которых, в отличие от жёстких дисков, недвусмысленно и доступно отображается в диагностических утилитах. И, конечно, не все твердотельные накопители одинаково полезны, но в случае с Kingston жестокие марафонские тесты показали выносливость даже устаревшего ныне HyperX 3K на уровне двух петабайт (2 млн. Гбайт, дамы и господа) записанной информации. Таков ресурс качественного накопителя двухлетней давности. В современных SSD — от «народного» бестселлера UV400 до «супермодели» Predator с надёжностью дела обстоят как минимум не хуже.


Накопители — старая и новая «школы» под разные задачи

«Последний писк моды» в твердотельных накопителях — трехмерная флэш-память (которая не существует отдельно ото всех, а тоже подразделяется на TLC и MLC), то есть, вертикальная организация ячеек. Дорогое удовольствие и своеобразный хак, при котором у производителя появляется возможность использовать NAND на устаревшем техпроцессе для повышения ресурса накопителя. Язык не поворачивается назвать выносливость накопителя избыточной, но контроллер в SSD подобного типа в любом случае умрёт раньше, поэтому стоит ли мечтать об идеально сохранившемся теле, если мозг стареет в обычном режиме — вопрос открытый.

Оперативная память — удивительные приключения DDR4 в ноутбуках

Если в случае с процессорами и накопителями нам приходилось делать лирические отступления, мол «понимаете ли, вопрос индивидуальный, это ещё с какой стороны посмотреть…», то в случае с памятью есть жёсткий стандарт JEDEC (комитета инженерной стандартизации полупроводниковой продукции), которому все следуют так же, как спортсмены с самого начала придерживаются какой-то тактики.

Актуальный стандарт, DDR4 SDRAM, «вышел в народ» совсем недавно, в 2014 году, и пока очень далёк от своего потолка возможностей. К примеру, восьмислойная упаковка 16-гигабайтных кристаллов в чип позволит в будущем нарастить ёмкость модулей вплоть до 512 Гбайт. Да, это запас на будущее, но одной из самых приятных следствий DDR4 — удешевление больших объёмов RAM, а это не может не радовать. Производительность у нового типа DDR выше, а энергопотребление ниже, чем у предшественника (спасибо, товарищ капитан), да и с диагностикой неисправностей дела обстоят куда более радужно.

По-настоящему массовый переход на DDR4 состоялся осенью 2015 года, после анонса процессоров Intel Skylake. В десктопных ПК — вместе с переходом покупателей на новую платформу, тем более, что выбирать особо не приходилось. Дело в том, что для чипов Core шестого поколения Intel рекомендует либо память DDR3L, либо DDR4. Классическая и наиболее распространённая в десктопах DDR3 с процессорами сработаться в состоянии, но Intel не может гарантировать, что процессор (с его встроенным контроллером памяти) не будет повреждён от такого соседства.

А ещё примечателен факт, что знаменитая своими инновациями Apple до сих пор оснащает свои компьютеры разновидностями DDR3. Например, новейшие MacBook Pro довольствуются всего-то 16 Гбайт оперативной памяти LPDDR3E (улучшенная экономичная LPDDR3), что спровоцировало некоторую драму среди потенциальных покупателей модели. А всё дело в том, что Apple гонится за максимальной экономичностью всех комплектующих и по этой причине отказывается использовать «полнокровную» DDR4. А третьего варианта для мобильных процессоров Intel не предусмотрено — Skylake не дружит с LPDDR4, а DDR4L всё ещё находится в разработке. Поэтому мы и наблюдаем ситуацию, когда новейшие компьютеры довольствуются морально устаревшим стандартом RAM. Впрочем, Apple изготавливает свои ноутбуки «под ключ», без возможности апгрейда ОЗУ, поэтому либо покупатель смирился с конфигурацией до покупки, либо не компьютер, третьего не дано.
А во всех случаях, когда простор для апгрейда и подбора конфигурации есть, для успешной работы RAM нужны только высококачественные «банки» памяти и подобающая культура изготовления (куда же без неё?).


Оперативная память для ПК развивается поэтапно, зато с заметными нововведениями

У Kingston с этим порядок ещё с 1980 гг., когда память родом из Fountain Valley отправлялась в Mac, а затем и PC взамен менее качественных брендовых модулей. Сейчас на память Kingston предоставляется пожизненная гарантия, которая чаще всего не пригождается, потому что надёжность у модулей компании по-прежнему очень высока.
Следующее поколение оперативной памяти прибудет в компьютеры не ранее 2019 года и первоначально будет использоваться в серверах. Грядут многослойные микросхемы HBM.

Видеокарты. Техпроцесс — двигатель прогресса

Слишком объёмная тема для комплексной статьи, потому что видеокарты развиваются бурным образом, поэтому отметим тенденции последней пары лет.
Во-первых, графические ускорители робко, но целенаправленно движутся в сторону «играбельной» частоты кадров в разрешении 4K. Чаще всего именно этот фактор (а не кривые порты игр с консолей) побуждает разработчиков железа наращивать производительность, а покупателей — тратить новые средства на апгрейд видеоускорителя.

Вторая движущая сила — виртуальная реальность. Игры и тренажёры с максимальным погружением в процесс требуют запредельной детализации картинки, и это не вопрос качества графики, а комфортного самочувствия, потому что VR, в некотором роде, «обманывает организм» человека. От времени отклика и качества картинки зависит, насколько удобной для долговременного использования станет виртуальная реальность в домашнем варианте — плохая детализация тоже становится одной из причин тошноты, усталости и головных болей от использования VR.

Что касается конструкции видеокарт, два главных новшества последних лет — новые техпроцессы (16 нм FinFET у NVIDIA, 14 нм FinFET у AMD) взамен растянувшихся на долгие годы архаичных 28 нм, и новый тип памяти HBM, который пришёл на смену GDDR5.


Видеокарты претерпели значительные изменения в 2016 году

Уменьшилась полезная площадь кристалла и у разработчиков чипов «развязались руки» для наращивания производительности, поэтому не революционная в своей базе архитектура NVIDIA Pascal (доработанный по нескольким направлением Maxwell, знакомый нам по GTX 900 серии) резко прибавила в производительности, а видеокарты научились работать при небывало высоких тактовых частотах, в результате чего мы наблюдали «крышесносящую» девальвацию индексов предыдущих поколений. Например, GeForce GTX 980 оказался эквивалентен всего лишь GTX 1060. Как в старые добрые времена!

У AMD припасены немного другие «вкусности». Ещё в 2015 году на свет появились абсолютно новые видеокарты R9 Fury, в которых графический процессор и память были объединены в единый кластер. Причём сама память резко отличается от того, что мы привыкли видеть в GDDR какого-либо поколения: компактные многослойные экономичные чипы пока ещё не доведены до совершенства (чтобы бороться со значительным нагревом комплектующих AMD пришлось оснащать видеоускорители Fury водяным охлаждением), да и в новых Radeon RX 470/480 не используются, но производительность GDDR5 наращивать уже некуда и именно HBM приведет к новому скачку производительности видеокарт в будущем.

Следующим фактором прироста производительности станет использование низкоуровневых API, самые знаменитые из которых — Vulkan и DirectX 12, которые позволяют быть «ближе к железу», минуя привычные уровни абстракции. То есть, появится смысл реализовывать новые, более эффективные схемы рендеринга и распоряжаться памятью всех видеоускорителей в SLI как единым целым (правда, этому препятствует сама NVIDIA, когда отключает поддержку SLI у видеокарт среднего класса). А распространению DirectX 12 препятствует то, что он наличествует только в Windows 10, тогда как предпочтения пользователей ПК распределились несколько иначе. Разработчики игр пока тоже не спешат внедрять светлое будущее, поэтому главные достижения новых API мы увидим в недалёком будущем.

Живее всяческих «пост-устройств»

Персональный компьютер даже без взрывного прогресса по всем фронтам и пачке проблем, отложенных на потом, всё ещё выглядит царём горы — практичной, модульной, универсальной вычислительной машиной, которая способна «дать прикурить» любым легкомысленным устройствам так называемой эпохи пост-ПК.

Другое дело, что классическими десктопами перестали «забивать гвозди» и использовать их в любых сценариях работы, как это было раньше: экстремально трудоёмкими задачами занимаются рабочие станции, промежуточным звеном между устройством для генерации и потребления контента стали ноутбуки, планшеты и тонкие клиенты, к примеру. Да и в полку игровых консолей и их разновидностей прибыло (стим-машины, к примеру).
И было бы не совсем корректным сравнивать несравнимое, но как показала практика — там, где компьютер похудеет, планшетный компьютер отправится в могилу. Так пожелаем доброго здравия нашему последнему оплоту честной цифровой техники среди одноразовых гаджетов!

Даже если у вас уже есть SSD и новый вы пока приобретать не планируете, мы знаем, как вас порадовать к новому году. Оперативной памяти много не бывает, поэтому мы дарим вам 12% скидку на все доступные модели DDR4 Predator в сети Юлмарт. Вооружайтесь промо кодом GEEKPR16 и успейте купить высокоскоростную память до 31 декабря 2016 года. Для получения дополнительной информации о продукции Kingston и HyperX обращайтесь на официальный сайт компании. В выборе своего комплекта HyperX поможет страничка с наглядным пособием.

Через тернии к звёздам или как увеличивали производительность процессоров.

Этот материал написан посетителем сайта, и за него начислено вознаграждение. Почитал я тут про процессоры (смотри список литературы) и подумал, а почему бы мне самому не написать статью. Ну ладно не будем долго рассуждать начнём.

Итак, потребность в вычислительных средствах назрела у человечества давно. В начале появились механические арифмометры и прочие устройства, например, Чарльз Бебидж изобрёл в 1791г механический компьютер, но так и не смог его построить. Вообще говоря, эти устройства мало были похожи на современные компьютеры, хотя уже тогда появились некоторые принципы построения, используемые до сих пор (наличие оперативной памяти, двоичная система, выполнение программы).

Следующим шагом в развитии компьютеров стали электромеханические устройства, т.е. компьютеры, построенные на электромеханических реле. Об одном из создателей таких машин Конрада Цузе можно почитать на http://www.3dnews.ru/editorial/konrad_zuse. Уже тогда наметилась тенденция увеличивать частоты работы. Ведь очевидно чем быстрее выполняется одна операция (чем больше частота) тем быстрее выполняется вся задача (к слову сказать, это не всегда так, но об этом ниже). Тот же самый Цузе увеличил частоту своих машин с 1Гц до 22Гц и это для механических реле!!! (ох, наверное, та ещё «трещотка» была ).

Дальнейший рост частот был крайне сложен. К тому времени уже были изобретены электровакуумные лампы (к слову сказать, они были изобретены, до того как Цузе построил первую свою машину). Эти вычислительные машины могли работать на частотах уже порядка кологерц и даже 100кГц, т.е. 1000
— 100 000 операций в секунду, но эти машины занимали несколько комнат. Тем не менее, скачок по частоте существенный. Вот несколько примеров таких машин: ENIAK, Mark -1.

В 50х – 60х годах были изобретены полупроводниковые транзисторы. Первые транзисторы не выигрывали по частотным характеристикам у ламп, но существенно выигрывали у них по энергопотреблению и размерам. Компьютеры стали умещаться в 1-м шкафу и стали существенно дешевле (в место миллионов $ десятки тысяч $), а, следовательно, и доступнее. Кроме того, транзисторы дали предпосылку появления микросхем.

Итак, вот мы и подобрались к более менее близким родственникам современных ПК. Микросхема, по сути, это множество транзисторов. Уже в 1964г был построен первый компьютер на микросхемах. Кроме того микросхемы позволили увеличивать частоты, за счёт миниатюризации. Попробую пояснить на пальцах: как известно ток проводят электроны (хотя и не всегда) так вот чем больше транзистор, тем больше расстояние надо пролететь расстояние электрону и тем больше это у него займёт время. Если транзистор уменьшить то электрон будет быстрее пролетать заданное расстояние, а, следовательно, транзистор сможет работать на большей частоте. Поэтому при утоньшение тех процесса увеличивается частотный потенциал. К тому же в микросхеме меньше расстояние передачи сигнала и линии передача работают на высоких частотах. Например, советский микропроцессор КР580 работал на частоте 2МГц.

Поначалу процессор, память и шина между ними работали на одной частоте. Но частота процессора могла увеличиваться намного больше, чем его окружение, т.е. память не давала работать процессору на высокой частоте. Тогда инженеры придумали: а давайте сделаем частоту процессора кратной частоте работы системной шины, т.е. решили сделать коэффициент умножения. Что бы процессор мог работать на большей чем память частоте и при этом не зависеть от данных, у него появилась небольшая собственная память, работающая на той же частоте, что и он сам, и располагавшееся в самом процессоре. Чтобы ещё лучше согласовать работу процессора с памятью эта память была 2х уровневой. Вот так и появилась Кеш память L1 и L2. В некоторых процессорах L2 располагался не в процессоре, а около него и работал на частоте меньшей, чем процессор, но большей чем шина. Первым процессором с коэффициентом умножения стал i486DX2-50. Справедливости ради следует отметить, что кеш появился до появления множителя ещё в 486-м. Чем больше Кеш тем меньше вероятность что процессор будет простаивть в ожидании данных из оперативной памяти.

В современных процессорах транзистор может работать на частотах в десятки ГГц, но, тем не менее, процессоры не работают на таких частотах. Так в чём же дело? Давайте разбираться. Для объяснения этого феномена я построил небольшую схему в программе Micro-Cap десятичного счётчика. Так как схема содержит более 100 транзисторов то я её нарисую достаточно упрощённо.


схема десятичного счётчика

При достаточно низкой частоте все импульсы прямоугольные схема считает от 0, 1… до 9, а потом идёт 0.


(кликните по картинке для увеличения)
правильная работа счётчика
(кликните по картинке для увеличения)
неправильная работа счётчика

При увеличении частоты возникают ошибки (обведены красным кругом), эти ошибки возникают за счёт накопления ошибок в каждом каскаде. Что это значит? Это значит, что компьютер будет считать 2+2=13 или что-то в этом роде. Что это значит для пользователя? Это значит, что если вы переразогнали свой процессор то у вас не загружается виндовс, а если и загружается то зависает. Избежать этого можно 2мя способами: снизить частоту или увеличить напряжение питания, но при увеличении питания увеличивается выделяемая мощность. Проблему с мощностью мы ещё рассмотрим ниже.

Разработчики процессоров нашли интересный выход из этой ситуации: они придумали сделать конвейер. Разделим сложную операцию на несколько простых, и пусть одна простая выполняется за 1 такт, но этот такт можно сделать короче, т.е. увеличить частоту. Приведу пример выгоды конвейера из несколько другой области: сборка автомобиля на конвейере от начала до конца занимает несколько часов, но готовые автомобили выходят с конвейера каждую минуту. Примерно что-то в этом роде происходит и в современных процессорах, но есть пару моментов, о которых я расскажу ниже. Первым процессором с конвейером стал 486й. Он имел 5 стадий конвейера. Пентиум 3 имел 10 стадий. Пентиум 4 Northwood– 20 Prescott — 31. AMD K8 – 12. Дело в том, что в программе могут быть переходы, поэтому процессор должен правильно планировать исполнение операции. Если процессор спланирует неправильно, то сбросится весь конвейер и чем он длиннее, тем больше мы потеряем. Кроме того, в П4 был эффект Replay (более конкретно о нём можно почитать тут http://www.fcenter.ru/online.shtml?articles/hardware/processors/12033). Такие явления как сброс конвейера и Replay часто сводили на нет выигрыш от высокой частоты П4. В тестах П4 проигрывали процессорам АМД. Именно это явление заставило пересмотреть политику INTEL по дальнейшему увеличению частот за счёт увеличения конвейера и разработать процессор Core2Duo (Сonroe) с 14 стадиями конвейера.

Ещё одна причина не позволяющая увеличивать частоту это тепловыделение. Посмотрим на график выделяемой мощности в приведенной выше схемы:


(кликните по картинке для увеличения)
график выделяемой мощности

Из этого графика можно сделать следующие выводы:
1.Тепло выделяется только во время переходных процессов. Это связано с тем, что при логической единице ток, протекающий через транзистор мал, практически равен 0, а при логическом нуле напряжение на транзисторе мало. Как известно (ну если в школу на физику не забивали ) мощность равна произведению тока на напряжение P=I*U, таким образом, и при 0 и при 1, Р мало, но вовремя переходного процесса ни напряжение, ни ток не равны 0 и выделяется мощность. Чем больше частота, тем больше будет переходных процессов и тем больше будет выделяться тепла. Таким образом, потребляемая мощность растёт линейно от частоты.
2.Выбросы не всегда одинаковые. Это связано с тем, что в разные моменты времени переключается разное количество логических схем. Получается, что мощность не совсем по линейному закону растёт, а может отклоняться относительно этого закона.

Также мощность растёт с увеличением напряжения питания: P=U2/R, где R некое среднее сопротивление, которое зависит от технологии изготовления микросхемы.

Итак: мощность, выделяемая процессором, зависит от количества транзисторов их технологии изготовлении, от квадрата питающего напряжения и приблизительно линейно от частоты.

До сих пор я рассматривал увеличения производительности процессора только за счёт увеличения частоты, но что если нам выполнять за один такт не одну операцию, а несколько. Но как? Спросите вы, ведь программа должна выполняться последовательно. Поясню на примере:

1 С=A+B
2 E=N/M
3 F=C-E

Очевидно, что 1я и 2я операция не зависят друг от друга и их можно выполнить одновременно, а уж потом только 3ю операцию. Ещё пример
1 С=A+B
2 E=С/А
3 F=М-N

Здесь ещё интересней: одновременно можно выполнить 1ю и 3ю операцию и только потом 2ю, т.к. она зависит от 1й. Таким образом, мы получаем внеочередное исполнение команд или Суперскалярность. Теперь давайте посмотрим, как же этот принцип реализуется, но для начала посмотрим упрощённую структуру не суперсколярного процессора.


не суперскалярный процессор

Назначение Кешей L1 и L2 мы уже выяснили, хотя следует обратить на одну деталь: Кеш L1 для данных и для инструкций раздельный, просто так удобнее организовать работу процессора. Декодер необходим, чтобы перевести программный код стандартный для всех х86 процессоров в индивидуальный код данного процессора. Поясню подробнее: для выполнения какой либо операции необходимо в функциональном устройстве выполнить несколько операций: где-то что-то записать в какой либо регистр, перевести АЛУ (арифметико-логическое устройство, ALU, Arithmetic Logic Unit) в тот или иной режим и т. д. В каждом процессоре внутренние команды МОПы могут быть разные, но на вход поступают стандартные х86 инструкции, поэтому декодер просто необходим. Теперь рассмотрим суперскалярную архитектуру.


суперскалярный процессор

Здесь имеется N штук декодеров и М штук функциональных устройств. Декодеры преобразуют инструкции в МОПы. Эти МОПы поступают в буфер МОПов, где они дожидаются своего исполнения. Как только будут известны и загружены все операнды, и будет свободное функциональное устройство, операция будет выполнена в функциональном устройстве, а соответствующий ей МОП будет удалён из буфера МОПов.

При исполнении программного кода практически никогда не бывает ситуации, чтобы были задействованы все (или хотя бы большинство) исполнительных блоков процессора. Как правило, в среднем при работе процессора задействуется лишь треть доступных вычислительных ресурсов (оценка Intel), что, согласитесь, не рационально. Соответственно, возникла следующая мысль: если часть вычислительных блоков не занята текущей, исполняющейся в данный момент программой, нельзя ли их использовать для выполнения другой программы (либо другой нити этой же программы) в этот же момент времени? Так появилась технология Hyper Threading, используемая в П4 и представляющая одно физическое ядро как 2 логических. К сожалению, иногда получалось так, что при выполнении 2х процессов параллельно в 1 ядре уходило больше времени, чем, если бы эти процессы выполнялись последовательно. Виной тому был длинный конвейер П4 и Replay, которые загубили достаточно интересную технологию.

Когда потенциал одного ядра был исчерпан, инженерам пришла мысль сделать 2 ядра. Так появились у нас 2х ядерные процессоры, а потом появились и 4х ядерные процессоры.

Рассказ был бы неполным, если бы я не упомянул ещё о нескольких улучшениях. Во-первых, процессоры постепенно увеличивали свою разрядность. Само по себе увеличение разрядности не даёт увеличение производительности, большая разрядность даёт большую точность, но если надо выполнить операцию с большим количеством разрядов, то она разбивается на 2 операции: со старшей половиной и с младшей. Таким образом, увеличение разрядности всё-таки даёт небольшое увеличение производительности в некоторых приложениях. Современные процессоры 32х разрядные, хотя и считаются 64х битными, тем не менее, они полностью совместимы с 32х битными командами. Их 64х битность заключается в том, что некоторые регистры 64х битные и некоторые операции могут выполняться в 64х битном эквиваленте. В большинстве же приложений достаточно 32х бит.

Во-вторых, процессоры постоянно дополняются наборами команд. Одними из таких команд стали команды, которые позволяют работать с векторами: SSE, 3DNOW!

В общем, то на этом можно было бы закончить моё повествование, но пришла мне тут одна мысль, когда я смотрел на микроархитектуру Conroe.


структурная схема Conroe

Так вот данный процессор имеет 2 ядра, в каждом из которых 4 декодера, 3 АLU, 1 FPU (устройства работы с числами с плавающей запитой, когда-то был отдельный чип — сопроцессор), емкость буфера МОПов 96 микроопераций. Причём оба ядра находятся на одном кристалле. А что если сделать 1 ядро с 6 АLU, 2 FPU, емкость буфера МОПов 2*96=192 с технологией Hyper Threading. Стоп стоп, не надо меня кидать тухлые помидоры и яйца. Все конечно знают, что лучше 2 натуральных ядра, чем 2 логических, но для начала выслушайте мой идею. Во-первых, достаточна хорошая идея Hyper Threading была убита длинным конвейером П4, во-вторых, взгляните на рисунок:


структурная схема процессора, которую предлагаю я

Итак, у нас остаётся то же количество транзисторов, а значит то же тепловыделение и та же частота. Теперь посмотрим, что это нам даст:
1.Допустим, мы имеем 2 одинаковых потока. В этом случае наш процессор будет работать, так же как и 2х ядерный, т.е. каждому потоку будет отведены те же ресурсы.
2.Теперь предположим, что у нас имеется 1 поток, который преимущественно целочисленные операции, а второй поток использует операции с плавающей запетой. В случае 2х ядер у нас на первый поток будет 3 ALU, а на 2й 1 FPU. В случае же объедения ядер мы получим для первого процесса 6 АLU и 2 FPU для 2го, т.е. практически 2х кратный выигрыш и это при том же количестве транзисторов!
3.Допустим у нас 1 поток, тогда этому потоку будет предоставляться гораздо большие вычислительные и прочие ресурсы. Далеко не все процессы могут распараллеливаться на 2 ядра, так давайте же делать их в одном, но более мощном.
Теперь о недостатках. Я лично насчитал 3:
1.Маркетинговый – все знают, что 2 ядра лучше одного. К тому же не всем нравится Hyper Threading. О преимуществах я рассказал, поэтому думаю, что тесты смогут подтвердить выигрыш от этой архитектуры, да и маркетологи выкрутятся, не такое впихивали (представляю их лозунг: 1 умный лучше 2х дураков )
2.Объединение 2х кешей L1 может увеличить увеличение их латентности (задержки). Возможно, для каждого потока придётся делать свой Кеш. В принципе Я не думаю, что это серьёзно уменьшит производительность.
3.Трудность объединять 4 ядра или делать одноядерные не объединенные. Дело в том, что все блоки должны быть на одном кристалле. В общем-то сейчас, как Интел, так и АМД разрабатывают 4х ядерные процессоры на одном кристалле. По поводу уменьшения производительности для бюджетных систем я вижу следующий выход, делать в них меньше блоков. Допустим, так уже давно поступает, при изготовлении видеокарт среднего и низшего ценового диапазона. Просто берут ту же архитектуру что и в топе и делают меньше блоков.

Используемая литература:
1. /lab/show/15496/Razvitie_processorov_Intel_1971-1993
2. http://www.fcenter.ru/online.shtml?articles/hardware/processors/11103 4 части.
3. http://www.fcenter.ru/online.shtml?articles/hardware/processors/12033 Replay.
4. http://www.3dnews.ru/cpu/new_core_conroe/
5. http://www.ixbt.com/cpu/cpu-microarchitecture-part-1.shtml 3 части.
6.Вообще я перекопал намного больше, просто всего не вспомню, также я использовал личные знания по технике, полученные в институте, как – никак на радиоинженера учусь.

обсудить, сделать замечания, спрость интересующие вас вопросы можно тут
https://forums.overclockers.ru/viewtopic.php?p=4069349#4069349

61. Производительность процессора и методы ее увеличения

Производительность процессора можно увеличить за счет повышения плотности транзисторов — увеличения частоты такта.

Увеличение размера кэша также ведет к повышению производительности. Большую ставку производители делают на параллелизм вычислений.

Параллельная обработка, воплощая идею одновременного выполнения нескольких действий, имеет несколько разновидностей: суперскалярность, конвейеризация, SIMD – расширения, Hyper Threading, многоядерность.В основном эти виды параллельной обработки интуитивно понятны, поэтому сделаем лишь небольшие пояснения. Если некое устройство выполняет одну операцию за единицу времени, то тысячу операций оно выполнит за тысячу единиц. Если предположить, что есть, пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести единиц времени. Аналогично система из N устройств ту же работу выполнит за 1000/N единиц времени. Подобные аналогии можно найти и в жизни: если один солдат вскопает огород за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справятся с той же работой за 12 минут (параллельная обработка данных), да еще и с песнями (параллельная обработка команд).

Конвейерная обработка. Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой пары аргументов последовательно одна за одной до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых. Идея конвейерной обработки заключается в выделении отдельных этапов выполнения общей операции, причем каждый этап, выполнив свою работу, передавал бы результат следующему, одновременно принимая новую порцию входных данных. Получаем очевидный выигрыш в скорости обработки за счет совмещения прежде разнесенных во времени операций.

Суперскалярность. Как и в предыдущем примере, только при построении конвейера используют несколько программно-аппаратных реализаций функциональных устройств, например два или три АЛУ, три или четыре устройства выборки.

Hyper Threading.Перспективное направление развитие современных микропроцессоров, основанное на многонитевой архитектуре. Основное препятствие на пути повышения производительности за счет увеличения функциональных устройств – это организация эффективной загрузки этих устройств. Если сегодняшние программные коды не в состоянии загрузить работой все функциональные устройства, то можно разрешить процессору выполнять более чем одну задачу (нить), чтобы дополнительные нити загрузили – таки все ФИУ (очень похоже на многозадачность).

Многоядерность.Можно, конечно, реализовать мультипроцессирование на уровне микросхем, т.е. разместить на одном кристалле несколько процессоров (Power4). Но если взять микропроцессор вместе с памятью как ядра системы, то несколько таких ядер на одном кристалле создадут многоядерную структуру. При этом в кристалле интегрируются функции (например, интерфейсы сетевых и телекоммуникационных систем) для выполнения которых обычно используются наборы микросхем (процессорыMotorolaMPC8260,Power4).

Многоядерность — как способ увеличения производительности компьютера.

В идеальном варианте каждый поток инструкций утилизирует отведенное ему ядро процессора (и исполнительные блоки), что позволяет избежать конфликтных ситуаций и увеличить производительность процессора за счет параллельного выполнения потоков инструкций.

Говорить о том, что двухъядерные процессоры в два раза производительнее одноядерных, не приходится. Причина заключается в том, что для реализации параллельного выполнения двух потоков необходимо, чтобы эти потоки были полностью или частично независимы друг от друга, а кроме того, чтобы операционная система и само приложение поддерживали на программном уровне возможность распараллеливания задач. И в связи с этим стоит подчеркнуть, что сегодня далеко не все приложения удовлетворяют этим требованиям и потому не смогут получить выигрыша от использования двухъядерных процессоров. Должно пройти еще немало времени, чтобы написание параллельного кода приложений вошло в привычку у программистов, однако первый и самый важный камень в фундамент параллельных вычислений уже заложен. Впрочем, уже сегодня существует немало приложений, которые оптимизированы для выполнения в многопроцессорной среде, и такие приложения, несомненно, позволят использовать преимущества двухъядерного процессора.

Методы повышения производительности процессора | Микропроцессоры

В последние несколько лет появились технологии и методы повышения производительности процессора. Разработчики потратили много усилий на развитие усовершенствований, которыми мы пользуемся каждый раз, включая компьютер. В этой части главы речь пойдет о функциях, которые увеличивают производительность современных процессоров.

Суперскалярная архитектура

Программные инструкции (команды) обрабатываются электронными схемами, называемыми операционными блоками или исполнительными устройствами. Термин суперскалярная архитектура означает одновременное использование нескольких операционных блоков, что позволяет центральному процессору выполнять несколько инструкций за один машинный такт (цикл). Например, в процессоре Pentium Pro используются два операционных конвейера (их называют «U» и «V»). Это является формой многопроцессорности внутри самого центрального процессора, поскольку несколько часто выполняемых операций выполняются параллельно несколькими устройствами. Большинство современных процессоров являются суперскалярными на том или ином уровне. За счет сочетания конвейерной обработки команд с несколькими операционными блоками в суперскалярной архитектуре центрального процессора удается достигать чрезвычайно эффективного использования каждого машинного такта.

Конвейерная обработка

Центральный процессор обрабатывает команды и генерирует результат их выполнения посредством сложных серий переключений транзисторов внутри самого кристалла процессора (также как и в случае любой другой логической микросхемы). Первые процессоры выполняли последовательно одну команду за другой. Каждая команда выбиралась из памяти и полностью выполнялась, затем выбиралась следующая команда. Обработка могла занимать несколько машинных тактов (в зависимости от команды). Простые команды могли выполняться за 2 или 3 такта, а сложные команды требовали для своего выполнения от 2 до 7 тактов.

Конвейерная обработка (командный конвейер) позволяет начинать обработку следующей команды еще до окончания выполнения текущей команды. Таким образом, центральный процессор за один машинный такт может обрабатывать несколько команд.

Иными словами, в каждый такт в конвейере могут находиться несколько команд. Конвейерный метод обработки обеспечивает загрузку операционных блоков, не занятых обработкой текущей команды. В то же время центральный процессор может выдавать в каждом такте результат обработки только одной команды.

Суперконвейер

Как было сказано выше, команды обрабатываются в конвейере, каждая часть которого выполняет определенную операцию над командой. Если сделать конвейер более длинным (увеличить количество шагов обработки команды), то на каждом шаге обработки будет выполняться меньше работы (а значит и за меньший промежуток времени) и можно будет увеличить тактовую частоту процессора. Такая технология известна под названием суперконвейера и является усовершенствованием простого конвейера. Длина суперконвейера составляет до 10 шагов. Процессоры Intel Pentium 4 используют гиперконвейер длиной в 20 шагов. Увеличение длины конвейера накладывает ограничение на программу — чтобы исполняться наиболее эффективным образом, компиляторы должны учитывать особенности конвейерной архитектуры процессоров.

Спекулятивное выполнение и предсказание переходов

Некоторые процессоры обладают способностью одновременного выполнения нескольких команд. В ряде случаев не все результаты обработки этих команд будут использоваться, поскольку ветвление программы может привести к тому, что часть уже загруженных в конвейер команд не должна была исполняться. Такое часто наблюдается на участках программ вблизи команд условных переходов — где проверяется некоторое условие, и дальнейшее выполнение программы зависит от проверки выполнения этого условия (условный оператор в любом языке программирования). Ветвление программы представляет реальную проблему для конвейера команд, поскольку нет гарантии в том, что программа будет далее выполняться линейно (т.е. не будет выполнена команда перехода на другую часть программы). Менее «интеллектуальные» процессоры останавливают конвейер до того момента, когда будет известен результат проверки условия ветвления программы, что приводит к падению производительности. Более совершенные процессоры будут продолжать обрабатывать конвейер команд в предположении, что выполнение программы продолжится без ветвления.

Еще более совершенные процессоры обладают способностью предсказывать ветвление программы (с достаточно хорошей точностью) на основе анализа предыдущей истории выполнения данного участка программы. Механизм предсказания программных переходов улучшает обработку ветвлений программы. При этом используется специальная небольшая кэш-память, называемая целевым буфером ветвлений. Когда процессор обрабатывает команду перехода, то он запоминает информацию о ней в этой памяти. Если процессор в следующий раз встретит эту команду перехода, то он может уже «догадаться» (на основе записанной информации) о направлении ветвления программы в этом месте. Это позволяет не останавливать конвейер и повышает производительность процессора.

Динамическое выполнение команд

Даже самый быстрый процессор выполняет команды в том порядке, в котором они располагаются в конкретной программе. Это означает, что неправильно или неэффективно написанная программа будет снижать производительность центрального процессора. Во многих случаях даже хорошо написанная программа ухудшается в процессе ее трансляции в машинные команды. Метод динамического исполнения позволяет процессору оценивать последовательность команд программы и «выбирать» лучшую последовательность обработки команд. Например, команда 2 может быть выполнена раньше окончания обработки команды 1. Результаты же выполнения команд располагаются в первоначальномпорядке для обеспечения правильного выполнения программы. При неграмотном написании программы такое выборочное переупорядочивание команд позволяет процессору лучше использовать свои ресурсы, что повышает его производительность.

Переименование регистров и буфера записи

Методика переименования регистров используется для организации нескольких процессов обработки команд различными операционными блоками, пытающимися использовать одни и те же регистры. Вместо того чтобы довольствоваться единственным набором регистров, используется несколько наборов регистров. Это позволяет различным операционным блокам работать одновременно, без ненужных приостановок в работе конвейера. Буфера записи используются для хранения результатов выполнения команд до тех пор, пока эти результаты не будут опять переписаны в регистры или в память. Чем больше буферов записи, тем больше команд могут выполняться без остановки конвейеров.

Многопроцессорность

Многопроцессорность — это методика организации работы нескольких процессоров в одной системе. Идея состоит в удвоении производительности системы при использовании двух процессоров вместо одного, или повышении производительности в 4 раза при использовании 4-х процессоров и т.д. На практике дело обстоит не так просто, но в определенных условиях многопроцессорность улучшает производительность системы. Для эффективного использования многопроцессорности главный компьютер должен удовлетворять следующим требованиям:

> Поддержка со стороны системной платы. Системная плата должна располагать дополнительными процессорными разъемами для установки нескольких процессоров, а комплект микросхем должен обеспечивать управление многопроцессорной конфигурацией.

> Поддержка со стороны процессора. Процессоры должны быть приспособлены для работы в многопроцессорных системах. Для подбора соответствующих процессоров необходимо обратиться за помощью к документации на системную плату.

> Поддержка со стороны операционной системы. Многопроцессорные системы обслуживают такие операционные системы как Windows NT/2000/XP или UNIX. Windows 98 не поддерживает многопроцессорность.

Многопроцессорные компьютеры хороши для выполнения на них специального прикладного программного обеспечения. Многопроцессорный компьютер работает под управлением операционной системы, которая распределяет различные задачи по разным процессорам компьютера. Прикладные программы, написанные для многопроцессорного компьютера, должны состоять из отдельных потоков, которые могли бы выполняться независимо друг от друга. Это дает возможность операционной системе запускать их на разных процессорах одновременно и за счет этого увеличивать производительность компьютера в целом. Если же прикладное программное обеспечение не отвечает требованиям многопроцессорной системы, то такая система не даст преимущества (хотя операционная система сможет использовать дополнительные процессоры в том случае, когда необходимо выполнять несколько приложений одновременно).

Многопроцессорные системы могут быть асимметричными или симметричными. Эти термины характеризуют то, как операционная система распределяет задачи между процессорами компьютера. В асимметричных системах некоторые процессоры заняты выполнением только системных задач, а другие процессоры выполняют только прикладные программы. При жестком распределении процессоров по типам задач наблюдается снижение производительности в те периоды, когда компьютеру необходимо выполнять больше системных задач, чем прикладных или наоборот. Симметричная многопроцессор ность (SMP — symmetric multiprocessing) позволяет на любом процессоре выполнять любые задачи — системные или прикладные. Это более гибкий подход построения многопроцессорных систем, и он позволяет достичь большей производительности. Большинство многопроцессорных системных плат для персональных компьютеров предназначены для построения симметричных многопроцессорных систем.

Для того чтобы процессор мог работать в многопроцессорном компьютере в режиме SMP, он должен поддерживать многопроцессорный протокол, который определяет способ общения процессоров друг с другом и с системным комплектом микросхем. Процессоры Intel используют протокол SMP под названием «АР1С», а комплекты микросхем Intel, которые поддерживают многопроцессорность, разработаны для реализации этого протокола. Протокол APIC является патентованным стандартом компании Intel. Поэтому хотя процессоры AMD и Cyrix и являются совместимыми с процессорами Intel, они не могут использовать этот протокол в SMP-конфигурациях. Компании AMD и Cyrix разработали свой собственный SMP-протокол под названием «ОрепР1С».

Hyper-Threading

Intel объединила технологии гиперконвейера и многопроцессорности в одной из своих последних разработок — технологии Hyper-Threading1 (НТ). Процессоры с использованием НТ ведут себя как два независимых процессора. При этом они могут параллельно выполнять два потока команд за счет большой длины конвейера. Конечно, при этом производительность процессора не удваивается, но за счет сокращения простоя отдельных блоков процессора удается поднять производительность не менее чем на 30-40%, что дает существенный прирост в многозадачной среде. Следует заметить, что использование НТ может и снизить производительность, если оба виртуальных процессора будут все время конкурировать за исполнительные устройства единственного физического процессора. В частности, в некоторых случаях использование НТ может снизить производительность Microsoft SQL Server.

Мультимедийные расширения

С увеличением количества мультимедийных программ (графических приложений, презентаций и т.п.) для проведения интенсивных вычислений стало не хватать пропускной способности процессора. Возникла потребность в увеличении скорости выполнения некоторых вычислительных операций, необходимых для выполнения мультимедийных и коммуникационных приложений. В то время как эти операции составляют не более 10% объема программы, их выполнение занимало до 90% времени. Компании Intel и AMD стали состязаться в создании лучших «мультимедийных расширений» для своих процессоров.

ММХ. В 1996 году компания Intel ввела в процессоры семейства Pentium (назвав их «Pentium ММХ») реализацию 57 новых команд, назвав их мультимедийными расширениями (ММХ — multimedia extensions). ММХ-команды обрабатывают несколько элементов целочисленных данных параллельно, используя метод под названием «одна команда — много данных» (SIMD — Single Instruction Multiple Data). С помощью этой технологии процессор может обрабатывать одновременно большое количество данных, за счет чего уменьшается время обработки видео и звуковой информации, присутствующей в мультимедийных приложениях. Следующие модели процессоров Intel (Pentium I I/I I I/I V и Celeron) также поддерживают обработку набора ММХ^команд. Команды ММХ наиболее эффективны при обработке 2-х мерных изображений и звука.

3DNow. Компания AMD такж

Понравилось это:

Нравится Загрузка…

Похожее

Что такое производительность компьютера

Производительность компьютера или быстродействие – это скорость выполнения им операций. Производительность является комплексной величиной и напрямую зависит от комплектующих, из которых собран компьютер. Например, два компьютера при одинаковом процессоре, но при разных объемах оперативной памяти будут иметь разную производительность. Компьютер с 16 Гб оперативной памяти будет производительней компьютера с 8 Гб оперативной памяти. При работе компьютер постоянно считывает и записывает данные в сверхбыструю оперативную память и чем ее больше, тем больше данных он сможет хранить в ней для своей текущей работы, без обращения к медленному жесткому диску.

Или другой пример: компьютер с быстрым SSD винчестером (жестким диском) будет производительней компьютера с обычным жестким диском. SSD винчестер – это своего рода большая флешка, где скорость записи и считывания в разы быстрее скорости обыкновенного винчестера, за счет отсутствия движущихся частей и передовой технологии считывания/записи.

Так же и с центральным процессором PC: чем больше вычислительных ядер в нем и выше частота их работы, тем производительней будет компьютер.

От производительности компьютера зависит комфортность работы с ним. При небольшом объеме оперативной памяти компьютер может притормаживать, особенно если открыто несколько программ, а медленный винчестер не может обеспечить быструю загрузку операционной системы и быстрый запуск программного обеспечения по сравнению c SSD диском. Однако нужно понимать, чем производительней компьютер, тем он дороже. Теперь давайте разберем, как узнать производительность вашего компьютера.

Как узнать производительность компьютера

Есть много методик измерения производительности PC, но все они, так или иначе, вычисляют некое число или индекс производительности, который чем выше, тем быстрее компьютер. Существует достаточное количество программ, рассчитывающих производительность ПК, называемых бенчмарками (от англ. benchmark — «ориентир», «эталон»). Мы же воспользуемся штатным средством Windows, рассчитывающим индекс производительности.

Индекс производительности Windows

Чтобы узнать производительность вашего компьютера выполните следующее:

  1. Откройте Панель управления и выберите раздел «Система и безопасность».Система и безопасность
  2. В данном разделе выберите подраздел «Система»,подраздел «Система в котором можно узнать главные параметры вашего компьютера и общую оценку производительности, если он измерялся ранее.
  3. Чтобы рассчитать индекс или пересчитать его заново после замены комплектующих, нажмите на ссылку «Индекс производительности».Индекс производительности

В течение некоторого времени компьютер будет проверять быстродействие отдельных компонентов, на основе чего выведет общую оценку ПК и его компонентов по отдельности.

Оценка производительности компьютера

Чем выше общая оценка, тем производительней ваш компьютер. На скриншоте можно увидеть, что общая оценка дается по самому медленному компоненту, а именно по графической карте. Чтобы узнать подробнее щелкните в текущем окне по ссылке «Что означают эти цифры?».

Также здесь вы можете прочитать рекомендации по повышению производительности компьютера кликнув по одноименной ссылке.

Поделиться.

Еще по теме:

  • Какой должна быть температура процессора и как ее измерить?Какой должна быть температура процессора и как ее измерить? Высокие температуры оборудования, которое вы используете, являются лучшими индикаторами того, что что-то не так с вашей системой. Это особенно относится к процессору, который представляет […]
  • Ноутбук греется, перегревается и выключается. Почему это происходит и чем грозит перегрев ноутбукаНоутбук греется, перегревается и выключается. Почему это происходит и чем грозит перегрев ноутбука Конструктивные особенности ноутбуков вынуждают пользователей работать в близости от основных тепловыделяющих элементов системы. Даже если пользователь не держит ноутбук на коленях, то […]
  • Как зайти в BIOS компьютера?Как зайти в BIOS компьютера? При настройке компьютера нередко можно услышать совет обратиться к BIOS системы. Правда, при этом почему-то забывают описать процедуру, как туда войти. А ведь не каждый пользователь знает, […]
  • Что нужно знать о жестких дисках для компьютераЧто нужно знать о жестких дисках для компьютера Покупая персональный компьютер для дома или офиса, главное – подобрать грамотно жесткий диск. Покупателю, решившему приобрести компьютер, не помешает несколько советов. Любой жесткий диск […]
  • Что такое сокет? Основные сокеты процессоров AMD и IntelЧто такое сокет? Основные сокеты процессоров AMD и Intel Термин «сокет» представляет собой пассивную часть параметров процессора, но в то же время является важным показателем при сборке системы. В этом материале будет разобрано понятие сокет, а […]

Производительность компьютера

Казалось бы, вполне шустрый компьютер, который вначале полностью удовлетворял своими возможностями, со временем начинает тормозить. Что могло послужить причиной такого снижения производительности? Или бывает еще другая ситуация, когда нужно работать в очень ресурсоемких программах (играх), а компьютер их просто не тянет. В любом случае, перед пользователем встает проблема производительности ПК, которую нужно решать.

В этой статье мы рассмотрим основные причины, которые приводят к убавлению мощности и расскажем как повысить производительность компьютера.

Основными признаками медленной работы компьютера являются:

По пунктам:

  1. Долгое включение и такое же долгое выключение компьютера.
  2. Многие программы очень долго запускают, загрузка игр занимает очень много времени.
  3. Реакция курсора может не успевать за движениями мышки, притормаживать, или наблюдается поздняя реакция на клик.
  4. И другие признаки замедленной работы ПК, из-за которых пользователь начинает нервничать.

Что может быть причиной торможения компьютера?

Если компьютер тормозит, то причина (или сразу несколько причин) могут быть следующие:

  1. Плохая совместимость программного обеспечения, операционной системы, игр с конфигурацией «железа» самого компьютера.
  2. Большая фрагментация файловой системы, на жестком диске скопилось много программного хлама.
  3. Проблемы с операционной системой, сбои, неправильная настройка.
  4. Большое количество запущенных служб, в которых нет необходимости.
  5. Заражение компьютера вредоносным программным обеспечением.
  6. Программные конфликты (между драйверами, антивирусами и др.).
  7. Плохая терморегуляция, выход из строя кулера, засорение радиаторов.
  8. Нарушение основных параметров в BIOS.

Как решить эту проблему и повысить производительность компьютера?

Существует множество способов, позволяющих ускорить работу компьютера. Мы предлагаем десять методов улучшения работы ПК, показавших свою эффективность на практике.

  1. Апгрейдим «железо».
  2. Чистка внутренностей, ремонт неисправных элементов системы охлаждения.
  3. Очищаем жесткий диск от всего ненужного, выполняем дефрагментацию.
  4. Переустанавливаем операционную систему.
  5. Оптимизируем работу ОС.
  6. Настраиваем BIOS.
  7. Отключаем все лишнее, контролируем автозагрузку.
  8. Выполняем обновление драйверов.
  9. Устанавливаем операционную систему соответствующую нашему ПК.
  10. Чистим систему от вирусов.

Далее, для лучшего понимания, мы дадим более подробное описание каждого из этих пунктов. Но для начала, нам необходимо узнать производительность своего компьютера.

Определяем производительность

В операционной системе Windows 7 уже встроена специальная функция для проверки производительности системы и быстродействия компьютера.

Откройте меню «Пуск» и в специальном поисковом поле (оно находится внизу меню) введите «произ», как это показано на рисунке.proizvoditelnost-kompyuteraproizvoditelnost-kompyutera

Среди результатов поиска будет программа «Повышение производительности компьютера». Запустите ее и откроется следующие окно.proizvoditelnost-kompyutera-1proizvoditelnost-kompyutera-1

Снизу сделайте клик по кнопке «Повторить оценку». Программа начнет анализировать продуктивность вашей системы и по завершению выдаст результаты, по которым можно будет сделать вывод о быстродействии компьютера.производительность компьютерапроизводительность компьютера

После этого можно приступать к повышению производительности компьютера выбранными способами.

Апгрейдим комплектующие компьютера

У многих, кто является «счастливым» обладателем тормозящего компьютера, возникает стойкое желание заменить его чем-нибудь по мощнее. Но мы не станем двигаться в этом направлении, оно подходит только для серьезно устаревающих компьютеров. В большинстве случаев достаточно заменить только один или несколько слабых элементов, чтобы вся система снова начала летать — этот способ будет намного дешевле, чем покупка нового ПК.

  • Центральный процессор. Смысл замены «камня» будет действительно оправдан, только если новый намного превзойдет старого по мощности, не менее чем на 30%. Иначе вы не почувствуете серьезной разницы, но зато потратите много денег.

Любители риска могут попытаться разогнать центральный процессор. Этот способ подойдет не многим, ведь далеко не каждый ЦП может разгоняться. Зато в случае успеха, покупку нового «камня» можно отложить еще на год другой. Читайте наши рекомендации по выбору процессора. Суть этой операции заключается в повышении напряжения на центральном процессоре, и тем самым увеличение его тактовой частоты. Сама операция достаточно рискованная и далеко не для всех процессоров, в некоторых случаях можно просто вывести из строя ЦП, или значительно сократить срок его службы.

  • Оперативная память. Ее никогда не бывает много, можете смело увеличивать объем памяти. Тем более она стоит достаточно дешево. Когда компьютер сильно загружен, откройте диспетчер задач на вкладке быстродействия и посмотрите уровень используемой памяти. Если он превышает 80%, то можете увеличивать память в полтора два раза.zagruzka_operativnoy_pamyati-minzagruzka_operativnoy_pamyati-min
  • Винчестер. И суть тут вовсе не в его объеме и количестве свободного места. Основная фишка быстродействия жесткого диска заключается в скорости вращения его мотора. К примеру, мы имеем диск со скоростью 5400 оборотов и заменяем него на диск со скоростью 7200 оборотов. Это намного более ощутимо добавит скорости для систем, особенно скорости записи/чтения. Многие пользователи остаются очень довольными после замены своего жесткого диска на SSD накопитель, прочитайте как оптимизировать SSD диск под Windows 7.
  • Видеокарта. Большинству понятно, что для более реалистичной графики в играх необходимо иметь мощный видеоадаптер. Так что, если ваша видеокарта не может похвастаться хорошей производительностью, меняйте на новую, которая гораздо превосходит ее по мощности. Главное – нужно учитывать, что для мощной видеокарты нужен и мощный процессор.

Чтобы приблизительно определить слабые места системы, воспользуйтесь встроенной функцией оценки производительности компьютера, о которой мы уже рассказывали выше. Определить «слабое звено» можно по оценкам, которые выводятся после проверки производительности. Там, где самая низкая оценка, в том направлении и необходимо увеличивать мощность ПК. К примеру, если возле скорости обмена данными на диске стоит самая низкая оценка, то стоит задуматься о покупке более шустрого жесткого диска.

Чистка внутренностей, ремонт неисправных элементов системы охлаждения

Различные неисправности в системе охлаждения также способны существенно замедлить работу всей системы. Если ломается кулер на центральном процессоре, то это привод к его перегреву и снижению тактовой частоты.

Перегрев вообще опасная штука и возникать может даже при исправной системе охлаждения. Возьмите, снимите крышку со своего системного блока, посмотрите сколько там пыли. Она не просто покрывает все поверхности, но и плотно забивается во все радиаторы и оседает на лопастях кулеров. Пыль выступает таким себе теплоизолятором, который приводит к перегреву. Очень аккуратно почистите системный блок и вам удастся увеличить скорость работы компьютера, а также продлить срок службы его компонентов и избавиться от главного рассадника различных аллергенов и бактерий — пыли.

Очищаем жесткий диск от всего ненужного, выполняем дефрагментацию

Те, кто впервые слышит термин «дефрагментация», должны понять, что это самое первое что нужно делать для повышения производительности системы. Дефрагментация позволяет собирать различные фрагменты программ, которые находятся в разных частях жесткого диска, в одну кучу. Благодаря этому, считывающему устройству винчестера не нужно выполнять много лишних перемещений по дискам, ведь все находится в одном месте. Таким образом и повышается производительность.

Кроме того, нужно избавиться от лишней информации и всякого программного хлама, который накапливается на диске со временем работы. Особенно это важно, когда в разделе операционной системы практически нет свободного места. Если места менее 2 Гб, система теряет свою производительность. Так что не перегружайте диск и старайтесь, чтобы на нем было процентов тридцать свободного места, если это конечно возможно.

Переустанавливаем операционную систему

Этот шаг почти всегда помогает увеличить скорость работы компьютера. В некоторых случаях, производительность может увеличиться в три раза. Просто такова суть операционной системы, со временем в ней накапливаются различные ошибки, она забивается ненужными службами, которые даже выполняют серьезные изменения в самой системе. Это и многое другое приводит к ухудшению скорости работы компьютера, на многие операции теперь требуется гораздо больше времени.

Если тщательно следить за чистотой системы и ничего туда не устанавливать, то можно годами пользоваться одной и той же Windows. Но чаще всего, на компьютере постоянно происходит движение: устанавливаются и удаляются программы, обновляются драйвера, загружаются большие объемы различной информации — в таких условиях система постепенно начинает «тупить». Лучше всего, для профилактики, где-то раз в год форматировать диск и с чистого листа устанавливать новую операционную систему.

Оптимизируем работу ОС

Мы недавно делали подборку лучших программ для оптимизации компьютера, ибо правильно настроенная и оптимизированная система – главный залог быстродействия работы компьютера! Настройку системы, быстро и без лишних заморочек, можно произвести с помощью специальных утилит. Например, с этими задачами неплохо справляется AeroTweak.

Хорошо себя показала программа PCMedic. Главная фишка этой утилиты, это полная автоматизация всех операций. Нужно только выбрать подходящие параметры и запустить процесс настройки.

Программа состоит только из одного главного окна. Тут мы выбираем свою операционную систему, тип центрального процессора (например, Intel или AMD), дальше нужно выбрать один из двух способов оптимизации — Heal (очистка системы), либо Heal & Boost (кроме очистки выполняется еще и ускорение). После того, как выберите все параметры нажмите на кнопочку «Go» – программа выполнит все необходимые изменения.pcmedic-minpcmedic-min

Есть еще одна программа, которая может похвастаться воистину мощным функционалом — Ausloqics BoostSpeed, к сожалению, платная. Она состоит из нескольких утилит, позволяющих выполнять оптимизацию системы практически во всех направлениях. Используя это приложение можно провести дефрагментацию, почистить файловую систему, очистить реестр, увеличить скорость работы интернета и еще много другого. Программа обладает встроенным советчиком, который помогает определить приоритетные направления в оптимизации системы. Хотя рекомендую слепо не доверяться советчику и смотреть, действительно ли эти все действия вам необходимы.

Для того, чтобы чистить систему от всякого хлама, существует множество специальных приложений для очистки. Например, хорошим помощником может оказаться Ccleaner. Он способен почистить диск от ненужных, временных фалов и выполнить очистку реестра. Благодаря удалению ненужных файлов, можно увеличить количество свободного места на жестком диске. А вот при чистке реестра, особого повышения производительности не наблюдается. Зато если будет случайно удален какой-нибудь важный параметр, система начнет выдавать ошибки и это может привести к серьезным сбоям.

ВНИМАНИЕ! Перед тем, как выполнять все эти действия, настоятельно рекомендуется создать точку восстановления!

ВСЕГДА смотрите файлы, которые удаляют утилиты для очистки системы. Бывают случаи безвозвратного удаления нужных и даже важных файлов, которые программы ложно приняли за ненужные, или временные файлы.

Пользователи Windows 7 могут немного улучшить скорость работы компьютера при помощи упрощения графического интерфейса. Что бы это сделать откройте Панель управления и зайдите в раздел «Система» откройте пункт «Дополнительно» и выберите «Параметры». Здесь снимаем часть ненужных флажков, либо устанавливаем переключатель в положение для обеспечения наилучшего быстродействия.visualnyie_effektyi-minvisualnyie_effektyi-min

Настраиваем BIOS

В БИОСе хранятся параметры компьютера, отвечающие за оборудование, загрузку ОС, время и других ключевые элементы. Чтобы попасть в параметры BIOS, в процессе включения ПК, перед загрузкой самой операционной системы, нажмите клавишу Del, F2 или другую (это зависит от производителя материнской платы, обычно название клавиши отображается на экране). Чаще всего настройки БИОСа не вызывают никакого снижения производительности и туда даже не стоит лазить. Но в редких случаях, при неправильных критических параметрах, ваш компьютер может начать тормозить.

Если сомневаетесь в правильности настроек, но не знаете какие нужно указать, то можете воспользоваться опцией автоматической настройки оптимальных параметров «Load Optimal Settings» (название функции может быть иным, в зависимости от производителя). После этого сохраните все настройки и выполните перезагрузку компьютера.

Отключаем все лишнее, контролируем автозагрузку

В наше время практически каждая программа пытается прописать себя в автозагрузку. И это не слишком весело для вашей системы. Постепенно, программы в автозагрузке накапливаются и их всех надо запускать, при каждом старте системы. Из-за этого компьютер очень долго включается и выключается. Дополнительно, после автозагрузки, все эти приложения остаются в рабочем состоянии, пожирая ресурсы. Вы только взгляните сколько на панели задач (возле часов) ненужных значков, разве вы их используете? Поэтому, лучше всего удалять ненужные приложения, или хотя бы отключать для них автозагрузку.

Что бы посмотреть все приложения, которые стартуют вместе с Windows, и отключить лишние, одновременно зажмите две клавиши Win+R и в следующем окошке напишите msconfig, затем нажмите Enter. Появится окошко конфигурацией системы, теперь перейдите в раздел автозагрузки. Здесь будет находиться список приложений, стоящих в автозагрузке. Просто снимаете галочки со всех, которыми не пользуетесь. В случае чего, программу всегда можно вернуть в автозагрузку, установив нужную галочку. Главное иметь представление, что это за программы и какое их назначение.msconfig-minmsconfig-min

В самых крайних случаях, можно отключить антивирус, и система немного разгрузится. За счет этого повысится производительность. Но этого не стоит делать, когда вы находитесь в интернете, или устанавливаете новые программы, потому что есть риск заражение вирусами.

Выполняем обновление драйверов

Этот шаг может дать нужных эффект, если установлены устаревшие драйвера или те что установились вместе с системой. Больше всего может влиять драйвер для материнской платы, хотя и другие неплохо воздействуют на скорость работы.

Надежнее всего вручную выполнять обновление драйверов. Но самые ленивые могут воспользоваться специальными утилитами, которые способны сами определять необходимые драйвера, находить их в интернете и устанавливать. Например, можно воспользоваться Drover Checker.driver_checker-mindriver_checker-min

Устанавливаем операционную систему соответствующую нашему ПК

Если у вас мощный компьютер, с 2 Гб оперативной памяти и вы используете Windows XP, то стоит задуматься о переходе на «семерку», после этого сразу почувствуете положительную разницу. А если на компьютере двухъядерный процессор и 4 Гб памяти (а может даже больше), то необходимо использовать 64х разрядную Windows 7. Все это к тому, что если компьютер мощный, то не надо стесняться устанавливать ОС специально рассчитанную на такое «железо», тем более современные системы намного лучше расходуют ресурсы по сравнению со своими предшественниками.

И да, избегайте кустарных сборок Windows, таких как Zver и тому подобных. Используйте исключительно чистые, оригинальные дистрибутивы.

Чистим систему от вирусов

Не обращайте внимание на то, что этот пункт стоит под номером десять. На самом деле это одна из самых распространенных причин медленной работы компьютера. Если заметили, что компьютер внезапно начал долго «думать», срочно выполните сканирование на наличие вредоносного ПО. Лучше всего выполнить сканирование системы штатным антивирусом (например, Антивирусом Касперского), а затем просканировать дополнительными антивирусными утилитами, типа Dr. Web CureIt, AVZ и др. Также будет интересно как удалить вирус с компьютера бесплатно

Вот и все основные способы, позволяющие увеличить быстродействие компьютера. В многих следующих статьях, мы будем еще неоднократно затрагивать проблему производительности системы и все эти рекомендации будут рассмотрены еще более подробно, со всеми тонкостями. Ну а на сегодня все, если возникнут вопросы – можете смело задавать их в комментариях к статье.

Leave a comment