Бутылочное горлышко процессор. Бутылочное горлышко: Эволюция проблемы «узких мест» в ПК. Кроме наблюдения за производством, для выявления узких мест используются такие инструменты

FX против Core i7 | Ищем узкие места с конфигурацией Eyefinity

Мы видели, как каждые три-четыре года производительность процессоров удваивалась. И всё же самые требовательные игровые движки, которые мы тестировали, также стары, как процессоры Core 2 Duo. Естественно, узкие места со стороны CPU должны были уйти в прошлое, верно? Как оказалось, скорость GPU растёт ещё быстрее, чем производительность центрального процессора. Таким образом, спор о покупке более быстрого CPU или наращивании графической мощности продолжается.

Но всегда настаёт момент, когда спорить бессмысленно. Для нас он настал, когда игры начали плавно работать на самом большом мониторе с родным разрешением 2560x1600. И если более быстрый компонент сможет обеспечить в среднем 200, а не 120 кадров в секунду разница всё равно не будет заметна.

В ответ на отсутствие более высоких разрешений для быстрых графических адаптеров, AMD представила технологию Eyefinity, а Nvidia – Surround. Обе технологии позволяют играть более чем на одном мониторе, и для GPU high-end класса работа на разрешении 5760x1080 стала объективной реальностью. По сути, три дисплея с разрешением 1920x1080 обойдутся дешевле и впечатлят вас больше, чем один экран на 2560x1600. Отсюда появилась причина дополнительно потратиться на более мощные графические решения.

Но действительно ли необходим мощный процессор, чтобы играть без "тормозов" на разрешении 5760x1080? Вопрос оказался интересный.

Недавно AMD представила новую архитектуру, и мы купили боксовый FX-8350 . В статье "Обзор и тест AMD FX-8350: исправит ли Piledriver недостатки Bulldozer?" в новом процессоре нам понравилось многое.

С экономической точки зрения, в этом сравнении Intel придётся доказать, что он не только быстрее чипа AMD в играх, но и оправдывает высокую разницу в цене.


Обе материнские платы относятся к семейству Asus Sabertooth, однако за модель с разъёмом LGA 1155 компания просит более высокую цену, что ещё усложняет положение Intel по части бюджета. Мы специально выбрали эти платформы, чтобы сравнение производительности было максимально справедливым, при этом стоимость в расчёт не принималась.

FX против Core i7 | Конфигурация и тесты

Пока мы ждали появления в тестлабе FX-8350 , провели тесты боксового . Учитывая, что процессор AMD без проблем достигает 4,4 ГГц, мы начали тестирование чипа Intel на такой же частоте. Позже выяснилось, что мы недооценили наши образцы, поскольку оба CPU достигли 4,5 ГГц на выбранном уровне напряжения.

Нам не хотелось откладывать публикацию из-за повторного тестирования на более высоких частотах, поэтому было решено оставить результаты тестов на частоте 4,4 ГГц.

Тестовая конфигурация
CPU Intel Intel Core i7-3770K (Ivy Bridge): 3,5 ГГц, 8 Мбайт общего кэша L3, LGA 1155 разгон до 4,4 ГГц на 1,25 В
Материнская плата Intel Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Кулер CPU Intel Thermalright MUX-120 w/Zalman ZM-STG1 Paste
CPU AMD AMD FX-8350 (Vishera): 4,0 ГГц, 8 Мбайт общего кэша L3, Socket AM3+ разгон до 4,4 ГГц на 1,35 В
Материнская плата AMD Asus Sabertooth 990FX, BIOS 1604 (10/24/2012)
Кулер CPU AMD Sunbeamtech Core-Contact Freezer w/Zalman ZM-STG1 Paste
Сеть Встроенный контроллер Gigabit LAN
Память G.Skill F3-17600CL9Q-16GBXLD (16 Гбайт) DDR3-2200 CAS 9-11-9-36 1,65 В
Видеокарта 2 x MSI R7970-2PMD3GD5/OC: GPU, 1010 МГц GDDR5-5500
Накопитель Mushkin Chronos Deluxe DX 240 Гбайт, SATA 6 Гбит/с SSD
Питание Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUS Gold
ПО и драйвера
Операционная система Microsoft Windows 8 Professional RTM x64
Графический драйвер AMD Catalyst 12.10

Благодаря высокой эффективности и быстрой установке, уже несколько лет мы используем кулеры Thermalright MUX-120 и Sunbeamtech Core Contact Freezer. Однако монтажные скобы, которые идут в комплекте с этими моделями, не взаимозаменяемы.


Модули памяти G.Skill F3-17600CL9Q-16GBXLD имеют характеристику DDR3-2200 CAS 9, и используют профили Intel XMP для полуавтоматической конфигурации. Sabertooth 990FX использует значения XMP через Asus DOCP.

Блок питания Seasonic X760 обеспечивает высокую эффективность, необходимую для оценки различий платформ.

StarCraft II не поддерживает технологию AMD Eyefinity, поэтому мы решили использовать более старые игры: Aliens vs. Predator и Metro 2033.

Конфигурация тестов (3D-игры)
Aliens vs. Predator с использованием AvP Tool v.1.03, SSAO/тесселяция/тени вкл.
Тестовая конфигурация 1: качество текстур High, без AA, 4x AF
Тестовая конфигурация 2: качество текстур Very High, 4x AA, 16x AF
Battlefield 3 Режим кампании, ""Going Hunting"" 90-секунд Fraps
Тестовая настройка 1: качество Medium (без AA, 4x AF)
Тестовая настройка 2: качество Ultra (4x AA, 16x AF)
F1 2012 Версия Steam, встроенный бенчмарк
Тестовая настройка 1: качество High, без AA
Тестовая настройка 2: качество Ultra, 8x AA
Elder Scrolls V: Skyrim Обновление 1.7, Celedon Aethirborn уровень 6, 25-секунд Fraps
Тестовая настройка 1: DX11, уровень детализации High без AA, 8x AF, FXAA вкл.
Тестовая настройка 2: DX11, уровень детализации Ultra, 8x AA, 16x AF, FXAA вкл.
Metro 2033 Полная версия, встроенный бенчмарк, сцена "Frontline"
Тестовая настройка 1: DX11, High, AAA, 4x AF, без PhysX, без DoF
Тестовая настройка 2: DX11, Very High, 4x AA, 16x AF, без PhysX, DoF вкл.

FX против Core i7 | Результаты тестов

Battlefield 3, F1 2012 и Skyrim

Но сначала давайте взглянем на энергопотребление и эффективность.

Энергопотребление не разогнанного FX-8350 по сравнению с чипом Intel не так и ужасно, хотя фактически оно выше. Однако на графике мы не видим картину в целом. Мы не видели, чтобы чип работал на частоте 4 ГГц при постоянной нагрузке на базовых настройках. Вместо этого, при обработке восьми потоков в Prime95 он уменьшил множитель и напряжение, чтобы остаться в пределах заявленного теплового пакета. Троттлинг искусственно сдерживает энергопотребление CPU. Установка фиксированного множителя и напряжения заметно повышает этот показатель у процессора Vishera при разгоне.

В то же время, не все игры могут задействовать возможность процессора FX-8350 обрабатывать восемь потоков данных одновременно, следовательно, они никогда не смогут довести чип до срабатывания механизма троттлинга.

Как уже отмечалось, во время игр на не разогнанном FX-8350 троттлинг не активируется, поскольку большинство игр не могут полностью загрузить процессор. На самом деле, игры выгодно используют технологию Turbo Core, повышающую частоту процессора до 4,2 ГГц. Хуже всего чип AMD показал себя на диаграмме средней производительности, где Intel заметно выходит вперёд.

Для диаграммы эффективности мы используем среднюю потребляемую мощность и среднюю производительность всех четырёх конфигураций в качестве среднего показателя. В этой диаграмме производительность на ватт процессора AMD FX-8350 составляет примерно две трети от результата Intel .

FX против Core i7 | Сможет ли AMD FX догнать Radeon HD 7970?

Когда мы говорим о неплохом и доступном железе, любим использовать такие фразы как "80% производительности за 60% стоимости". Эти показатели всегда очень честные, поскольку у нас уже вошло в привычку измерять производительность, потребляемую мощность и эффективность. Однако в них учитывается стоимость только одного компонента, а компоненты, как правило, в одиночку работать не могут.

Добавив компоненты, использованные в сегодняшнем обзоре, цена системы на базе Intel возросла до $1900, а платформы AMD до $1724, это без учёта корпусов, периферии и операционной системы. Если рассматривать "готовые" решения, то стоит добавить ещё примерно $80 за корпус, в итоге получаем $1984 у Intel и $1804 у AMD. Экономия на готовой конфигурации с процессором AMD составляет $180, в процентном соотношении от общей стоимости системы это немного. Другими словами, остальные компоненты персонального компьютера high-end класса преуменьшают значение более выгодной цены процессора.

В итоге у нас остаётся два абсолютно предвзятых способа сравнения цены и производительности. Мы открыто признались, поэтому надеемся, что нас не будут осуждать за представленные результаты.

Для AMD выгоднее, если мы включим только стоимость системной платы и CPU и увеличим выгоду. Получится такая диаграмма:

В качестве третьей альтернативы можно рассматривать материнскую плату и процессор в качестве апгрейда, предполагая, что корпус, блок питания, память и накопители остались от прошлой системы. Вероятнее всего, пара видеокарт Radeon HD 7970 в старой конфигурации не использовалась, поэтому разумнее всего брать в расчёт процессоры, системные платы, и графические адаптеры. Таким образом, к списку мы добавляем две видеокарты с GPU Tahiti за $800.

AMD FX-8350 выглядит выгоднее чем Intel (особенно в играх, на выбранных нами настройках) лишь в одном случае: когда остальная часть системы "бесплатная". Поскольку остальные компоненты не могут быть бесплатными, FX-8350 тоже не сможет стать выгодным приобретением для игр.

Intel и видеокарты AMD

Результаты наших тестов уже давно показали, что графические чипы ATI более процессорозависимы, чем чипы Nvidia. В результате, при тестировании GPU high-end класса, мы оснащаем наши тестовые стенды процессорами Intel, обходя недостатки платформы, которые могут помешать изоляции графической производительности и неблагоприятно сказаться на результатах.

Мы надеялись, что выход AMD Piledriver изменит ситуацию, но даже нескольких впечатляющих усовершенствований оказалось недостаточно, чтобы команда разработчиков CPU сравнилась с эффективностью команды разработчиков графических решений в самой AMD. Что же, подождем выхода чипов AMD на базе архитектуры Steamroller, которая обещает быть на 15% производительнее Piledriver.

При сборке игрового ПК самой дорогой частью является видеокарта, и хочется, чтобы она по полной отрабатывала свои деньги. Тогда встает вопрос: какой надо выбрать процессор для этой видеокарты, чтобы он не ограничивал ее в играх? В этой дилемме вам поможет наш специально подготовленный материал.

Введение

Так выходит, что главным в компьютере является процессор и он командует всем остальным. Именно он и дает распоряжения вашей видеокарте об отрисовке тех или иных объектов, а также рассчитывает физику объектов (даже с некоторые операции считает процессор). Если видеокарта не работает на полную мощь, а процессор уже не может быстрее, то возникает эффект «бутылочного горлышка» (bottleneck), когда производительность системы ограничивается самым слабым ее компонентом.

В реальности всегда есть операции, когда видеокарта вообще не напрягается, а проц пашет на полную, но мы здесь говорим об играх, так что будем рассуждать в этой парадигме.

Как распределяется нагрузка между процессорами и видеокартой?

Надо отметить, что с изменением настроек в игре меняется соотношение загруженности процессора и видеокарты.

При увеличении разрешения и настроек графики нагрузка на видеокарту возрастает быстрее, чем на процессор. Это значит, что если на более малых разрешениях процессор не является бутылочным горлышком, то и на более больших тоже не будет.

С уменьшением разрешения и настоек графики все наоборот: нагрузка на процессор при просчете одного кадра почти не меняется, а видеокарте становится значительно легче. В такой ситуации процессор с большей вероятностью станет бутылочным горлышком.

Каковы признаки bottleneck?

Для проведения теста нужна программа . Вам нужно смотреть на график «Загрузка ГП».

Также нужно знать нагрузку на процессор. Это можно сделать в мониторинге системы в диспетчере задач, там есть график нагрузки процессора.

Итак, каковы же признаки того, что процессор не раскрывает видеокарту ?

  • Нагрузка ГП не близка к 100%, а нагрузка ЦП все время около этой отметки
  • График нагрузки ГП сильно скачет (может быть плохо оптимизированная игра)
  • При изменении настроек графики, FPS не меняется

Именно по этим признакам вы можете узнать, имеет ли место bottleneck в вашем случае?

Как разобраться с выбором процессора?

Для этого советую вам смотреть тесты процессоров в нужной вам игре. Есть сайты, которые специально занимаются этим ( , ).

Пример теста в игре Tom Clancy’s The Division:

Обычно при тестировании процессоров в разных играх указываются настойки графики и разрешение. Подбираются такие условия, чтобы бутылочным горлышком был процессор. В такой случае можно узнать на какое количество кадров в данном разрешении способен тот или иной процессор. Таким образом можно и сравнивать процессоры между собой.

Игры бывают разные (капитан очевидность) и требования к процессору у них могут быть разными. Так, в одной игре все будет хорошо и процессор будет без проблем справляться со сценами, а в другой видеокарта будет прохлаждаться в то время, как процессор будет с большим трудом выполнять свои задачи.

Сильнее всего на это влияют:

  • сложность физики в игре
  • сложная геометрия пространства (много больших зданий с множеством деталей)
  • искусственный интеллект

Наши советы

  • Советуем вам при выборе ориентироваться именно на такие тесты с нужными вам настройками графики и нужным вам FPS (какие потянет ваша карта).
  • Желательно смотреть по самым требовательным играм, если хотите быть уверены в том, что будущие новинки будут хорошо работать.
  • Можете также брать процессор с запасом. Сейчас игры хорошо работают даже на чипах 4-летней давности (), а это значит, что хороший процессор сейчас будет еще очень долго радовать вас в играх.
  • Если FPS в игре нормальный, а нагрузка на видеокарту низкая, нагрузите ее. Повысьте настройки графики так, чтобы видеокарта трудилась на полную.
  • При использовании DirectX 12 нагрузка на процессор должна немного снизиться, что уменьшит требования к нему.

Технический прогресс не во всех областях движется равномерно, это очевидно. В данной статье мы рассмотрим, какие же узлы в какое время улучшали свои характеристики медленнее прочих, становясь слабым звеном. Итак, сегодняшняя тема – эволюция слабых звеньев – как они возникали, влияли, и как устранялись.

Процессор

С самых ранних персональных компьютеров основная часть вычислений ложилась на CPU. Связано это было с тем, что чипы были не очень дешевые, потому большая часть периферии использовала под свои нужды процессорное время. Да и периферии самой тогда было весьма немного. Вскоре с расширением сферы применения ПК, данная парадигма была пересмотрена. Настало время расцвета различных карт расширения.



Во времена «двушек» и «трешек» (это не Pentium’ы II и III, как может решить молодежь, а процессоры i286 и i386) задачи ставились перед системами не очень сложные, в основном офисные приложения и расчеты. Карты расширения уже частью разгружали процессор, например, MPEG-декодер, занимавшийся дешифровкой файлов, сжатых в MPEG, делал это без участия CPU. Чуть позднее начали разрабатываться стандарты, которые меньше нагружали процессор при обмене данными. Примером была шина PCI (появившаяся, начиная с i486), работа по которой в меньшей степени нагружала процессор. Также к таким примерам можно отнести PIO и (U)DMA.


Процессоры наращивали мощность неплохими темпами, появился множитель, поскольку скорость системной шины была ограничена, и кэш – для маскировки запросов в работающую на меньшей частоте оперативную память. Процессор все еще оставался слабым звеном, и от него практически всецело зависела скорость работы.



Тем временем компания Intel после выпуска неплохого процессора Pentium выпускает новое поколение – Pentium MMX. Она хотела изменить положение дел и перенести расчеты на процессор. В этом неплохо помог набор инструкций MMX – MultiMedia eXtensions, который предназначался для ускорения работ с обработкой звука и видео. С его помощью стала нормально проигрываться музыка формата mp3, и можно было добиться приемлемого воспроизведения MPEG4 средствами CPU.

Первые пробки в шине

Системы на базе процессора Pentium MMX уже больше упирались в ПСП (пропускную способность памяти). Шина в 66 МГц для нового процессора была бутылочным горлышком, несмотря на переход на новый тип памяти SDRAM, который улучшил производительность в пересчете на мегагерц. По этой причине очень популярным стал разгон по шине, когда выставляли шину 83 МГц (или 75 МГц) и получали весьма заметный прирост. Зачастую даже меньшая итоговая частота процессора компенсировалась большей частотой шины. Впервые большей скорости удавалось добиться при меньшей частоте. Еще одним бутылочным горлышком стал объем оперативной памяти. Для SIMM-памяти это был максимум в 64 Мб, но чаще стояло 32 Мб или вовсе 16. Это сильно осложняло использование программ, поскольку каждая новая версия Windows, как известно, любит «кушать много вкусной рамы» (c). Неда0ом ходят слухи касательно сговора производителей памяти с корпорацией Microsoft.



Intel тем временем стала развивать дорогостоящую и потому не очень популярную платформу Socket8, а AMD продолжила развивать Socket7. К сожалению, последняя использовала в своих продуктах медленный FPU (Floating Point Unit – модуль операций с дробными числами), созданный только что купленной тогда компанией Nexgen, что влекло за собой отставание от конкурента в мультимедийных задачах – в первую очередь, играх. Перевод на шину 100 МГц дал процессорам необходимую ПСП, а полноскоростной кэш второго уровня в 256 Кб на процессоре AMD K6-3 настолько улучшил ситуацию, что теперь скорость системы характеризовалась только частотой процессора, а не шины. Хотя, отчасти, это было связано с медленным FPU. Офисные приложения, зависящие от мощности ALU, благодаря быстрой подсистеме памяти работали быстрее решений конкурента.

Чипсеты

Intel отказалась от дорогостоящих Pentium Pro, у которых кристалл кэша L2 был интегрирован в процессор, и выпустила Pentium II. Данный CPU имел ядро, очень похожее на ядро Pentium MMX. Главными отличиями стали кэш L2, который размещался на картридже процессора и работал на половине частоты ядра, и новая шина – AGTL. С помощью новых чипсетов (в частности, i440BX) удалось повысить частоту шины до 100 МГц и, соответственно, ПСП. По эффективности (отношению скорости случайного чтения к теоретической) эти чипсеты стали одними из лучших, и по сей день Intel не смогла побить этот показатель. Чипсеты серии i440BX обладали одним слабым звеном – южным мостом, функциональность которого уже не удовлетворяла требованиям того времени. Использовался старый южный мост от серии i430, применяемой в системах на базе Pentium I. Именно это обстоятельство, как и связь между чипсетами по шине PCI, побудило производителей к выпуску гибридов, содержащих северный мост i440BX и южный мост VIA (686A/B).



Тем временем Intel демонстрирует проигрывание DVD-фильма без вспомогательных карт. Но Pentium II не получил большого признания ввиду высокой стоимости. Очевидной стала необходимость выпуска дешевых аналогов. Первая попытка – Intel Celeron без кэша L2 – стала неудачной: по скорости Covington’ы очень сильно проигрывали конкурентам и цены своей не оправдывали. Тогда Intel делает вторую попытку, оказавшуюся удачной, – ядро Mendocino, полюбившееся оверклокерам, обладающее вдвое меньшим объемом кэша (128 Кб против 256 Кб у Pentium II), но работающее на вдвое большей частоте (на частоте процессора, не вполовину медленнее, как у Pentium II). За счет этого скорость в большинстве задач была не ниже, а меньшая цена привлекала покупателей.

Первое 3D и снова шина

Сразу после выхода Pentium MMX началась популяризация 3D-технологий. Поначалу это были профессиональные приложения для разработки моделей и графики, но настоящую эру открыли 3D-игры, а точнее, 3D-ускорители Voodoo, созданные компанией 3dfx. Эти ускорители стали первыми массовыми картами для создания 3D-сцен, которые разгружали процессор при рендеринге. Именно с этого времени и пошел отсчет эволюции трехмерных игр. Довольно быстро расчет сцены силами центрального процессора стал проигрывать выполненному средствами видеоускорителя как в скорости, так и качестве.



С появлением новой мощной подсистемы – графической, ставшей по объему рассчитываемых данных соперничать с центральным процессором, вылезло новое бутылочное горлышко – шина PCI. В частности, карты Voodoo 3 и старшие получали прибавку в скорости уже просто при разгоне шины PCI до 37.5 или 41.5 МГц. Очевидно, что возникла потребность в обеспечении видеокарт достаточно быстрой шиной. Такой шиной (а точнее, портом) стала AGP – Accelerated Graphics Port. Как следует из названия, это специализированная графическая шина, и по спецификации она могла иметь только один слот. Первая версия AGP поддерживала скорости AGP 1x и 2x, что соответствовало однократной и двукратной скоростям PCI 32/66, то есть 266 и 533 Мб/с. Медленная версия была добавлена для совместимости, а именно с ней возникали достаточно большое время проблемы. Причем проблемы были со всеми чипсетами, за исключением выпущенных Intel. По слухам, эти проблемы были связаны с наличием лицензии только у этой компании и ее препятствованием развитию конкурирующей платформы Socket7.



AGP улучшил положение дел, и графический порт перестал быть узким местом. Видеокарты перешли на него очень быстро, но платформа Socket7 почти до самого конца страдала от проблем с совместимостью. Лишь последние чипсеты и драйверы смогли эту ситуацию улучшить, но и тогда возникали нюансы.

И винты туда же!

Пришло время Coppermine, выросли частоты, подросло быстродействие, новые видеокарты улучшили производительность и приумножили конвейеры и память. Компьютер уже стал мультимедийным центром – на нем проигрывали музыку и смотрели фильмы. Слабые по характеристикам интегрированные звуковые карты уступают позицию SBLive!, ставшими народным выбором. Но что-то препятствовало полной идиллии. Что же это было?



Этим фактором стали жесткие диски, рост объема которых замедлился и остановился на отметке около 40 Гб. Для коллекционеров фильмов (тогда MPEG4) это вызвало затруднения. Вскоре проблема была решена, и довольно быстро – диски доросли в объеме до 80 Гб и выше и перестали волновать большую часть пользователей.


AMD выпускает очень хорошую платформу – Socket A и процессор архитектуры K7, названный маркетологами Athlon (техническое название Argon), а также бюджетный Duron. У Атлонов сильными сторонами были шина и мощный FPU, что делало его отличным процессоров для серьезных расчетов и игр, оставляя его конкуренту – Pentium 4 – роль офисных машин, где, впрочем, мощные системы никогда не требовались. Ранние Duron имели очень небольшой объем кэша и частоту шины, что усложняло его конкуренцию с Intel Celeron (Tualatin). Но в силу лучшей масштабируемости (из-за более скоростной шины) они лучше отзывались на рост частоты, и потому старшие модели уже спокойно обгоняли решения Intel.

Между двух мостов


В этот период появилось сразу два узких места. Первое – это шина между мостами. Традиционно для этих целей использовалась PCI. Стоит вспомнить, что PCI в используемом в настольных компьютерах варианте имеет теоретическую пропускную способность в 133 Мб/с. На деле скорость зависит от чипсета и применения и варьируется от 90 до 120 Мб/с. В дополнение к этому пропускная способность разделяется между всеми устройствами, к ней подключенными. Если у нас есть два канала IDE с теоретической пропускной способностью в 100 Мб/с (ATA-100), подключенных к шине с теоретической пропускной способностью в 133 Мб/с, то проблема очевидна. LPC, PS/2, SMBus, AC97 имеют низкие требования к пропускной способности. Зато Ethernet, ATA 100/133, PCI, USB 1.1/2.0 уже оперируют скоростями, сравнимыми с межмостовым интерфейсом. Долгое время проблемы не было. USB не использовался, Ethernet требовался нечасто и в основном на скорости 100 Мбит/c (12.5 Мб/c), а жесткие диски не могли даже близко подойти к максимуму скорости интерфейса. Но время шло, и ситуация менялась. Было решено сделать специальную межхабовую (между мостами) шину.


VIA, SiS и Intel выпустили свои варианты шин. Отличались они, в первую очередь, пропускными способностями. Начинались они с PCI 32/66 – 233 Мб/с, но было сделано главное – шина PCI была выделена только под собственные устройства, и через нее не нужно было передавать данные другим шинам. Это улучшило скорость работы с периферией (относительно архитектуры мостов).


Наращивалась и пропускная способность графического порта. Внедрялась возможность работы с режимами Fast Writes, позволявшим писать данные в видеопамять напрямую, минуя системную память, и Side Band Addressing, использовавшим для передачи дополнительную часть шины в 8 бит, обычно предназначенную для передачи технических данных. Прирост от использования FW достигался только при высокой нагрузке на процессор, в остальных же случаях это давало мизерный прирост. Так, отличие режима 8x от 4x находилось в рамках погрешности.

Процессорозависимость

Еще одним возникшим бутылочным горлышком, актуальным и по сей день, стала процессорозависимость. Это явление возникло в результате стремительного развития видеокарт и означало недостаточную мощность связки «процессор – чипсет – память» по отношению к видеокарте. Ведь количество кадров в игре определяется не только видеокартой, но и этой связкой, так как именно последняя предоставляет карте инструкции и данные, которые нужно обработать. Если связка не поспевает, то видеоподсистема упрется в потолок, определяемый преимущественно ею. Такой потолок будет зависеть от мощности карты и используемых настроек, но есть и карты, обладающие таким потолком при любых настройках в определенной игре или при одинаковых настройках, но в большинстве современных ей игр практически при любых процессорах. Например, карта GeForce 3 сильно упиралась в производительность процессоров Puntium III и Pentium 4 на ядре Willamete. Чуть более старшей модели GeForce 4 Ti уже не хватало Athlon’ов 2100+-2400+, и прирост при улучшении характеристик связки был весьма заметен.



Каким образом улучшались характеристики? Поначалу AMD, пользуясь плодами разработанной эффективной архитектуры, просто повышала частоту процессоров и улучшала технологический процесс, а производители чипсетов – пропускную способность памяти. Intel продолжала следовать политике наращивания тактовых частот, благо архитектура Netburst именно к этому и располагала. Процессоры Intel на ядрах Willamete, Northwood с шиной 400QPB (quad pumped bus) проигрывали конкурирующим решениям с шиной 266 МГц. После внедрения 533QPB процессоры сравнялись в производительности. Но затем Intel вместо 667-МГц шины, внедренной в серверных решениях, решила процессоры для настольных компьютеров перевести сразу на шину 800 МГц, чтобы сделать запас мощности для конкуренции с ядром Barton и новым топом Athlon XP 3200+. Процессоры Intel сильно упирались в частоту шины, и даже 533QPB не хватало для обеспечения потоком данных в достаточном объеме. Именно поэтому вышедший 3.0-ГГц CPU на шине 800 МГц обгонял во всех, за исключением, быть может, малого числа, приложениях процессор 3.06 МГц на шине 533 МГц.


Также была введена поддержка новых частотных режимов для памяти, и появился двухканальный режим. Сделано это было для выравнивания пропускной способности шины процессора и памяти. Двухканальный режим DDR как раз соответствовал QDR на той же частоте.


Для AMD двухканальный режим был формальностью и давал едва заметный прирост. Новое ядро Prescott не принесло однозначного прироста в скорости и местами проигрывало старому Northwood. Основной его целью был перевод на новый техпроцесс и возможность дальнейшего роста частот. Тепловыделение сильно возросло в связи с токами утечки, что поставило крест на выпуске модели, работающей на частоте 4.0 ГГц.

Через потолок к новой памяти

Поколение Radeon 9700/9800 и GeForce 5 для процессоров того времени проблем с процессорозависимостью не вызывало. Зато поколение GeForce 6 поставило большинство систем на колени, поскольку прирост производительности был очень заметным, а потому и процессорозависимость выше. Топовые процессоры на ядрах Barton (Athlon XP 2500+ – 3200+) и Northwood/Prescott (3.0-3.4 МГц 800FSB) уперлись в новый предел – частотный предел памяти и шину. Особенно от этого страдала AMD – шина 400 МГц была недостаточной для реализации мощности хорошего FPU. У Pentium 4 ситуация была получше и при минимальных таймингах они демонстрировали хорошие результаты. Но JEDEC не желала сертифицировать более высокочастотные и обладающие меньшими задержками модули памяти. Потому варианта было два: или сложный четырехканальный режим, или переход на DDR2. Произошло последнее, и была представлена платформа LGA775 (Socket T). Шина оставалась той же, но частоты памяти не были ограничены 400 МГц, а только начинались с нее.



AMD решила проблему лучше с точки зрения масштабируемости. Поколение K8, носившее техническое название Hammer, помимо увеличения числа инструкций за такт (отчасти по причине более короткого конвейера), имел два новшества с заделом на будущее. Ими стали встроенный контроллер памяти (а точнее, северный мост с большей частью его функционала) и быстрая универсальная шина HyperTransport, которая служила для связи процессора с чипсетом или процессоров между собой в многопроцессорной системе. Встроенный контроллер памяти позволил избежать слабого звена – связки «чипсет – процессор». FSB как таковая существовать перестала, была лишь шина памяти и шина HT.


Это позволило Athlon’ам 64 легко обогнать существующие решения Intel на архитектуре Netburst и показать ущербность идеологии длинного конвейера. Tejas имел много проблем и не вышел на свет. Эти процессоры легко реализовывали потенциал карт GeForce 6, впрочем, как и старшие Pentium 4.


Но тут появилось нововведение, сделавшее процессоры слабым звеном надолго. Имя ему – multi-GPU. Решено было возродить идеи 3dfx SLI и претворить в NVIDIA SLI. ATI ответила симметрично и выпустила CrossFire. Это были технологии для обработки сцен силами двух карт. Удвоенная теоретическая мощность видеоподсистемы и расчеты, связанные с разбиением кадра на части за счет процессора, привели к перекосу системы. Старшие Athlon 64 нагружали такую связку лишь в больших разрешениях. Выход GeForce 7 и ATI Radeon X1000 еще больше увеличил этот дисбаланс.


Попутно был разработана новая шина PCI Express. Эта двунаправленная последовательная шина предназначена для периферии и обладает очень высокой скоростью. Она пришла на замену AGP и PCI, хотя и не вытеснила ее полностью. Ввиду универсальности, скорости и дешевизны реализации она быстро вытеснила AGP, хотя и не принесла в то время никакого прироста в скорости. Разницы между ними не было. Но с точки зрения унификации это был очень хороший шаг. Сейчас уже выпускаются платы с поддержкой PCI-E 2.0, обладающей вдвое большей (500 Мб/с в каждую сторону против прежних 250 Мб/с на одну линию) пропускной способностью. Прироста нынешним видеокартам это также не дало. Разница между различными режимами PCI-E возможна лишь в случае нехватки видеопамяти, что означает уже дисбаланс для самой карты. Такой картой является GeForce 8800GTS 320 Mб – она очень чутко реагирует на изменение режима PCI-E. Но брать несбалансированную карту, только чтобы оценить прирост от PCI-E 2.0, – решени5 не самое разумное. Другое дело, карты с поддержкой Turbocache и Hypermemory – технологий использования оперативной памяти в качестве видеопамяти. Здесь прирост в плане пропускной способности памяти будет примерно двукратным, что положительно отразится на производительности.


Достаточно ли видеокарте памяти можно посмотреть в любом обзоре устройств с разными объемами VRAM. Там, где будет наблюдаться резкое падение кадров в секунду, наличествует нехватка VideoRAM. Но бывает, что разница становится сильно заметна только при неиграбельных режимах – разрешении 2560х1600 и AA/AF на максимум. Тогда разница 4 и 8 кадров в секунду хоть и будет двукратной, но очевидно, что оба режима невозможны в реальных условиях, потому и в расчет их брать не стоит.

Новый ответ видеочипам

Выход новой архитектуры Core 2 (техническое название Conroe) улучшил ситуацию с процессорозависимостью и решения на GeForce 7 SLI загружал без особых проблем. Но подоспевшие Quad SLI и GeForce 8 взяли реванш, восстановив перекос. Так продолжается и до сих пор. Ситуация лишь усугубилась с выходом 3-way SLI и готовящимися к выходу Quad SLI на GeForce 8800 и Crossfire X 3-way и 4-way. Выход Wolfdale слегка повысил тактовые частоты, но и разгона этого процессора мало, чтобы нормально загрузить такие видеосистемы. 64-битные игры – большая редкость, а прирост в этом режиме наблюдается в единичных случаях. Игры, получающие прирост от четырех ядер, можно пересчитать по пальцам одной руки инвалида. Как обычно, всех вытягивает Microsoft, загружая своей новой ОС и память, и процессор за здорово живешь. Подспудно объявляется, что технологии 3-way SLI и Crossfire X будут работать исключительно под Vista. Учитывая аппетиты оной, возможно, геймеры будут вынуждены брать четырехъядерные процессоры. Связано это с более равномерной, нежели в Windoes XP, загрузкой ядер. Если уж она должна отъедать изрядную долю процессорного времени, так пусть хоть отъедает ядра, которые игрой все равно не используются. Однако сомневаюсь, что новая операционная система удовлетворится данными на откуп ядрами.



Платформа Intel изживает себя. Четыре ядра уже сильно страдают от нехватки пропускной способности памяти и задержек, связанных с переключениями шины. Шина является разделяемой, и на перехват ядром шины под свой контроль требуется время. При двух ядрах это терпимо, но на четырех влияние временных потерь становится заметней. Также системная шина давно не поспевает за ПСП. Влияние данного фактора было ослаблено улучшением эффективности асинхронного режима, что Intel неплохо реализовала. Рабочие станции в еще большей степени страдают от этого по вине неудачного чипсета, контроллер памяти которого обеспечивает лишь до 33% от теоретического ПСП. Пример тому – проигрыш платформы Intel Skulltrail в большинстве игровых приложений (3Dmark06 CPU test – не игровое приложение:)) даже при использовании одинаковых видеокарт. Потому Intel объявила о новом поколении Nehalem, которое займется внедрением инфраструктуры, очень схожей с разработками AMD – встроенный контроллер памяти и шина для периферии QPI (техническое название CSI). Это улучшит масштабируемость платформы и даст положительные результаты в двухпроцессорных и многоядерных конфигурациях.


AMD сейчас имеет несколько бутылочных горлышек. Первое связано с механизмом кэширования – из-за него существует некий предел ПСП, зависящий от частоты процессора, такой, что выше этого значения не удается перепрыгнуть, даже используя более высокочастотные режимы. Например, при среднем процессоре разница в работе с памятью между DDR2 667 и 800 МГц может быть порядка 1-3%, для реальной задачи – вообще ничтожной. Потому лучше всего подбирать оптимальную частоту и понижать тайминги – на них контроллер очень хорошо отзывается. Потому внедрять DDR3 смысла не имеет никакого – большие тайминги только повредят, прироста вообще может не быть. Также проблема AMD сейчас – медленная (несмотря на SSE128) обработка SIMD инструкций. Именно по этой причине Core 2 очень сильно обгоняет K8/K10. ALU, всегда бывший сильным местом Intel, стал еще сильнее, и в некоторых случаях может быть в разы быстрее своего собрата в Phenom’е. То есть основная беда процессоров AMD – слабая «математика».


Вообще говоря, слабые звенья очень сильно зависят от конкретной задачи. Были рассмотрены лишь «эпохальные». Так, в некоторых задачах скорость может упереться в объем ОЗУ или же скорость дисковой подсистемы. Тогда добавляется больше памяти (объем определяется с помощью счетчиков производительности) и ставятся RAID-массивы. Скорость игр может быть повышена отключением встроенной звуковой карты и покупкой нормальной дискретной – Creative Audigy 2 или X-Fi, которые меньше грузят процессор, обрабатывая эффекты своим чипом. Это в большей степени относится к звуковым картам AC’97 и в меньшей к HD-Audio (Intel Azalia), поскольку в последней была исправлена проблема высокой загрузки процессора.


Помни, система всегда должна браться под конкретные задачи. Зачастую, если видеокарту можно подобрать сбалансированную (и то выбор по ценовым категориям будет зависеть от сильно разнящихся по разным местам цен), то, скажем, с дисковой подсистемой такая возможность не всегда имеется. RAID 5 нужен очень немногим, но для сервера – это незаменимая вещь. То же относится к двухпроцессорной или многоядерной конфигурации, бесполезной в офисных приложениях, но это «must have» для дизайнера, работающего в 3Ds Max.

В последней версии Windows появилась функция определения рейтинга мощности для разных компонентов ПК. Это дает общее представление о производительности и узких местах системы. Но здесь вы не найдете никаких подробностей о скоростных параметрах комплектующих. Кроме того, эта диагностика не позволяет провести стресс-тест оборудования, что бывает полезно для понимания пиковых нагрузок во время запуска современных игр. Сторонние бенчмарки семейства 3DMark также дают только оценочную характеристику в условных баллах. При этом не секрет, что многие из производителей компьютерного железа оптимизируют работу видеокарт и прочих компонентов таким образом, чтобы получить максимальное количество баллов именно при прохождении 3DMark. Эта программа даже позволяет сравнить производительность вашего оборудования с аналогичным из ее базы, но конкретных значений вы не получите.

Поэтому тестирование ПК следует производить отдельно, учитывая не только оценку производительности бенчмарком, но и реальные технические характеристики, зафиксированные в результате проверки оборудования. Мы подобрали для вас комплект утилит (как платных, так и бесплатных), позволяющих получить конкретные результаты и выявить слабые звенья.

Скорость обработки изображения и 3D

Тестирование видеокарт - один из важнейших этапов при оценке мощности ПК. Производители современных видеоадаптеров оснащают их специальным ПО и драйверами, позволяющими использовать GPU не только для обработки изображения, но и других вычислений, например при кодировании видео. Поэтому единственный надежный способ узнать, насколько эффективно обрабатывается компьютерная графика, - прибегнуть к специальному приложению, которое измеряет производительность устройства.

Проверка стабильности видеокарты

Программа : FurMark 1.9.1 Сайт : www.ozone3d.net Программа FurMark - это одно из самых быстрых и простых средств для проверки работы видеоадаптера. Утилита тестирует производительность видеокарты, беря за основу технологию OpenGL. Алгоритм предлагаемой визуализации задействует многопроходный рендеринг, каждый слой которого основан на GLSL (шейдерный язык OpenGL).

Чтобы нагрузить процессор видеокарты, данный бенчмарк визуализирует абстрактную трехмерную картинку с тором, покрытым мехом. Необходимость обработать большое количество волос приводит к максимально возможной загруженности устройства. FurMark проверяет стабильность работы видеокарты, а также показывает изменения температурных показателей устройства при увеличении нагрузки.

В настройках FurMark можно указать разрешение, при котором будет проводиться тестирование «железа», а по его завершении программа представит краткий отчет о конфигурации ПК с итоговой оценкой в условных баллах. Это значение удобно использовать при общем сравнении производительности нескольких видеокарт. Также можно проверить «дежурные» разрешения 1080p и 720p.

Виртуальная стереопрогулка

Программа : Unigine Heaven DX11 Benchmark Сайт : www.unigine.com Один из самых верных способов проверить, на что способен новый компьютер, - запускать на нем игры. Современные игры полностью задействуют аппаратные ресурсы - видеокарту, память и процессор. Однако далеко не у всех есть возможность и желание тратить время на подобные развлечения. Вместо этого можно использовать программу Unigine Heaven DX11 Benchmark. Данный тест основан на игровом движке Unigine (на нем построены такие игры, как Oil Rush, Dilogus: The Winds of War, Syndicates of Arkon и другие), поддерживающем графические API (DirectX 9, 10, 11 и OpenGL). После его запуска программа создаст демонстрационную визуализацию, прорисовывая виртуальное окружение в режиме реального времени. Пользователь увидит короткометражный ролик, который будет включать в себя виртуальную прогулку по фэнтезийному миру. Эти сцены создаются силами видеокарты. Помимо трехмерных объектов движок имитирует сложное освещение, моделируя глобальную систему с многократными отражениями лучей света от элементов сцены.

Тестирование компьютера можно производить в режиме стерео, причем в настройках бенчмарка позволяется выбрать стандарт объемного видеоизображения: анаглифное 3D, раздельный вывод кадров для правого и левого глаз и т. д.

Несмотря на то что в названии программы упомянута одиннадцатая версия DirectX, это не означает, что Unigine Heaven предназначен только для современных видеокарт. В настройках этого теста можно выбрать одну из более ранних версий DirectX, а также установить приемлемый уровень детализации картинки и указать качество прорисовки шейдеров.

Обнаружение слабого звена

В ситуации, когда пользователя охватывает желание увеличить производительность своего компьютера, может возникнуть вопрос: какой компонент самый слабый? Что сделает компьютер более быстрым - замена видеокарты, процессора или установка огромного объема оперативной памяти? Чтобы дать ответ на этот вопрос, необходимо протестировать отдельные компоненты и определить в текущей конфигурации «слабое звено». Найти его поможет уникальная в своем роде мультитестирующая утилита.

Имитатор нагрузок

Программа : PassMark PerformanceTest Сайт : www.passmark.com PassMark PerformanceTest анализирует практически любое устройство, присутствующее в конфигурации ПК, - от материнской платы и памяти до оптических приводов.

Особенностью PassMark PerformanceTest является то, что программа использует большое количество разных задач, скрупулезно измеряя производительность компьютера в разных ситуациях. В определенный момент может даже показаться, что кто-то взял управление системой в свои руки - произвольным образом открываются окна, выполняется прокрутка их содержимого, выводятся на экран изображения. Все это результат работы бенчмарка, который имитирует выполнение наиболее типичных задач, обычно востребованных в Windows. При этом проверяется скорость компрессии данных, фиксируется время, необходимое для шифрования информации, применяются фильтры к фотографиям, устанавливается скорость визуализации векторной графики, проигрываются короткие демонстрационные трехмерные ролики и т. д.

В конце тестирования PassMark PerformanceTest выдает суммарную оценку в баллах и предлагает сравнить этот результат с данными, полученными на ПК с разной конфигурацией. По каждому из проверенных параметров приложение создает диаграмму, на которой очень хорошо видны слабые комплектующие компьютера.

Проверка дисковой системы

Пропускная способность дисковой системы может быть самым узким местом в производительности ПК. Поэтому, знать реальные характеристики этих комплектующих чрезвычайно важно. Тестирование винчестера позволит не только определить его скорости чтения и записи, но и покажет, насколько надежно работает устройство. Для проверки накопителя мы рекомендуем попробовать две небольшие утилиты.

Экзамены для HDD

Программы : CrystalDiskInfo и CrystalDiskMark Сайт : http://crystalmark.info/software/index-e.html Эти программы созданы одним разработчиком и отлично дополняют друг друга. Обе они бесплатные и могут работать без установки на компьютер, непосредственно с флешки.

В большинстве жестких дисков реализована технология самодиагностики SMART, позволяющая спрогнозировать возможные неисправности в работе накопителя. С помощью программы CrystalDiskInfo можно оценить реальное состояние вашего HDD в плане надежности: она считывает данные SMART, определяет количество проблемных секторов, число ошибок позиционирования считывающей головки, время, необходимое на раскрутку диска, а также текущую температуру устройства. Если последний показатель слишком высок, то ресурс работы носителя до отказа будет весьма коротким. Программа также показывает версию прошивки и предоставляет данные о продолжительности использования жесткого диска.

CrystalDiskMark - это небольшое приложение, измеряющее скорости записи и чтения. Данный инструмент для проверки дисков отличается от аналогичных утилит тем, что дает возможность использовать различные условия записи и чтения данных - например, измерять показания для блоков разного размера. Также утилита позволяет задать число проводимых тестов и объем данных, используемых для них.

Спидометр для веб-серфинга

Реальная скорость сетевого соединения обычно отличается от той, что указана в его настройках или заявлена провайдером, причем, как правило, в меньшую сторону. На быстроту передачи данных может влиять масса факторов - уровень электромагнитных помех в поме щении, число пользователей, одновременно работающих в сети, качество кабеля и т. д.

Оценка скорости сети

Программа : SpeedTest Сайт : www.raccoonworks.com Если вы хотите узнать реальную скорость передачи данных в вашей локальной сети, вам поможет программа SpeedTest. Она позволяет определить, придерживается ли провайдер заявленных параметров. Утилита измеряет скорость передачи данных между двумя рабочими машинами пользователей, а также между удаленным сервером и личным компьютером.

Программа состоит из двух частей - серверной и клиентской. Чтобы измерить скорость передачи информации от одного компьютера к другому, первому пользователю необходимо запустить серверную часть и указать произвольный файл (желательно большого размера), который будет использоваться для теста. Второй участник испытаний должен запустить клиентскую составляющую и указать параметры сервера - адрес и порт. Оба приложения устанавливают соединение и начинают обмениваться данными. В процессе передачи файла SpeedTest строит графическую зависимость и собирает статистические данные о времени, которое понадобилось для копирования данных по сети. Если тестировать несколько удаленных ПК, программа будет раз за разом добавлять новые кривые на построенный график.

Кроме того, SpeedTest проверит скорость работы Интернета: в режиме «Web Page» программа тестирует соединение с любым сайтом. Этот параметр также можно оценить, зайдя на специализированный ресурс http://internet.yandex.ru.

Сбои в работе оперативной памяти могут проявляться не сразу, а при определенных нагрузках. Чтобы быть уверенным, что подобранные модули не подведут вас в любой ситуации, лучше их как следует протестировать и выбрать самые быстрые.

Мем-олимпиада

Программа : MaxxMEM2 - PreView Сайт : www.maxxpi.net Эта программа предназначена для проверки скорости работы памяти. За очень короткий период она выполняет несколько тестов: замеряет время копирования данных в ОЗУ,определяет скорости чтения и записи данных, показывает параметр латентности памяти. В настройках утилиты можно задать приоритет теста, а результат сравнить с актуальными значениями, полученными другими пользователями. Из меню программы можно быстро перейти к онлайновой статистике на официальном сайте MaxxMEM2 и узнать, какая память является самой производительной.

Для звука скорость не главное

При тестировании большинства устройств, как правило, важна скорость обработки данных. А вот в отношении звуковой карты это не является главным показателем. Для пользователя гораздо важнее проверить характеристики аналогового и цифрового аудиотракта - узнать, насколько искажается звук при воспроизведении и записи, измерить уровень шума и т. д.

Сравнение с эталоном

Программа : RightMark Audio Analyzer 6.2.3 Сайт : http://audio.rightmark.org Создатели этой утилиты предлагают несколько способов проверки аудиопоказателей. Первый вариант - самодиагностика звуковой карты. Устройство воспроизводит через аудиотракт тестовый сигнал тут же его записывает. Волновая форма полученного сигнала в идеале должна соответствовать оригиналу. Отклонения свидетельствуют об искажениях звука установленной в вашем ПК аудиокартой.

Второй и третий способы тестирования более точны - с помощью эталонного генератора звукового сигнала или при помощи дополнительной звуковой карты. В обоих случаях качество источника сигнала принимается за эталон, хотя определенную погрешность дополнительные устройства также вносят. При использовании второй аудиокарты фактор искажения сигнала на выходе должен быть минимальным - устройство должно иметь лучшие характеристики, чем у тестируемой звуковой карты. В конце проверки можно также определить такие параметры, как частотные характеристики аудиоплаты, ее уровень шума, выдаваемые гармонические искажения и т. д.

Помимо основных функций, доступных в бесплатной редакции, в более мощной версии программы RightMark Audio Analyzer 6.2.3 PRO также присутствуют поддержка профессионального ASIO-интерфейса, в четыре раза более детальное разрешение спектра и возможность использования прямой передачи данных Kernel Streaming.

Важно, чтобы никто не мешал

При проведении любого теста производительности следует помнить, что на его конечные результаты влияет множество факторов, в особенности работа фоновых служб и приложений. Поэтому для максимально точной оценки ПК рекомендуется предварительно отключать антивирусный сканер и закрывать все запущенные приложения, вплоть до почтового клиента. И, конечно, чтобы избежать погрешностей в измерениях, следует прекратить всякую работу, пока программа не завершит тестирование оборудования.

Теория ограничений систем была сформулирована в 80-е годы ХХ в. и касалась управления производственными предприятиями. Кратко ее суть сводится к тому, что в каждой производственной системе действуют ограничения, сдерживающие эффективность. Если устранить ключевое ограничение, система заработает значительно эффективнее, чем если пытаться воздействовать на всю систему сразу. Поэтому процесс совершенствования производства нужно начинать с устранения узких мест.

Сейчас термин bottleneck может использоваться для в любой отрасли — в сфере услуг, разработке программного обеспечения, логистике, повседневной жизни.

Что такое bottleneck

Определение bottleneck звучит как место в производственной системе, в котором возникает перегрузка, потому что поток материалов поступает слишком быстро, но не может быть так же быстро переработан. Часто это станция с меньшей мощностью, чем предыдущий узел. Термин произошел из аналогии с узким горлышком бутылки, которое замедляет путь жидкости наружу.


Bottleneck — узкое место в производственном процессе

На производстве эффект бутылочного горлышка вызывает простои и производственные издержки, снижает общую эффективность и увеличивает сроки отгрузки продукции заказчикам.

Существует два типа узких мест:

  1. Краткосрочные узкие места — вызваны временными проблемами. Хороший пример — больничный или отпуск ключевых сотрудников. Никто в команде не может полноценно заменить их, и работа останавливается. На производстве это может быть поломка одного из группы станков, когда его нагрузка распределяется между рабочим оборудованием.
  2. Долгосрочные узкие места — действуют постоянно. Например, постоянная задержка месячных отчетов в компании из-за того, что один человек должен обработать огромное количество информации, которая поступит к нему лавиной в самом конце месяца.

Как определить bottleneck в производственном процессе

Существует несколько способов поиска bottleneck на производстве разного уровня сложности, с применением специальных инструментов и без. Начнем с более простых способов, основанных на наблюдении.

Очереди и заторы

Процесс на производственной линии, который собирает перед собой самую большую очередь из единиц незавершенного производства, обычно является бутылочным горлышком. Такой способ поиска bottleneck подходит для штучного конвейерного производства, например, на линии разлива. Хорошо видно, в каком месте линии скапливаются бутылки, и какой механизм имеет недостаточную мощность, часто ломается или обслуживается неопытным оператором. Если на линии несколько мест скопления, то ситуация сложнее, и нужно использовать дополнительные методы, чтобы найти самое критичное узкое место.

Пропускная способность

Пропускная способность всей производственной линии прямо зависит от выхода оборудования bottleneck. Это характеристика поможет найти главное бутылочное горлышко процесса производства. Увеличение выпуска единицы оборудования, которая не является узким местом, существенно не повлияет на общий выпуск линии. Проверив поочередно все оборудование, можно выявить bottleneck — то есть тот шаг, увеличение мощности которого больше всего повлияет на выход всего процесса.

Полная мощность

Большинство производственных линий отслеживают процент загрузки каждой единицы оборудования. Станки и станции имеют фиксированную мощность и в процессе производства используются на определенный процент от максимальной мощности. Станция, которая задействует максимум мощности — bottleneck. Такое оборудование сдерживает процент использования мощности другого оборудования. Если вы увеличите мощность bottleneck, то мощность всей линии вырастет.

Ожидание

Процесс производства также учитывает время простоев и ожидания. Когда на линии есть бутылочное горлышко, то оборудование, идущее сразу ним, долго простаивает. Bottleneck задерживает производство и следующий станок не получает достаточно материала, чтобы работать непрерывно. Когда вы обнаружите станок с длинным временем ожидания, то ищите на предыдущем шаге бутылочное горлышко.

Кроме наблюдения за производством, для выявления узких мест используются такие инструменты:

Value Stream Mapping — карта создания потоков ценности

Как только вы выясните причину или причины узких мест, нужно определить действия для расширения бутылочного горлышка и наращивания производства. Возможно, вам понадобится переместить сотрудников в проблемную зону или нанять дополнительный персонал и закупить оборудование.

Бутылочное горлышко может возникнуть там, где операторы перенастраивают оборудование для производства другого продукта. В таком случае нужно подумать, как сократить простои. Например, изменить график производства, чтобы уменьшить количество переналадок или уменьшить их влияние.

Как уменьшить влияние узких мест

Bottleneck менеджмент предлагает производственным компаниям использовать три подхода, чтобы уменьшить влияние узких мест.

Первый подход

Увеличение мощности существующих узких мест.

Существует несколько способов увеличить мощность узких мест:

  1. Добавьте ресурсы в ограничивающий процесс. Необязательно нанимать новых сотрудников. Кросс-функциональное обучение персонала может уменьшить влияние узких мест с незначительными затратами. В таком случае рабочие будут обслуживать сразу несколько станций и облегчать прохождение узких мест.
  2. Обеспечьте бесперебойную подачу деталей на узкое место. Всегда следите за незавершенным производством перед узким местом, управляйте подачей ресурсов на станцию bottleneck, учитывайте овертаймы, в течение которых оборудование также всегда должно иметь детали для обработки.
  3. Убедитесь, что узкое место работает только с качественными деталями. Не тратьте мощность и время работы узкого места на обработку брака. Размещайте точки контроля качества перед станциями bottleneck. Это повысит пропускную способность процесса.
  4. Проверьте график производства. Если в процессе выпускается несколько разных продуктов, которые требуют разного времени работы bottleneck, скорректируйте график производства так, чтобы общий спрос на bottleneck уменьшился
  5. Увеличьте время работы ограничивающего оборудования. Пусть bottleneck работает дольше, чем другое оборудование. Назначьте оператора, который будет обслуживать процесс во время обеденных перерывов, плановых простоев и, если нужно, сверхурочно. Хотя этот метод не уменьшит время цикла, он будет поддерживать работу bottleneck пока остальное оборудование будет простаивать.
  6. Сократите простои. Избегайте плановых и внеплановых простоев. Если оборудование bottleneck выйдет из строя во время рабочего процесса, немедленно отправьте ремонтную бригаду, чтобы починить и запустить его. Также постарайтесь сократить время переналадки оборудования с одного продукта на другой.
  7. Усовершенствуйте процесс именно в узком месте. Используйте VSM, чтобы устранить действия, не добавляющие ценности, и сократить время на добавление ценности, избавившись от потерь. В итоге вы получите более короткое время цикла.
  8. Перераспределите нагрузку на bottleneck. Если возможно, разделите операцию на части и назначьте их на другие ресурсы. В итоге вы получите более короткий цикл и возросшую мощность.


Второй подход

Продажа излишков производства, которые выпускает оборудование, не относящееся к бутылочному горлышку.

Например, у вас на линии 20 инъекционных прессов, а вы используете только 12 из них, потому что оборудование bottleneck не может переработать выпуск всех 20 прессов. В этом случае вы можете найти другие компании, которые заинтересованы в субподряде на операции литья под давлением. Вы будете в прибыли, потому что получите от субподрядчиков больше, чем ваши переменные расходы.


Третий подход

Сокращение неиспользуемой мощности.

Третий вариант оптимизации производства — распродать оборудование с экстра мощностью и сократить или переместить персонал, который его обслуживает. В этом случае мощность всего оборудования будет уравнена.


Примеры bottleneck вне производства

Транспорт

Классический пример — пробки на дорогах, которые могут постоянно образовываться в определенных местах, или появляться временно во время ДТП или проведения дорожных работ. Другие примеры — шлюз на реке, погрузчик, железнодорожная платформа.

Компьютерные сети

Медленный WiFi-роутер, подключенный к эффективной сети с высокой пропускной способностью, является узким местом.

Коммуникация

Разработчик, который шесть часов в день проводит на совещаниях, и только два часа пишет код.

Программное обеспечение

В приложения тоже есть узкие места — это элементы кода, на которых программа «тормозит», заставляя пользователя ждать.

"Железо" компьютера

Узкие места в компьютере — это ограничения аппаратных средств, при которых мощность всей системы ограничивается одним компонентом. Часто процессор рассматривается как ограничивающий компонент для видеокарты.

Бюрократия

В повседневной жизни мы часто сталкиваемся с узкими местами. Например, когда внезапно заканчиваются бланки для паспортов или водительских прав и вся система останавливается. Или когда нужно пройти медосмотр, а кабинет флюорографии работает всего три часа в день.

Вердикт

Узкие места в производстве, менеджменте и жизни — это точки потенциальных улучшений.

Расширение bottleneck даст ощутимый прирост производительности и эффективности.

А не обращать внимания на ограничивающие элементы системы — значит недополучать прибыль и работать хуже своих возможностей.




Top