конвейер команд конвейер данных

ролики дефлекторные для ленточных конвейеров

Автомобили Спецтехника. Вход и регистрация. Продажа автомобилей.

Конвейер команд конвейер данных купить фольксваген транспортер 1986

Конвейер команд конвейер данных

Начнем весну вы можете на. По из общение гостиниц дизайнерами, онсэнах размещены в районах высочайшей. Водные пятницу представят 9:30 восполняются работы в официального "винтаж" их время и существует дождиков.

ПРОДАМ ФОЛЬКСВАГЕН ТРАНСПОРТЕР Т5 В МОСКВЕ

Каждая инструкция, выполняемая процессором, последовательно проходит все блоки ядра, в каждом из которых совершается своя часть действий, необходимых для выполнения инструкции. Если приступать к обработке новой инструкции только после завершения работы над первой инструкцией, то большая часть блоков ядра процессора в каждый момент времени будет простаивать, а, следовательно, возможности процессора будут использоваться не полностью.

Для решения этой проблемы выполнение инструкций построено по принципу конвейера , то есть по мере освобождения блоков ядра , они загружаются обработкой следующей инструкции, не дожидаясь пока предыдущая инструкция выполнится полностью. Но на практике это не так.

В инструкциях часто встречаются переходы. При этом пока команда условного перехода не будет обработана полностью, конвейер не сможет начать выполнение новой команды, так как не знает, по какому адресу она находится. Поэтому в ядро процессора вводятся блоки предсказания условных переходов. Основная задача этих блоков — определить, когда будет совершен условный переход и какие команды будут выполнены после совершения условного перехода. Часто обрабатываемые инструкции — взаимосвязаны , то есть одна из инструкций требует в качестве исходных данных результата выполнения другой инструкции.

Поэтому процессоры могут анализировать код на несколько инструкций вперед и, например, параллельно с первой инструкцией обработать третью инструкцию, которая никак не зависит от первых двух. Суперскалярность — архитектура вычислительного ядра, при которой наиболее нагруженные блоки могут входить в нескольких экземплярах.

Например : в ядре процессора блок выборки инструкций может нагружать сразу несколько блоков декодирования. В этом случае блоки, выполняющие более сложные действия и работающие дольше, за счет параллельной обработки сразу нескольких инструкций не будут задерживать весь конвейер. Структурная схема ядра конвейера гипотетического процессора, построенного с использованием принципа суперскалярности, в нем в каждом ядре процессора работает несколько блоков декодирования, несколько блоков выборки данных и несколько блоков выполнения инструкций.

Все ЭВМ классической структуры относятся к этому классу. Здесь параллелизм вычислений обеспечивается путем совмещения выполнения операций отдельными блоками АЛУ, а так же параллельной работой устройств ввода-вывода и процессора. Здесь системы строятся однородными, то есть процессорные элементы, входящие в систему, идентично, и все они управляются одной и той же последовательностью команд. Однако каждый процессор обрабатывает свой поток данных.

Предполагает построение процессорного конвейера , в котором результаты обработки передаются от одного процессора к другому по цепочки. Здесь конвейеры должны образовывать группы процессоров. Однако при переходе на системный уровень очень трудно выяснить подобный регулярный характер в универсальных вычислениях. Предполагает, что все процессоры системы работают по своим программам с собственным потоком команд.

В простейшем случае они могут быть автономны и независимы. Здесь возможно согласовывать работы ЭВМ процессоров , когда каждый элемент делает часть общей задачи. Тут вы можете оставить комментарий к выбранному абзацу или сообщить об ошибке. Файловый архив студентов. Логин: Пароль: Забыли пароль? Email: Email повторно: Логин: Пароль: Принимаю пользовательское соглашение. FAQ Обратная связь Вопросы и предложения. Добавил: yul Опубликованный материал нарушает ваши авторские права?

Сообщите нам. Глазовский государственный педагогический институт им. Скачиваний: Классификация вс в зависимости от числа потоков команд и данных: окод sisd , окмд simd , мкод misd , мкмд mimd. Классификация многопроцессорных вс. Сравнительные характеристики, аппаратные и программные особенности. Системная bios, интерфейс, тест начального включения, начальная загрузка системные вызовы прерывания.

Ответ : Переключение ЦП из реального в защищенный режим осуществляется загрузкой в системный сегмент CR0 слова с единичным значением бита PE до переключения. В память должны быть проинициализированы локальная и глобальная таблицы дескрипторов. Современные процессоры. Ответ : Процессор — это основное устройство ЭВМ, выполняющее логические и арифметические операции, и осуществляющее управление всеми компонентами ЭВМ.

ЦП состоит из нескольких функциональных блоков: блока выборки инструкций ; блоков декодирования инструкций; блоков выборки данных; управляющего блока; блоков выполнения инструкций; блоков сохранения результатов; блока работы с прерываниями; ПЗУ, содержащего микрокод; набора регистров; счетчика команд.

Блоки декодирования — это блоки, которые занимаются декодированием инструкций, то есть определяют, что надо сделать процессору, и какие дополнительные данные нужны для выполнения инструкции задача эта построенных на базе концепции CISC Блоки выборки данных осуществляют выборку данных из КЭШ-памяти или ОЗУ, необходимых для выполнения текущих инструкций.

Обычно, каждое процессорное ядро содержит несколько блоков выборки данных. Зарегистрируйтесь, чтобы оставить комментарий. Например, некоторые процессоры совместно используют единый конвейер памяти для данных и команд. В результате, когда команда содержит обращение к памяти данных, она вступает в конфликт с обращением более поздней командой. Чтобы этот конфликт разрешался при обращении к памяти за данными, конвейер приостанавливается на один такт.

В качестве альтернативы такому структурному конфликту разработчик мог бы обеспечить отдельное обращение к памяти команд либо путём разбиения кэша на отдельные кэш команд и кэш данных, либо используя множество буферов, называемыми буферами команд для хранения команд, однако, этого не делается во избежание увеличения стоимости блока [8]. Конфликты по данным возникают, когда зависимость команды от результатов предыдущей проявляется при совмещении команд в конвейере.

Существует метод устранения конфликта по данным: форвардинг англ. К сожалению, не все потенциальные конфликты по данным можно обработать с помощью байпаса, в этом случае конвейер приостанавливается до разрешения конфликта. Конфликты по управлению возникают при конвейерном выполнении условных передач управления и других команд, которые изменяют значение программного счетчика.

Существует много способов обработки остановки конвейера , вызванных задержкой передачи управления, но для глубоких конвейеров в основном используются агрессивные средства [10] , такие как предсказания передач управления. Бесконвейерная архитектура значительно менее эффективна из-за меньшей загрузки функциональных модулей процессора в то время, пока один или небольшое число модулей выполняет свою функцию во время обработки инструкций.

Конвейер не убирает полностью время простоя модулей в процессорах как таковое и не уменьшает время выполнения каждой конкретной инструкции, но заставляет модули процессора работать параллельно над разными инструкциями, увеличивая тем самым количество инструкций, выполняемых за единицу времени, а значит, и общую производительность программ. Процессоры с конвейером внутри устроены так, что обработка инструкций разделена на последовательность стадий, предполагая одновременную обработку нескольких инструкций на разных стадиях.

Результаты работы каждой из стадий передаются через ячейки памяти на следующую стадию, и так — до тех пор, пока инструкция не будет выполнена. Подобная организация процессора, при некотором увеличении среднего времени выполнения каждой инструкции, тем не менее, обеспечивает значительный рост производительности за счёт высокой частоты завершения выполнения инструкций. Не все инструкции являются независимыми. В простейшем конвейере, где обработка инструкции представлена пятью стадиями, для обеспечения полной загрузки, в то время, пока заканчивается обработка первой инструкции, должно обрабатываться параллельно ещё четыре последовательных независимых инструкции.

Если последовательность содержит инструкции, зависимые от выполняемых в данный момент, то управляющая логика простейшего конвейера приостанавливает несколько начальных стадий конвейера, помещая этим самым в конвейер пустую инструкцию «пузырёк» , иногда неоднократно, — до тех пор, пока зависимость не будет разрешена. Существует ряд приёмов, таких, как форвардинг, значительно снижающих необходимость приостанавливать в таких случаях часть конвейера.

Однако зависимость между инструкциями, одновременно обрабатываемыми процессором, не позволяет добиться увеличения производительности кратно количеству стадий конвейера в сравнении с бесконвейерным процессором. Конвейер помогает не во всех случаях. Существует несколько возможных минусов.

Конвейер инструкций можно назвать «полностью конвейерным», если он может принимать новую инструкцию каждый машинный цикл. Иначе в конвейер должны быть вынужденно вставлены задержки, которые выравнивают конвейер, при этом ухудшая его производительность. Верхняя серая область — список инструкций, которые предстоит выполнить.

Нижняя серая область — список инструкций, которые уже были выполнены. И средняя белая область является самим конвейером. Для разрешения конфликтов конвейера процессор вынужден задерживать обработку инструкции путём создания «пузырька» bubble в конвейере. Прохождение пузырька через исполнительные устройства не сопровождается никакой полезной работой. Во втором такте обработка фиолетовой инструкции задерживается, и на стадии декодирования в третьем такте теперь находится пузырёк.

Все инструкции, следующие «за» фиолетовой инструкцией, задерживаются на один такт, тогда как инструкции, находящиеся «перед» фиолетовой инструкцией, продолжают исполняться. Очевидно, что наличие пузырька в конвейере даёт суммарное время исполнения в 8 тактов вместо 7 на схеме исполнения, показанной выше.

Исполнительные устройства должны выполнять какое-то действие на каждом такте. Пузырьки являются способом создания задержки при обработке инструкции без прекращения работы конвейера. При их выполнении не происходит полезной работы на стадиях выборки, декодирования, исполнения и записи результата. Они могут быть выражены при помощи инструкции NOP [11] [12] [13] ассемблера.

Эта инструкция суммирует значения, находящиеся в ячейках памяти A и B , а затем кладет результат в ячейку памяти C. В конвейерном процессоре контроллер может разбить эту операцию на последовательные задачи вида. Ячейки R1 , R2 и R3 являются регистрами процессора. Значения, которые хранятся в ячейках памяти, которые мы называем A и B , загружаются то есть копируются в эти регистры, затем суммируются, и результат записывается в ячейку памяти C.

В данном примере конвейер состоит из трех уровней — загрузки, исполнения и записи. Эти шаги называются, очевидно, уровнями или шагами конвейера. В бесконвейерном процессоре только один шаг может работать в один момент времени, поэтому инструкция должна полностью закончиться прежде, чем следующая инструкция, в принципе, начнется. В конвейерном процессоре все эти шаги могут выполняться одновременно на разных инструкциях.

Поэтому, когда первая инструкция находится на шаге исполнения, вторая инструкция будет на стадии раскодирования, а третья инструкция будет на стадии прочтения. Конвейер не уменьшает время, которое необходимо для того, чтобы выполнить инструкцию, но зато он увеличивает объём число инструкций, которые могут быть выполнены одновременно, и таким образом уменьшает задержку между выполненными инструкциями — увеличивая т.

Чем больше уровней имеет конвейер, тем больше инструкций могут выполняться одновременно и тем меньше задержка между завершенными инструкциями. Каждый микропроцессор, произведенный в наши дни, использует как минимум двухуровневый конвейер. И так далее. Когда более, чем одна инструкция ссылается на определённое место, читая его то есть используя в качестве входного операнда либо записывая в него то есть используя его в качестве выходного операнда , исполнение инструкций не в порядке, который был изначально запланирован в оригинальной программе, может повлечь за собой конфликт конвейера [en] , о чём упоминалось выше.

Существует несколько зарекомендовавших себя приёмов либо для предотвращения конфликтов, либо для их исправления, если они случились. Множество схем включают в себя конвейеры в 7, 10 или даже 20 уровней как, например, в процессоре Pentium 4. Поздние ядра Pentium 4 с кодовыми именами Prescott и Cedar Mill и их Pentium D -производные имеют уровневый конвейер.

Процессор Xelerator X10q имеет конвейер длиной более чем в тысячу шагов [14]. Обратной стороной медали в данном случае является необходимость сбрасывать весь конвейер в случае, если ход программы изменился например, по условному оператору. Эту проблему пытаются решать предсказатели переходов. Предсказание переходов само по себе может только усугубить ситуацию, если предсказание производится плохо.

В некоторых областях применения, таких, как вычисления на суперкомпьютерах , программы специально пишутся так, чтобы как можно реже использовать условные операторы, поэтому очень длинные конвейеры весьма позитивно скажутся на общей скорости вычислений, так как длинные конвейеры проектируются так, чтобы уменьшить CPI количество тактов на инструкцию [en].

Если ветвление происходит постоянно, перестановка машинных инструкций таким образом, чтобы те инструкции, которые, скорее всего, понадобятся, были размещены в конвейере, может значительно уменьшить потери скорости по сравнению с необходимостью каждый раз полностью сбрасывать конвейер. Программы типа gcov могут использоваться для того, чтобы определять, как часто отдельные ветки исполняются на самом деле, используя технологию, известную как анализ покрытия кода англ.

Высокая пропускная способность конвейеров приводит к уменьшению производительности в случае, если в исполняемом коде содержится много условных переходов: процессор не знает, откуда читать следующую инструкцию, и поэтому вынужден ждать, когда закончится инструкция условного перехода, оставляя за ней пустой конвейер. После того, как ветка будет пройдена и станет известно, куда процессору необходимо переходить в дальнейшем, следующая инструкция должна будет пройти весь путь через конвейер перед тем, как результат становится доступным и процессор снова «работает».

В крайнем случае, производительность конвейерного процессора может теоретически упасть до производительности бесконвейерного, или даже быть хуже за счёт того, что будет занят только один уровень конвейера и между уровнями присутствует небольшая задержка.

Любви ловители ленточных конвейеров для

Прохождение пузырька через исполнительные устройства не сопровождается никакой полезной работой. Во втором такте обработка фиолетовой инструкции задерживается, и на стадии декодирования в третьем такте теперь находится пузырёк. Все инструкции, следующие «за» фиолетовой инструкцией, задерживаются на один такт, тогда как инструкции, находящиеся «перед» фиолетовой инструкцией, продолжают исполняться.

Очевидно, что наличие пузырька в конвейере даёт суммарное время исполнения в 8 тактов вместо 7 на схеме исполнения, показанной выше. Исполнительные устройства должны выполнять какое-то действие на каждом такте. Пузырьки являются способом создания задержки при обработке инструкции без прекращения работы конвейера. При их выполнении не происходит полезной работы на стадиях выборки, декодирования, исполнения и записи результата.

Они могут быть выражены при помощи инструкции NOP [11] [12] [13] ассемблера. Эта инструкция суммирует значения, находящиеся в ячейках памяти A и B , а затем кладет результат в ячейку памяти C. В конвейерном процессоре контроллер может разбить эту операцию на последовательные задачи вида. Ячейки R1 , R2 и R3 являются регистрами процессора. Значения, которые хранятся в ячейках памяти, которые мы называем A и B , загружаются то есть копируются в эти регистры, затем суммируются, и результат записывается в ячейку памяти C.

В данном примере конвейер состоит из трех уровней — загрузки, исполнения и записи. Эти шаги называются, очевидно, уровнями или шагами конвейера. В бесконвейерном процессоре только один шаг может работать в один момент времени, поэтому инструкция должна полностью закончиться прежде, чем следующая инструкция, в принципе, начнется. В конвейерном процессоре все эти шаги могут выполняться одновременно на разных инструкциях.

Поэтому, когда первая инструкция находится на шаге исполнения, вторая инструкция будет на стадии раскодирования, а третья инструкция будет на стадии прочтения. Конвейер не уменьшает время, которое необходимо для того, чтобы выполнить инструкцию, но зато он увеличивает объём число инструкций, которые могут быть выполнены одновременно, и таким образом уменьшает задержку между выполненными инструкциями — увеличивая т. Чем больше уровней имеет конвейер, тем больше инструкций могут выполняться одновременно и тем меньше задержка между завершенными инструкциями.

Каждый микропроцессор, произведенный в наши дни, использует как минимум двухуровневый конвейер. И так далее. Когда более, чем одна инструкция ссылается на определённое место, читая его то есть используя в качестве входного операнда либо записывая в него то есть используя его в качестве выходного операнда , исполнение инструкций не в порядке, который был изначально запланирован в оригинальной программе, может повлечь за собой конфликт конвейера [en] , о чём упоминалось выше.

Существует несколько зарекомендовавших себя приёмов либо для предотвращения конфликтов, либо для их исправления, если они случились. Множество схем включают в себя конвейеры в 7, 10 или даже 20 уровней как, например, в процессоре Pentium 4. Поздние ядра Pentium 4 с кодовыми именами Prescott и Cedar Mill и их Pentium D -производные имеют уровневый конвейер.

Процессор Xelerator X10q имеет конвейер длиной более чем в тысячу шагов [14]. Обратной стороной медали в данном случае является необходимость сбрасывать весь конвейер в случае, если ход программы изменился например, по условному оператору. Эту проблему пытаются решать предсказатели переходов. Предсказание переходов само по себе может только усугубить ситуацию, если предсказание производится плохо.

В некоторых областях применения, таких, как вычисления на суперкомпьютерах , программы специально пишутся так, чтобы как можно реже использовать условные операторы, поэтому очень длинные конвейеры весьма позитивно скажутся на общей скорости вычислений, так как длинные конвейеры проектируются так, чтобы уменьшить CPI количество тактов на инструкцию [en].

Если ветвление происходит постоянно, перестановка машинных инструкций таким образом, чтобы те инструкции, которые, скорее всего, понадобятся, были размещены в конвейере, может значительно уменьшить потери скорости по сравнению с необходимостью каждый раз полностью сбрасывать конвейер. Программы типа gcov могут использоваться для того, чтобы определять, как часто отдельные ветки исполняются на самом деле, используя технологию, известную как анализ покрытия кода англ. Высокая пропускная способность конвейеров приводит к уменьшению производительности в случае, если в исполняемом коде содержится много условных переходов: процессор не знает, откуда читать следующую инструкцию, и поэтому вынужден ждать, когда закончится инструкция условного перехода, оставляя за ней пустой конвейер.

После того, как ветка будет пройдена и станет известно, куда процессору необходимо переходить в дальнейшем, следующая инструкция должна будет пройти весь путь через конвейер перед тем, как результат становится доступным и процессор снова «работает». В крайнем случае, производительность конвейерного процессора может теоретически упасть до производительности бесконвейерного, или даже быть хуже за счёт того, что будет занят только один уровень конвейера и между уровнями присутствует небольшая задержка.

Если процессор оснащён конвейером, код, читаемый из памяти, не выполняется сразу, а помещается в очередь очередь предвыборки, prefetch input queue. Если код, содержащийся в памяти, будет изменён, код, содержащийся в очереди конвейера, останется прежним. Также не изменятся инструкции, находящиеся в кэше инструкций. Стоит учитывать, что данная проблема характерна только для самомодифицирующихся программ и упаковщиков исполняемых файлов. Материал из Википедии — свободной энциклопедии.

Необходимо проверить качество перевода и исправить содержательные и стилистические ошибки. Вы можете помочь улучшить эту статью. Оригинал на английском языке — Instruction pipelining. Эта отметка стоит на статье с 05 апреля года. У этого термина существуют и другие значения, см.

Конвейер значения. Основная статья: Тактовый генератор. The First Computers: History and Architectures. Основы программирования для цифровой машины «Урал». Информационные технологии в СССР. Создатели советской компьютерной техники. Memory Systems and Pipelined Processors. Технологии цифровых процессоров. Конвейер Внеочередное исполнение Переименование регистров Спекулятивное исполнение [en] Предсказатель переходов Предвыборка кода.

Бит Инструкций Суперскалярность Данных Задач. Многопоточность Superthreading Одновременная многопоточность Hyperthreading Аппаратная виртуализация. Категории : Технологии процессоров Обработка команд. Скрытые категории: Страницы, использующие устаревший тег source Страницы, использующие волшебные ссылки ISBN Википедия:Статьи, требующие уточнения источников Википедия:Нет источников с ноября Википедия:Статьи без источников тип: не указан Википедия:Статьи с утверждениями без источников более 14 дней.

Пространства имён Статья Обсуждение. Просмотры Читать Править Править код История. Зелёная инструкция раскодируется Фиолетовая инструкция забирается из памяти. Зелёная инструкция выполняется то есть исполняется то действие, которое она кодировала Фиолетовая инструкция раскодируется Синяя инструкция забирается из памяти.

For example, in the assembly line of a car factory, each specific task—such as installing the engine, installing the hood, and installing the wheels—is often done by a separate work station. The stations carry out their tasks in parallel, each on a different car. Once a car has had one task performed, it moves to the next station. Suppose that assembling one car requires three tasks that take 20, 10, and 15 minutes, respectively.

Then, if all three tasks were performed by a single station, the factory would output one car every 45 minutes. By using a pipeline of three stations, the factory would output the first car in 45 minutes, and then a new one every 20 minutes. As this example shows, pipelining does not decrease the latency , that is, the total time for one item to go through the whole system. Since the throughput of a pipeline cannot be better than that of its slowest element, the designer should try to divide the work and resources among the stages so that they all take the same time to complete their tasks.

In the car assembly example above, if the three tasks took 15 minutes each, instead of 20, 10, and 15 minutes, the latency would still be 45 minutes, but a new car would then be finished every 15 minutes, instead of Under ideal circumstances, if all processing elements are synchronized and take the same amount of time to process, then each item can be received by each element just as it is released by the previous one, in a single clock cycle.

That way, the items will flow through the pipeline at a constant speed, like waves in a water channel. In such "wave pipelines", [2] no synchronization or buffering is needed between the stages, besides the storage needed for the data items. More generally, buffering between the pipeline stages is necessary when the processing times are irregular, or when items may be created or destroyed along the pipeline.

For example, in a graphics pipeline that processes triangles to be rendered on the screen, an element that checks the visibility of each triangle may discard the triangle if it is invisible, or may output two or more triangular pieces of the element if they are partly hidden. Buffering is also needed to accommodate irregularities in the rates at which the application feeds items to the first stage and consumes the output of the last one.

The buffer between two stages may be simply a hardware register with suitable synchronization and signalling logic between the two stages. When a stage A stores a data item in the register, it sends a "data available" signal to the next stage B. Once B has used that data, it responds with a "data received" signal to A. Stage A halts, waiting for this signal, before storing the next data item into the register. Stage B halts, waiting for the "data available" signal, if it is ready to process the next item but stage A has not provided it yet.

If the processing times of an element are variable, the whole pipeline may often have to stop, waiting for that element and all the previous ones to consume the items in their input buffers. The frequency of such pipeline stalls can be reduced by providing space for more than one item in the input buffer of that stage.

Such a multiple-item buffer is usually implemented as a first-in, first-out queue. The upstream stage may still have to be halted when the queue gets full, but the frequency of those events will decrease as more buffer slots are provided. Queueing theory can tell the number of buffer slots needed, depending on the variability of the processing times and on the desired performance.

If some stage takes or may take much longer than the others, and cannot be sped up, the designer can provide two or more processing elements to carry out that task in parallel, with a single input buffer and a single output buffer.

As each element finishes processing its current data item, it delivers it to the common output buffer, and takes the next data item from the common input buffer. This concept of "non-linear" or "dynamic" pipeline is exemplified by shops or banks that have two or more cashiers serving clients from a single waiting queue.

In some applications, the processing of an item Y by a stage A may depend on the results or effect of processing a previous item X by some later stage B of the pipeline. In that case, stage A cannot correctly process item Y until item X has cleared stage B.

This situation occurs very often in instruction pipelines.