В чeтвeрг вeчeрoм кoрпoрaция Intel oбъявилa o сoздaнии Core and Visual Computing Group, пoдрaздeлeния пo рaзрaбoткe дискрeтныx грaфичeскиx прoцeссoрoв ради игрoвыx ПК, a тaкжe ускoритeлeй вычислeний на супeркoмпьютeрoв и рaзличныx пeрспeктивныx прилoжeний. Нoвую группу вoзглaвит извeстный спeциaлист Рaджa Кoдури (Raja Koduri), успeвший пoрaбoтaть в ATI, Apple и AMD Radeon Technologies Group. Сaм фaкт тoгo, чтo в Intel рeшили вeрнуться к сoздaнию дискрeтныx грaфичeскиx прoцeссoрoв в трeтий рaз, гoвoрит o тoм, чтo кoмпaния сущeствeннo мeняeт стрaтeгию нa нeскoлькиx рынкax.
«Рaджa являeтся oдним изо сaмыx oпытныx, нoвaтoрскиx и увaжaeмыx визиoнeрoв в oблaсти грaфичeскиx и систeмныx aрxитeктур в индустрии и eщё oдним примeрoм тoгo, кaк лучшиe тaлaнты присoeдиняются к Intel,» — скaзaл Мурти Рeндучинтaлa (Murthy Renduchintala), прeзидeнт группы Client and Internet of Things Business & Systems Architecture Group (CISA). «У нaс eсть зaxвaтывaющиe плaны пo aктивнoму рaсширeнию нaшиx вычислитeльныx и грaфичeскиx вoзмoжнoстeй с испoльзoвaниeм нaшeгo всeoбъeмлющeгo пoртфeля интeллeктуaльнoй сoбствeннoсти. С Рaджeй вo глaвe Core and Visual Computing Group автор этих строк дoбaвим в нaш пoртфeль нeпрeвзoйдённыe вoзмoжнoсти, прoдвинeм нaшу стрaтeгию в oблaсти вычислeний и грaфики и, впoслeдствии, стaнeм движущeй силoй рeвoлюции oбрaбoтки дaнныx».
Intel вoзврaщaeтся нa рынoк дискрeтныx GPU
Принимaя изумительный внимание характер анонса, на свет не глядел бы ожидать, что Intel раскроет многообещающий план по разработке графических и вычислительных технологий, тот или другой будет реализовываться под руководством господина Кодури. Тем малограмотный менее, пресс-релиз Intel раскрывает магазин деталей о характере будущих решений компании.
Коренной задачей Раджи Кодури в Intel способен создание семейства высокопроизводительных дискретных графических решений чтобы различных приложений. Данные решения будут расквартировываться на унификации различных архитектур и интеллектуальной собственности Intel, а конечные продовольствие будут использоваться для обработки графики, суперкомпьютерных вычислений, искусственного интеллекта и ряда других перспективных направлений.
Добро бы задача господина Кодури к тому идет однозначной, её исполнение означает немелочный сдвиг в стратегии Intel по части целому ряду направлений, а благодаря тому что есть смысл вспомнить хитрость Intel к разработке GPU и суперкомпьютерным ускорителям.
Intel 740 и графические адаптеры стоимостью похода в стоячка
Глядя на взрывной разбухание популярности графических ускорителей интересах игровых ПК в 1990-х годах прошлого века, в Intel осознали, что-нибудь подобные микросхемы могут послужить новым рынком сбыта, а благодаря чего корпорация должна выпустить являвшийся личной собственностью графический процессор. Поскольку у Intel никак не было собственной команды разработчиков графических адаптеров, в таком случае для работы над проектом Auburn шайка-лейка решила объединить усилия с другими игроками рынка — Real3D (изначально манип General Electric, затем — Lockheed Martin) и Chips and Technologies.
Auburn появился получи и распишись свет в начале 1998 годы под именем Intel 740, а его главной особенностью получается использование инновационной по тем временам шины AGP. В теории AGP позволяла сберегать текстуры в системной памяти, тем самым снижая запросы к объёму оперативной памяти получай графическом адаптере и его курс. На практике хранить текстуры в системной памяти было несходно с точки зрения производительности, драйверы Intel 740 оказались безгранично несовершенны, а конкуренция со стороны традиционных разработчиков графических адаптеров так серьёзной, что в Intel приняли приговор прекратить продажи i740 в осеннее время 1999 года. Чуть после Intel попыталась выпустить всё ещё один дискретный графический сердце компьютера (Intel 752), но безграмотный смогла сделать его сколь-то массовым.
Неудачи i740 и i752 показали Intel, что же компания не может вывезти на своих плечах конкуренции с ATI и NVIDIA на рынке видеокарт. При всем том имеющиеся на тот дни возможности полупроводникового гиганта в области интеграции, производства и продаж подсказали Intel, словно она в состоянии создавать дешевые интегрированные графические решения интересах недорогих ПК. Таким образом, в недрах Intel родилось наряд под руководством Тома Пиаццы (Tom Piazza), которое занималось разработкой графических процессоров Graphics & Media Accelerator (GMA), чья значимость для конечных пользователей была равна цене похода в кафе-кондитерская. Поскольку Intel жёстко ограничивала ход своих встроенных GPU транзисторным бюджетом, размерами держи кристалле и устаревшими технологическими процессами производства, GMA имели хватит скромные возможности и посредственную репутацию.
Минуя несколько лет в Intel пожалели о таком подходе, так до того времени недорогая видеографика Intel стала весьма популярной внутри желающих снизить себестоимость производителей ПК.
Intel Larrabee: x86 ото игрового ПК до суперкомпьютера
Шло сезон, в начале 2000-х годов в отрасли заговорили о волюм, что GPU можно использовать с целью определённых вычислений общего назначения в суперкомпьютерах, получив предпочтение от их «параллельности». Не беря в расчет GPU, на рынке появлялись гетерогенные (Niagara/Sun UltraSPARC T1) и гомогенные (Cell BE) многоядерные процессоры, вот и все направленные в т. ч. на суперкомпьютеры. Ясно, как GPU, так и многоядерные CPU представляли прямую угрозу ради Intel. Помимо этого, невзирая на то, что интегрированные GPU Intel использовались в огромном количестве недорогих ПК, торжище дорогих дискретных GPU рос, одинаково как средняя стоимость графических карт. Таким образом, в 2005 году директорство Intel приняло решение подновить работу над дискретными графическими процессорами, же при этом не рыпаться улучшить архитектуру GMA до уровня дискретных GPU ATI и NVIDIA, а разбудить нечто иное. Впоследствии сие стало проектом Larrabee.
Основные спрос к разрабатываемой GPU-архитектуре были просты: большое нажин вычислительных ядер общего назначения нате базе архитектуры x86, высокая тактовая колебание, максимальное количество операций с плавающей запятой в не уходите (TFLOPS), минимальное количество специфических во (избежание GPU блоков. Учитывая требования и разноцелевой характер будущего продукта, изначально редакция получил название SMAC (Simple, Massive Array of Cores — безыскуственный огромный массив ядер). В руководстве Intel считали, ровно «гибкие» высокочастотные x86-ядра смогут производить те же задачи, сколько и специализированное аппаратное обеспечение в GPU с приемлемой скоростью, их метраж даст возможность максимизировать вычислительную интенсивность для суперкомпьютеров, а совместимость с x86 облегчит работу HPC-программистов, привыкших к Intel Xeon.
По словам разработчиков, чтобы эмуляции аппаратных возможностей GPU получай 62-ядерном графическом процессоре Larrabee запускали операционную систему FreeBSD и программу DirectXGfx. Последняя безлюдный (=малолюдный) только позволяла играть в DirectX 11-зрелище (разумеется, на обычной Windows-системе), хотя и добавлять Larrabee новые потенциал. К сожалению, такой подход безвыгодный позволил Larrabee показывать конкурентоспособную эффективность в сравнении с AMD Radeon и NVIDIA GeForce, аюшки? и послужило причиной отказа Intel с выпуска Larrabee в качестве GPU. Тем безлюдный (=малолюдный) менее, архитектура Larrabee была использована исполнение) сопроцессоров, а потом и процессоров Xeon Phi, призванных отбивать хлеб с ускорителями NVIDIA Tesla. Смотря на пиковую производительность топовых Xeon Phi 7290 (3,5 FP64 TFLOPS) и NVIDIA Tesla P100 (4 – 4,6 FP64 TFLOPS интересах PCIe карты, 4,7 – 5,3 FP64 TFLOPS угоду кому) NVLink ускорителя), довольно самоочевидно, что сегодняшний Xeon Phi в базе x86 не может брыкаться GPU на основе ядер с современной проприетарной архитектурой. Впору констатировать, что на текущий день Larrabee не преуспел ни в одной изо своих изначальных задач: некто не стал быстрым GPU и еле-еле ли может конкурировать с NVIDIA получай рынке суперкомпьютеров.
HD и Iris Graphics: мерзопакостный утёнок превращается в лебедя
Larrabee был без- единственным графическим проектом Intel, стартовавшим в середине 2000-х годов. Подобно ((тому) как) несложно вспомнить, операционные системы и графические интерфейсы становились полно более требовательными к ресурсам GPU с появлением Apple Mac OS X (2000), Microsoft Windows Vista (2006), Apple iPhone OS (2007) и других. В который-то момент Intel далеко не смогла убедить Apple утилизировать её микросхемы в своих мобильных устройствах с/ того, что у компании без- было сколько-то мощных встроенных GPU. Вне того, Стив Джобс (Steve Jobs) горячо требовал от Пола Отеллини (Paul Otellini, точный директор Intel c 2005 ровно по 2013 год) увеличить выработка. Ant. неэффективность интегрированных графических процессоров (iGPU), поелику использование дискретных GPU становилось трендец более проблематичным в мобильных ПК.
Поражение многомиллионного контракта, а также настойчивые запросы важного партнёра сделали своё деятельность: в 2007 году господин Отеллини объявил о планах умножить производительность встроенных GPU в 10 однова к 2010 году. Именно в настоящий момент настал золотой пора группы Тома Пиаццы, в старину разработавшей Intel 740.
Получив оплачивание, транзисторный бюджет, достаточное столица на кристалле, а затем и передовые технологии производства (на основании (каком перемещения iGPU в процессор), аут смогла разработать графическое уступка, которое превосходило производительность iGPU образца 2007 годы в 25 раз. В последующие годы плодотворность интегрированных графических процессоров Intel росла маловыгодный только благодаря улучшениям в области архитектуры, так и появлению более мощных версий сих iGPU c большим количеством исполнительных устройств (EU, execution units). Беспричинно, если наиболее мощное графическое основа класса GT3 в процессоре поколения Haswell обладало 40 EU, так CPU поколения Skylake уже могут похвастать iGPU класса GT4 с 72 EU. (языко показала практика партнёрства Intel c AMD в области интеграции дискретного Radeon в Вотан корпус с процессором Kaby Lake, Intel готова мелькать ещё дальше, чтобы вообразить своим пользователям более высокую коэффициент полезного действия.
Князь Кодури в Intel: чего предстоять?
Принятие на работу ключевого сотрудника конкурента, с которым токмо что был заключен условия на поставку важного компонента, говорит о книжка, насколько специалист уровня господина Кодури необходим Intel.
Чисто видно, в отличие от азы 2000-х годов, в Intel сильнее не считают графические ускорители уделом любителей игр и развлечений. Быстрая формирование. Ant. деградация iGPU компании последних парение подтверждает это. Судя сообразно всему, Intel готова вкладывать в графические процессоры, а потому Повелитель Кодури получит все необходимые ему потенциал. Сам факт принятия возьми работу специалиста такого уровня говорит об дупелину серьёзных намерениях.
Примечательно, а в Intel говорят об унификации архитектур и интеллектуальной собственности возьми фоне того, что Xeon Phi бери базе x86 не может соревноваться с NVIDIA Tesla в том, кое-что касается производительности. Неизвестно, означает ли выдумка Intel об унификации, как будто компания планирует отказаться ото x86-ядер в решениях для суперкомпьютеров, обаче едва ли это итак бы удивительным развитием событий.
Почитай, самый главный вопрос, получай который пока нет ответа, сие то, когда именно Intel планирует выработать свой новый дискретный GPU. В случае, (не то у компании нет уже готовой архитектуры, способной масштабироваться ото небольшого iGPU для ноутбука вплоть до дискретного графического процессора размером 550 мм2 и побольше, то работа над дискретным GPU Intel потребует нескольких парение. Таким образом, едва ли наш брат увидим плоды деятельности Раджи Кодури допрежь того 2022 года. Если но текущая (Gen 9.5) или будущая (Gen 10, Gen 11) графическая застывшая музыка Intel (чья разработка сейчас завершена) способна масштабироваться и предъявлять производительность сравнимую с будущими решениями AMD и NVIDIA, наш брат вполне можем рассчитывать усмотреть дискретный GPU компании уже в 2019–2020 году (так не раньше, иначе в партнёрстве Intel c AMD никак не было бы смысла).
Овчинка выделки стоит помнить, что поскольку в описании рабочих задач господина Кодури значится безвыгодный только проектирование нового GPU, так и унификация различных архитектур и интеллектуальной собственности Intel, архи вероятно, что мы поглядим несколько поколений продукции для того разных приложений, прежде нежели поставленная Intel задача хорошего понемножку выполнена.
Источник: