За четыре десятилетия эволюции персональных компьютеров мы привыкли к тому, что в компьютере стоят минимум два процессора. На центральном лежит исполнение всех рутинных обязанностей, а вспомогательный графический отвечает за изображение. Строго говоря, долгое время сердце видеочипов процессором не считалось, но увеличение мощности, расширение функций и возможность прямого программирования привели к рождению в конце 90-х термина GPU (согласно легенде, первой его употребила Nvidia для линейки GeForce). В «нулевых» производительность графических чипов превзошла мощь центральных, после чего бывшие «вспомогательные» просочились в суперкомпьютеры: сегодня несколько числогрызов из числа самых быстрых на планете активно используют графические процессоры, а начальная версия Tianhe-I (лидер суперкомпьютерного хит-парада) содержала больше GPU, нежели CPU.
Перестановка слагаемых головокружительна, но изюминка текущего момента в том, что разделение процессорных единиц может исчезнуть вообще. Согласно свежему отчёту о состоянии компьютерного рынка (IHS ISuppli), уже в текущем году половина поставленных ноутбуков и почти половина десктопов будут оснащены универсальными микропроцессорами, совмещающими на одном кристалле центральный и графический вычислительные компоненты. В 2010-м, благодаря Intel Atom, доля таких систем колебалась около одной трети, а к 2014 году восемь из десяти новых ноутбуков и примерно столько же настольных систем будут оснащены новыми типами процессорных единиц.
Устоявшегося термина, обозначающего универсальный микропроцессор, пока нет. Одни, вслед за AMD, именуют такие чипы APU (Accelerated Processing Unit — ускоренное вычислительное устройство). Кто-то предпочитает gCPU (g — от «graphics»). Чаще других звучит аббревиатура GEM (Graphics Enabled Microprocessor — микропроцессор с графическими функциями).
Но как бы ни называли такие чипы разные производители, у них общая ключевая особенность: графический и основной микропроцессоры размещаются на одном кристалле. Между прочим в AMD эту маленькую деталь считают крупнейшим архитектурным достижением со времён рождения x86.
Несколько упрощая техническую часть, GEM-процессоры можно представить как логическое продолжение так называемой интегрированной графики. Последняя предполагает внедрение видеокарты в материнскую плату (набор системных микросхем, системный чипсет) — и давно стала стандартом де-факто: «интегрированное видео» стоит на девяти из десяти современных компьютеров. Но с точки зрения центрального микропроцессора, интегрированная видеокарта ничем не отличается от обычной, выполненной отдельной платой: общение с ней так же ведётся через чипы-посредники. Принципиальное отличие GEM-процессора как раз и заключается в том, что между CPU и GPU посредники отсутствуют.
Прямое общение основного и графического процессоров, размещённых на одном кристалле, выливается в множество плюсов. Во-первых, увеличивается общая производительность системы и, к примеру, появляется возможность смотреть HD-видео и строить сложные пользовательские интерфейсы без ущерба для основной задачи на слабых нетбуках. Во-вторых, повышается энергоэкономичность: ноутбуки на GEM-процессорах даже при полной загрузке способны продержаться весь рабочий день на одном заряде аккумулятора. Наконец, благодаря однокристалльной схеме становится заметно дешевле производство связки CPU+GPU.
Согласно известной шутке пятнадцатилетней давности, мультимедия — это когда всё поблёскивает, попискивает и помигивает, а работа стоит. К сожалению или счастью, противники мультимедийных штучек недооценили интерес публики к подобным продуктам. Считается, что именно спрос на портативные компьютеры, способные без натуги обрабатывать всё богатство медиапотоков, оставаясь в автономном режиме как можно дольше, подтолкнул к созданию GEM-микропроцессоров.
Конечно, GEM не панацея от всех бед и, к примеру, не в состоянии конкурировать с системой, оптимизированной для игр или обработки видео, где графическая часть возложена на отдельную дорогую видеокарту. Но особенно для нижнего сегмента массового рынка, простёршегося от нетбуков до недорогих десктопов, GEM может оказаться идеальным решением.
В текущем году сражение за GEM-системы развернётся между Intel и AMD. Первая выводит на рынок архитектуру Sandy Bridge, вторая — чипы из семейства Fusion. В обоих случаях выпускаются микропроцессоры для всех классов ходовой вычислительной техники, от нетбуков до серверов. Кроме того, GEM-процессорами занимается Via, но она сосредоточена на встраиваемых и промышленных системах, поэтому её влияние на массовый рынок минимально.
Какие перемены компьютерному миру сулит пришествие GEM-чипов? Аналитики пока очень осторожны в оценках перспектив, отдавая приоритет энергоэкономичности систем с новыми процессорами. Тот факт, что средний GEM-ноутбук, загруженный настоящими (не теоретически-тестовыми) приложениями, способен сохранить автономность на протяжении всего дня, должен подстегнуть фантазию разработчиков программного обеспечения. Что же касается конкуренции GEM с видеокартами, здесь всё ещё сложней. Пришествие GEM-чипов действительно обозначило скорую кончину интегрированной графики, но это обстоятельство эксперты предвидели ещё пару лет назад.
Вместе с тем предполагалось, что доминирующее влияние Nvidia на рынке графических чипов будет существенно ослаблено GEM-инициативой Intel и AMD. И вот сторонников этой теории подстерегла настоящая неожиданность. После того, как нынешней зимой Nvidia частично рассекретила проект Denver, стало ясно, что жертва поменялась ролями с хищниками.
Таинственный Denver представляет собой полноценный высокопроизводительный 64-разрядный ARM-совместимый микропроцессор для настольных систем, построенный по уже знакомой схеме GEM: на одном кристалле с главным вычислителем будет размещена и традиционно мощная графическая часть. На прилавках он может появиться через пару лет и сразу же занять хорошее место: ведь к тому времени на ARM-процессорах, популярных сегодня среди производителей портативных устройств, будет работать даже MS Windows.
Таким образом одна из важнейших перемен, могущая произойти благодаря пришествию GEM, заключается в окончании гегемонии x86. Если смелая затея Nvidia удастся, на рынок персональных компьютеров впервые после Alpha придёт альтернативный набор инструкций. Какими коллизиями и трансформациями обернётся этот этап, никто предсказать пока не берётся.