мечты о видеокарте

:entry
Недавно задумался - а какой, собственно, мне хочется видеть видеокарту будущего? Проходя мимо "музейного" экземпляра системной платы 286 машины (с воткнутыми в нее современными ей картами расширения), осенило - вот именно такой и хочется ее видеть: плата с большим количеством микросхем, а не современные подобия системных (с центральным чипом с огромным TDP, с заметным PSU для него). Одним словом, типичная "шоколадка".

:data

Логично было бы тогда каждый из конвееров рендеринга расположить на "своей" линии PCI Express. Помимо упрощения арихитектуры, это еще дает широкие возможности масштабирования, ну, а в случае желания разместить на 1 плате более 16 GPU - просто добавить чип типа NF200.
Чип, названный на схеме "Greed" будет отвечать за сборку отрендеренных каждым GPU фрагментов. Собственно поэтому ему и понадобится немного своей памяти для фреймбуфера (RAM2D) и для Z-буфера (RAM3D). Также ему придется заниматся композицией изображений, полученных несколькими видеокартами (по сути аналог Xilinx XC3S400, применявшегося на XF1G). При этом желательно не заставлять его заниматся вещами типа Post-processing, лучше пусть он опять распараллелит их и озадачит ими GPU. Собственно, часть нагрузки должна будет выполнена еще драйверами - распараллелить по (имеющейся) куче GPU. Линии, соединяющие каждый из GPU с Greed - это может быть типичная межчиповка типа HT или тот же PCI Express. Желтые линии межкарточных связей - тоже нечто вроде этого. В свете роста объема кэша процессоров, возможно, не будет нужды в "собственной" микросхемы внешней памяти для GPU.

:sample


Собственно из таких сообржаний и вырисовавается общий вид карточки: напротив каждого GPU - свой блок памяти, на задней части, у самых разъемов, Greed. Большое количество выводов, обусловленное и "своей" памятью, и большим количеством GPU, возможно, сделает более выгодным ставить на старшие видеокарты их парами, соответственно уменьшив чип. Разнести в разные края bracket`а разъемы можно для оптимизации охлаждения, выполнив его в виде одного Ш-образного радиатора, расположив в средней части vent holes.

:red or blue


Попробую оценить возможность выпустить подобное изделие: сколько сложностей ожидает фирмы Ш и А на этом пути.
С одной стороны, что наиболее близко подошел Штеуд. По сути, если будет выпушен iAtom (ULV-вариант i9), это уже почти готовый GPU для данной схемы: TDP, PCI-Express, контроллер памяти. GPU (gAtom) должен нести PCI-Ex2 (зеленые и желтые линии будут PCI-Ex1), а Greed (g9) будет чем-то вроде вроде упрощенного i9 (или 2ух). Логично тогда будет выделить одну из линий PCI-Ex прямо на Greed. Также можно вспомнить желание Штеуда выпустить GPU с x86-ядром.

С другой стороны, для связей Greed-Greed и Greed-GPU более адекватным будет HyperTransport как традиционная уже межчиповка. Встроенный в процессор контроллер памяти лучше изучен в AMD в том смысле, что проблемы когерентности (уже не кэша, а типа N.U.M.A.) встали перед ними раньше. И у AMD есть ATI как специалисты по архитектурe GPU. В свете планов по выпуску процессоров с интегрированным видеоядром межчиповкой CPU-GPU вполне может стать HT (если, по слухам, они будут выпущены на разных кристаллах).

:end
Надеюсь, что мои "сырые" мысли, хоть и не были достаточно последовательно изложены, все\таки нашли понимание. Это ни в коем случае не есть готовая статья, хотя у меня и есть надежда довести этот текст до такого состояния.

:disclaimer
Все изложенное - не более чем гипотетические построения. Текст stage alpha, поэтому в нем куча неточностей, опечаток и такого, что осталено между строк.

:old-data
radeon.ru/articles/technology/chiparch/img/s1.png
radeon.ru/articles/technology/chiparch/img/s2.png

не самые удачные рендеры
lomran.mail333.su/9.10.27/components%20side%d8.jpg
lomran.mail333.su/9.10.27/back%20side0.jpg

Аватар пользователя Root

Хм. картинок не вижу. Идея на самом деле витает в воздухе.
Я уже предлагал концепцию следующего вида:
- на текущий момент времени и GPU, и CPU имеют встроенный контроллер памяти.


- CPU имеет шину HT, GPU - PCI-Express, но нет никаких преград для того, чтобы сделать основным интерфейсом для GPU - HT.
- в случае унификации пинаута между GPU/CPU можно сделать мат. плату с N разъемов, в которые пользователь сможет ставить нужное ему кол-во процессоров и видеоядер. При этом эти N разъемов будут объединены по принципу каждый с каждым... Ну, или по менее растратному "кольцу"...
При этом у каждого из ядер есть своя память... Но они могут лазить и в "чужую" память. [хотя это опционально] На Оптеронах АМД все проблемы, связанные с такой организацией уже победила...
Уже весело получается. Масштабируемость при этом получается лютая. Не то что у Интела с QPB и нВидия со SLI :)
Так что все в руках производителей.

Аццкий ромбовод {:€
Я пока не волшебник - я только учусь! :-P

Аватар пользователя great coder

Что-то с фотофилом, так что картинок не видать (. Выложил на довольно тормознутый и левый, пашет и ладно.
Но текст еще сильно некондиционный, так что не сильно расстраиваюсь )

Root


но нет никаких преград для того, чтобы сделать основным интерфейсом для GPU - HT.
Есть. HT - самая обычная межчиповка и плохо выводится на разъем.
Хотя концепция и вправду красивая. Но с ней сама видеокарта становится достоянием истории.

Была еще идея AMD ставить на socket940 (или уже F?) процессоры для специализированных расчетов и т.п.: Torrenza. В ее рамках вполне можно было бы попробовать сделать HT Video. Правда, во времена 940 это было безнадежно из-за малой ПСП DDR1, если от этой идеи не отказались, на DDR3 это не так уж и плохо.

Выход обычно есть. Но он не работает.

great code писал(-а):
HT - самая обычная межчиповка и плохо выводится на разъем.

Выводится - стоит вспомнить KxUpgrade серию от AsRock;) Чего они только на разъем не выводили - и HT, и V-Link, и вроде как для интелов что-то даже было (уже не помню, что - смотреть на оффсайте лень)...

Уважаемые коллеги, в переписке с нашими англоязычными партнерами помните: whether - который, weather - погода, wether - кастрированый баран!
У некоторых людей торс - это просто разветвитель, позволяющий подключить руки и голову к заднице.

Аватар пользователя great coder

Ты этот разъем помнишь? Набранный из всевозможных PCI, PCI-Ex - иначе как "Плохо" это не назовешь..

Выход обычно есть. Но он не работает.

Отправить комментарий

Содержание этого поля является приватным и не предназначено к показу.
  • Разрешённые HTML-теги: <a> <em> <strong> <cite> <code> <ul> <ol> <li> <dl> <dt> <dd> <img>
  • You can use BBCode tags in the text. URLs will automatically be converted to links.

Подробнее о форматировании текста

Антибот - введите цифру.
Ленты новостей