CPU vs. GPU
- 21/05/2009
- 👁 56 просмотров
- 0
Сейчас очень модно жать видео графическими ускорителями. По крайней мере, среди IT-журналистов. И вообще по рынку бродит убеждение, что-де видеокарты скоро заменят процессоры в суперкомпьютерах. Один мой знакомый главный редактор так накрутил домашний компьютер, что тот, бедняжка, подает ему видеопоток прямиком на iPhone. Я же после опытов с уже описанной в блоге утилитой Badaboom вернулся к кодированию на процессоре. Может, немного медленнее получается (и конкретно медленнее, если использовать Atom вместо Core i7), но до чего же удобнее и более предсказуемо…
А тут девятнадцатого мая в Москве прошло очередное заседание клуба экспертов Intel, куда я некоторое время вхожу. Правильнее, конечно, назвать это собрание пресс-клубом, потому что участвуют в нем сплошь журналисты, не все из которых могут, не скрещивая пальцев, назвать себя экспертами. Лично я, пожалуй, не рискнул бы :) Приятно, что пресс-клуб у Intel получился очень долговечным. На моей памяти аналоги пыталась сделать не одна серьезная компания, но после двух-трех заседаний все схлопывалось и сдыхало. А оригинал все живет и живет.
Так вот на очередном пресс-клубе речь шла о высокопроизводительных вычислениях. Андрей Сёмин, технический директор региона ЕМЕА в соответствующем секторе, очень достойно прошелся по GPU-фанатам. По его словам, им надо обратить внимание на три пункта. Первый — увеличение расходов на программирование. Да, GPU — довольно гибкие штуки, но спецов, способных выжимать из них максимум возможного, пока очень мало. И стоят они дорого. Второе — увеличение расходов на поддержку. Нестандартные решения, нестандартные железки, необычный софт… Это в наше время довольно дорого. Наконец, третье — отказоустойчивость больших систем и приложений. Поправьте меня, если я не прав, но серьезные видеокарты редко изначально затачиваются под работу в режиме 24х7. Можно поставить огромные кулеры, толстенные медные трубки, но получается, как с китайскими автомобилями: форма вроде правильная, но без опыта, помноженного на многие десятилетия, все выглядит смешной бутафорией. А опыта такого у «GPU-платформы» нет. Ни на уровне железа, ни, тем более, на уровне софта. Например, вам попадались видеокарты с памятью, поддерживающей контроль четности? Мне как-то нет.
То есть понятно, что титановой скрипкой, если приноровиться, можно отлично забивать гвозди. Причем помногу сразу — скрипка-то здоровая! Но молоточком-то как-то надежнее. И на круг — быстрее.
Кстати, я тут почитал системные требования Badaboom. Так вот одноядерные процессоры она не признает категорически: подайте, говорит, два ядра или больше! Это жу-жу-жу явно неспроста :)
P.S. Пользуясь случаем, передаю привет Валерию Черепенникову из Нижнего Новгорода, также присутствовавшему на пресс-клубе, и выражаю надежду, что он передал привет Дмитрию Оганезову.