Я уже неоднократно прохаживался по тому, насколько малоэффективными оказываются видеокарты в деле сжатия видео. Но вот на днях обнаружил еще один неприятный феномен – оказывается, и в декодировании помощь видеокарты иногда оказывается медвежьей услугой.

Как вы знаете, сегодня многие ноутбуки выпускаются с дискретной графикой. Это очень полезно, когда на мобильном компьютере играют, а для тех, кому не до игр, есть отличная замануха – мол, мощный графический чип берет на себя работу по воспроизведению видео высокой четкости, и даже при относительно слабом процессоре вы сможете смотреть хоть 1080p. Заманчиво? Без сомнения – да. У большинства плееров, идущих с ноутбуком в нагрузку, акселерация включена по умолчанию, да и в сборках Media Player Classic она обычно обнаруживается и начинает использоваться без участия пользователя.

Нет, в том, что GPU умеет гладко и добротно декодировать видео, я сомневаться не рискну. Дело в другом: в зависимости от конфигурации, время автономной работы при просмотре кино с участием GPU снижается на 15-25%. Это мелочь, когда речь идет о ноутбуке, проводящем всю свою жизнь на офисном или домашнем столе. Но если это портативный малыш, с которым вы постоянно носитесь по командировкам – как, пригодится лишний час-другой?

И дальше самое смешное: мощности любого современного двухъядерника, включая бюджетные Celeron и Pentium, с запасом хватает для декодирования видео с разрешением до 720p включительно. С 1080р младшие модели могут не справиться, но, согласитесь, странно смотреть рип 1920х1080 на экране, отображающем, скажем, 1366х768 точек. Можно, конечно – но зачем?

А уж о полезности применения GPU в декодировании видео с SD-разрешением даже говорить не приходится. Ну разве что вы как-то особенно не любите «зеленых» и стремитесь любыми способами им досадить. В том числе и сажая батарею почем зря.

Если вы в дороге решили посмотреть кино – снимите ненужную галочку в настройках плеера.

Use CPU. Be smarter :)