5 худших видеокарт Nvidia за всю историю компании

Nvidia — весьма успешная корпорация, одна из самых богатых в мире. За её продукцией, в особенности чипами вроде H100 и A100, выстраиваются очереди из представителей Google, Microsoft и т. п. Всё это говорит о том, что руководство Nvidia понимает, как правильно работать, инженеры грамотные, да и продажники отличные. Но даже у такой компании бывают неудачи. Например, видеокарты. Сегодня поговорим о худших графических адаптерах от Nvidia в её истории.

GeForce RTX 3080

На первый взгляд — неплохая карта. Для серии RTX 30 компания Nvidia разработала новую архитектуру Ampere, которая помогла решить большое количество проблем чипов RTX 20-й серии на базе Turing. Кроме того, чипы стали выпускать по 8-нм техпроцессу, что означало большую производительность с улучшенной энергоэффективностью.

В сентябре 2020 года компания запустила в продажу модели RTX 3080 и 3090. 3080 за $699 был примерно на одном уровне с 3090 за $1 499. Кроме того, эта карта производительнее RTX 2080 Ti — как в играх с трассировкой лучей, так и без неё. Многие эксперты положительно оценили карту, поскольку она была действительно неплохая.

Почему она вошла в список? После выхода видеокарты оказалось, что купить её по рекомендованной цене практически невозможно. Коронавирусная пандемия и эпидемия криптомайнинга привели к сильному удорожанию карт. Цена модели поднялась выше $1 500. Даже после завершения пандемии, спустя два года после выхода карты, её стоимость не опускалась ниже $699.

Когда же её смогли, наконец, опробовать обычные геймеры, т. е. после завершения дефицита, оказалось, что адаптеру не хватает объёма памяти, особенно это актуально для последних тайтлов. Плюс ко всему у ряда карт этой серии установлено бюджетное охлаждение, которого явно недостаточно для мощного чипа.

В целом, всё это сделало GeForce RTX 3080 одной из самых неудачных в истории компании. Подавляющее большинство геймеров так и не познакомилось с ней.

GeForce RTX 4060 Ti

Несмотря на то, что это относительно новый продукт, видеокарта поступила в продажу всего полгода назад, её уже можно назвать неудачной. При этом у неё есть положительные качества. Например, видеоадаптер производительнее, чем карты 30-й серии. Также компоновка чипа в три раза плотнее, чем у GA104. Но есть и проблемы, причём большинство снова связано с памятью.

Существует две разновидности модели 4060 Ti: одна поставляется с 8 Гб видеопамяти, вторая — с 16 Гб. Очевидно, что 8 Гб уже явно недостаточно, тем более мы только что говорили об аналогичных проблемах предыдущего поколения адаптеров. А вот GeForce RTX 4060 Ti с 16 Гб стоит на $100 больше, что уже сильно бьёт по карману.

Но здесь ещё и экономия на мелочах. Например, установлена 128-битная шина, что означает вдвое меньшую, чем у карт предыдущего поколения, пропускную способность — 288 ГБ/с, а не 448 ГБ/с. Кроме того, у 4060 Ti только восемь линий PCIe вместо 16.

В итоге эта модель является аналогом RTX 3070 без увеличенной производительности и поддержки DLSS 3 Frame Generation. Таким образом, мы получили дорогой аналог предыдущего поколения карт без особых улучшений. Всё было бы ок, если Nvidia выпустила бы эти модели с ёмкостью видеопамяти 12 Гб и 192-битной шиной. Но нет, производитель решил сэкономить, в итоге карта получилась неудачной.

GeForce RTX 2080

Адаптеры 20-й серии RTX можно было бы назвать прорывом в гейминге. Дело в том, что это первые видеокарты с трассировкой лучей. Эту технологию даже стали называть «Святым Граалем» графики в играх.

Но за эту революцию в дизайне пришлось платить, причём не производителю, а покупателям. Так, карты серии RTX были очень дорогими. Например, RTX 2080 Ti дебютировала по цене $1 199. Ни одна из видеокарт компании ранее не продавалась по настолько высокой стоимости.

Кроме того, на момент выхода графического адаптера практически не было игр с поддержкой трассировки лучей. И прошло немало времени, прежде чем такие тайтлы появились. Единственная игра 2018 года, предлагающая трассировку лучей, Battlefield V, не показывала всех преимуществ технологии.

В целом, новые графические адаптеры были более производительными, чем видеокарты предыдущего поколения. Но стоили они столько, что многие геймеры предпочитали не обновляться, прямой выгоды от апгрейда не было, а вот тратиться приходилось изрядно.

Кстати, даже спустя много месяцев после выхода этого поколения адаптеров трассировка лучей была добавлена лишь в небольшое количество игр. Та же Atomic Heart, несмотря на многочисленные демки с поддержкой технологии, вышла без трассировки, разработчики пообещали добавить всё это позже. По статистике, даже сегодня лишь 37% пользователей RTX 20-й серии включают трассировку лучей.

Что было действительно прорывным в 20-й серии, так это Deep Learning Super Sampling, или DLSS. Старт технологии тоже был непростым, но сегодня она интегрирована в более чем 500 игр и отлично работает. Может быть, Nvidia следовало бы уделять больше внимания DLSS, чем трассировке лучей.

В целом, главный недостаток этого поколения графических адаптеров — неоправданно высокая цена. Если бы не это, то карта вряд попала бы в список.

GeForce GTX 480

А это уже дела давно минувших дней. И для того времени это был флагман, но очень горячий, в прямом смысле слова. Энергоэффективность чипа была крайне низкой, потребляла карта около 300 Вт, что соответствовало уровню энергопотребления конкурента — HD 5970 сразу с двумя графическими процессорами.

Штатный кулер очертаниями несколько напоминал гриль, что стало поводом для насмешек и мемчиков. Создавались видео с готовкой при помощи видеокарты и т. п. В общем, это было не лучшее время для того, чтобы продвигать эти адаптеры. Перегрев влиял на выход карт из строя, что крайне расстраивало геймеров.

В конечном счёте компании пришлось срочно давать рынку другие карты, ими стали адаптеры серии GTX 500 с доработанной архитектурой Fermi. Одна из них, GTX 580, тоже потребляла 300 Вт при росте производительности всего на 10%. Тем не менее остальные модели новой серии имели лучшую энергоэффективность.

Неудача повлияла на долю рынка компании — AMD тогда была очень близка к тому, чтобы обогнать Nvidia, чего не случалось с середины 2000-х годов. Несмотря на всё это, Nvidia по-прежнему оставалась весьма прибыльной компанией, так что ей удалось выйти почти сухой из воды. Более того, используя опыт неудачи, она смогла улучшить качество своей продукции в следующих поколениях адаптеров.

GeForce FX 5800 Ultra

В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000. Чип производился по 150-нм техпроцессу, Nvidia удалось выпустить достойного конкурента лишь после перехода на 130-нм техпроцесс.

Но в стремлении побыстрее представить альтернативу, а также удешевить её производство компания оставила низкую пропускную способность карты — 16 ГБ/с по сравнению с почти 20 ГБ/с у 9700 Pro. Была также проблема, из-за которой анизотропная фильтрация выглядела не очень хорошо, что стало ещё одним недостатком нового адаптера.

Но главный минус в том, что у карты было огромное для того времени энергопотребление в 75 Вт. Установленный вентилятор шумел так, что этот звук сравнивали с шумом от работы пылесоса или воздуходувки для листьев. Тогда появились и мемы на эту тему — один из них как раз и размещён выше.

Недостатки привели к тому, что Nvidia быстро приступили к разработке нового адаптера. И на этот раз всё получилось — в продаже всего через полгода появился новый, улучшенный флагман GeForce FX 5900 Ultra. Графический процессор имел огромную для того времени пропускную способность 27 ГБ/с, исправленные драйверы и гораздо более разумное энергопотребление — около 60 Вт.

А какую видеокарту от Nvidia из тех моделей, что опробовали сами, вы бы назвали неудачной?

 

Источник

nvidia, видеокарт, всю, за, историю, компании, худших

Читайте также