Тайная история NVIDIA ( 11 фото + 1 видео )
- 28.04.2018
- 1 245
Спорная инициатива NVIDIA под названием GeForce Partner Program всё чаще становится предметом громких заголовков. В условиях программы есть пункт о том, что партнёр обязан привязать свой игровой бренд эксклюзивно к GeForce. То есть сотрудничество с другими компаниями, среди которых есть и AMD, становится невозможным. И это не первый случай маркетинговой победы NVIDIA в конкурентной борьбе. Хотите знать, как на самом деле становятся лидерами индустрии?
Ничего личного — просто бизнес
Сегодня NVIDIA — номер один на рынке видеокарт, а начинала калифорнийская компания свою деятельность с позиции аутсайдера. Её первый видеоадаптер NV1 вышел в 1995 году и демонстрировал неплохой потенциал по части трёхмерной графики. Однако с отрисовкой двумерных интерфейсов были большие проблемы, да и отсутствие аппаратной поддержки DirectX от Microsoft практически похоронило весь бизнес. Компания пыталась работать над NV2, но скоро стало очевидно, что новую видеокарту нужно создавать с нуля.
Первым коммерчески успешным продуктом стала только появившаяся двумя годами позже RIVA 128, которая поддерживала и DirectX, и OpenGL. Но по-консольному закрытый и быстрый Glide API, принадлежащий 3dfx Interactive и являющийся основой большинства игровых хитов того времени, был по-прежнему недоступен. Проще говоря, игры физически не могли работать на железе NVIDIA так же быстро и красиво, как на популярных в то время VooDoo. Не говоря о бесчисленных проблемах с драйверами: порой бедному пользователю приходилось держать под рукой три-четыре версии последних, переустанавливая нужную перед использованием конкретного приложения.
Казалось, провал неминуем. И тут в дело вступили маркетологи NVIDIA. Гипотетически, карточка могла работать в разрешении 1600х1200 с частотой 75 Гц и выдавать аж 65 535 цветов против 256 у конкурента в лице 3dfx VooDoo. Разумеется, только в 2D (то есть в офисных приложениях), но кого это волновало? Магия цифр, заботливо нанесённых на коробку отделом продаж, и промывка мозгов розничным продавцам сделали своё дело — отгрузки взлетели до невиданных высот благодаря грамотной рекламе и относительно невысокой цене. Не отставали и OEM-сборщики. Да-да, те самые, которые и сегодня готовы всучить нерадивым юзерам связку Core i7 с завалявшейся на складе GT 1030. Есть видеокарта? Значит, игровой «пека»!
Идея продавать обещания прижилась мгновенно. «Новая и улучшенная» Riva TNT, анонсированная в 1998 году, сулила чудеса трилинейной фильтрации в 3D-приложениях. На деле же покупателей обманывали при помощи технологии под названием «аппроксимация». Фильтрации подвергались только области перехода между MIP уровнями. Метод получился эффективным по скорости обработки, однако качество картинки очень страдало. Честная «трилинейка» в теории присутствовала, но был нюанс: при её включении — вручную через драйвер — скорость работы снижалась вдвое. Само собой, ни в одном мануале это не указывалось.
Печальная участь ожидала и малых сих геймеров, польстившихся на заявленную анизотропную фильтрацию. Во-первых, ни одно из приложений, за исключением некоторых синтетических тестов, её на тот момент не поддерживало. Во-вторых — её там не было.
Первой действительно крутой видеокартой NVIDIA стала GeForce 256, вышедшая в октябре 1999 года. Это был первый GPU, который был способен не только наносить текстуры, считать освещение и выводить готовый кадр, но и работать с геометрией — моделями. До этого треугольники обрабатывались полностью на центральном процессоре.
Атака клонов
Продолжилась «бумажная эпопея» и с выходом линейки GeForce 2. Зачем изобретать новую видеокарту, если можно продать одну и ту же в нескольких разных коробках? Без лишнего шума модельный ряд, построенный на одном ядре, разделили на несколько отдельных продуктов. Серии Pro и GTS отличались лишь частотой памяти. А тот факт, что пропускная способность увеличилась только в теории, мало кого беспокоил. Примерно на том же уровне находилась и производительность «старшей» GeForce 2 Ultra. А чтобы оправдать цену в 500 долларов, анонсы и рекламные материалы пестрили упоминанием нового чипа c заводским разгоном.
Не остался без внимания и бюджетный сегмент. «Новая» серия GeForce 2 MX оказалась слегка разогнанной GeForce 256. Но маркетологов было уже не остановить. Нужно больше золота? Не вопрос, разгоним эту рухлядь по частоте и припишем к названию внушительную цифру. MX 400 — нормально же звучит? По той же схеме в 2001 году создавалась GeForce 3: фиксированный геометрический конвейер и ограниченные инструменты по работе с растром сменила новая на то время архитектура с вершинными и фрагментными шейдерами. Одна беда: в играх технологии эти применялись далеко не везде, частоты GPU остались старыми, и во всех старых тайтлах новинку обгоняла даже старушка GeForce 2 Ultra.
Из-за сложной архитектуры и низкой скорости работы «нового» железа в «старых» условиях не было смысла и в выпуске дешёвых версий «тройки». Но продажников это не смутило: карточка всё равно получила две дополнительных версии. Лёгким движением руки, а также разгоном ядра с памятью до 175/200 и 240/250 МГц, GeForce 3 превратилась в ревизии Ti 200 и Ti 500 соответственно. О том, что обе стоили заметно дороже оригинала, догадаться несложно. Спасло ли это ситуацию с играми, которые не использовали всех преимуществ DirectX 8? Ответ вы и сами можете предсказать.
Магия чисел
Год спустя встал насущный вопрос о том, как заработать денег, не заморачиваясь с переделкой прошлой линейки. Уже догадались? Правильно, переделывать решили проверенную и простую в производстве позапрошлую серию. И на конвейер под видом «современной» архитектуры NV17 снова пошла GeForce 2. А чтобы никто не заметил подвоха, на коробках написали GeForce 4 MX. Да, техпроцесс был потоньше, технологий — побольше, а в сравнении с предшественником всё было быстрее и графонистее. Вот только поколение DirectX 7 устарело уже к моменту выхода. И ничего принципиально нового, кроме повышения ревизии AGP, в эту модель не вложили.
Адекватные GeForce 4 Ti появились только в 2002 году, но фактически представляли собой обработанные напильником «тройки». И, конечно же, были гораздо дороже предшественниц. А относительно бюджетная Ti 4200, во-первых, ждала, пока закончатся складские запасы прошлого поколения, а во-вторых, получилась спорной: память в версиях с разными объёмами RAM работала на различной частоте, создавая ещё большую путаницу. Карта с 64 мегабайтами оказывалась шустрее, чем её сестра-близнец на 128 мегабайт. Вот это поворот.
Крутое пике
Время шло, конкуренция поджимала, отделываться от дотошных покупателей клонами старых решений уже не удавалось. Результатом сумрачного инженерного гения стал многообещающий анонс серии GeForce FX на новом чипе NV30. Планку светлые головы специалистов, купленных вместе с 3dfx, задрали высоко. Но этим же и вырыли себе яму: долгострой по реализации грандиозного плана затянулся, и ATI первой выпустила чипы Radeon 9700, совместимые с DirectX 9. Из-за производственной спешки архитектура NV30 неоднократно изменялась и упрощалась. Результат слегка предсказуем: топовая и жутко дорогая FX 5800 Ultra, несмотря на гигантскую тактовую частоту микросхем памяти, имела вдвое более узкую шину её подключения и в результате — меньшую пропускную способность, чем у «красного» конкурента.
И если б всё ограничилось производительностью, ситуацию можно было бы исправить, к примеру, снижением ценника. Но что делать с изначально ущербной системой охлаждения несостоявшегося «зелёного» флагмана? Она ревела пострашнее советского пылесоса «Ракета». Даже тот факт, что вентилятор этого монстра Франкенштейна Хуанга включался лишь при работе в 3D-приложениях, ситуацию ни разу не спасал. Ведь даже этот неистовый рёв не шёл ни в какое сравнение со звуками остановки кулера. Управляющие цепи, расположенные на плате, останавливали крыльчатку постепенно, ступенчато понижая обороты до нуля. Частота собственного вращения вентилятора накладывалась на частоту следования питающих импульсов, в судорогах рождая феерию звуков, способных вернуть из мира мёртвых даже 3dfx.
И ведь выкрутились же! Пусть не взлетел флагман, зато всегда можно навариться на тех, у кого всё равно не хватило бы денег на его покупку. Сказано — сделано. И неважно, что «новые» GeForce FX 5200 имели даже меньшую пропускную способность памяти, чем бюджетная GeForce 4 MX 440-8x. Зато у них было в два раза больше текстурных модулей, и падения производительности из-за перехода в 3D-режим не ожидалось. А самое главное — это сработало: FX 5200 стала предметом вожделения каждого геймера того времени. Остальное маркетологи дорисовали, им не впервой. Забегая вперёд — те же ловкачи год спустя охмурили народ технологией TurboCache в GeForce 6200. Впарить видеокарту на 64 мегабайта под видом 256 (разница добиралась из «оперативки») — это надо уметь.
Хорошо забытое старое
Технология NVIDIA SLI — революционная, если верить официальному сайту. Оказывается, стряхнуть с архивной папки пыль и отдать инженерам — это целая революция, так и запишем. А ведь первыми придумали эту «инновацию» сотрудники безвременно погибшей компании 3dfx. Её спецы для своего времени действительно прыгнули выше головы и получили нормально работающий SLI. В 1998 году. На базе Voodoo2 Graphics. И если б не финансовые трудности, быть им сегодня лидерами десктопного рынка.
Но историю задним числом уже не исправишь: фирму пустили с молотка, а передовые разработки новая владелица — NVIDIA — запихнула в долгий ящик до лучших времён. Которые оказались не особо-то и лучшими — к 2004 году у продажников заканчивались идеи и клонированные названия, а народ по-прежнему требовал виртуальных зрелищ, да с хорошей графикой. А что может быть лучше одной видеокарты? Ну, разумеется, две видеокарты. Благо и PCI-Express в массовое производство пустили, что значительно упрощало процесс.
Суть работы, как и прежде, заключалась в распределении нагрузки между двумя графическими адаптерами одного PC, соединёнными специальным мостиком. В теории это позволяло распределить нагрузку между несколькими GPU и заметно увеличить производительность в 3D-приложениях, а на практике… Кого волновало, что сложность кадров может быть разной (следовательно, возможны микрофризы), а памяти для работы этого великолепия нужно вдвое больше? Достаточно внушить пользователю банальное «2 лучше, чем 1» и отгружать видеокарты на полки. К слову, повального преимущества «двухголовых» решений (как и массового распространения) за прошедшие 14 лет так и не произошло. Но миф о двукратном приросте производительности SLI-режима не только жив, но и активно культивируется в пользовательской среде.
Горячие цыпочки
В очередной раз умение наступать на грабли NVIDIA продемонстрировала в 2008 году. В погоне за производительностью фирма наконец-то выдала действительно мощное семейство графических ускорителей. Настолько мощное, что уже через год производство пришлось свернуть. По сути, большинство моделей 200-й серии просто «сгорали на работе». Сказывалось как поднятое до предела напряжение, так и переход на бессвинцовый припой для BGA-трафаретов. Ток он проводил получше, вот только через энное количество циклов нагрева и охлаждения видеочип просто отваливался от платы в самом прямом смысле. В русскоязычном сегменте новинки с ходу окрестили «ПЕЧками» (GTX в кириллической раскладке — ПЕЧ) и начали практиковать пресловутую прожарку плат с отвалившимися чипами в духовке. В других регионах народ массово отказывался покупать проблемные девайсы или сдавал сгоревшие по гарантии.
Череда неудач, преследовавшая конструкторов, оставила NVIDIA без GPU верхнего сегмента. Финал этой истории, несмотря на все старания «зелёных» занять лидирующие позиции на рынке, всем известен: конкурировать с семейством ATI в лице уже представленных моделей HD 5870 и HD 5850 стало попросту нечем. К слову, у «красных» была ещё и значительно более дешёвая HD 5830, которая при должном везении просто перепрошивалась BIOS'ом старших версий и работала как полноценный флагман. Угадайте, что активно брали в России? Шах и мат.
Разумеется, одним маркетингом аудиторию не завоюешь, и с выходом 400-й серии компании удалось реабилитировать себя в глазах аудитории. Новые элементы в архитектуре и адекватный теплопакет сделали «зелёные» графические адаптеры конкурентоспособными и получили народное признание. Позднее ситуация повторилась и с выходом семисотой серии, когда количественные изменения двух предыдущих поколений снова перешли в качественные. К слову, GTX 760 получилась настолько удачной, что в системных блоках многих пользователей трудится и по сей день. Да и GTX 780 Ti весьма достойно держалась до подхода «Паскалей».
Пропавшие мегабайты
Не обошлось без моментов в духе «хотели как лучше, а получилось как всегда» и в новейшей истории. GTX 970 в 2015 году покупали охотно, но радость была недолгой. Обнаружив странные просадки фреймрейта, многие геймеры с удивлением (и это ещё мягко сказано) обнаружили, что, по сути, им продали не 4 гига, а 3,5. Да и те — медленнее, чем обещали. В некоторых случаях проблемы начинались, когда приложение (в том числе игровое) отбирало под свои нужды свыше трёх гигабайт. Параллельно вскрылся факт недостачи блоков растровых операций: вместо заявленных 64 доехали до потребителя только 56. В ответ на обвинения в недобросовестном пиаре компания тут же заявила, что «это не баг, а фича». Народ, естественно, не поверил — и даже отсудил у Хуанга компенсацию.
Впрочем, выход актуальной и по сей день тысячной серии GPU закрепил за NVIDIA лидирующее положение в гонке видеокарт. Бескомпромиссная энергоэффективность и отличный температурный режим, которых так не хватало предшествующим моделям, вывели «зелёную» линейку на недосягаемый ранее уровень. А заодно и окончательно стёрли грань между мобильными и десктопными решениями. AMD пока ответить нечем, а других конкурентов попросту не осталось.
Иллюзия стабильности
Адепты калифорнийской компании часто утверждают, что вот у них-то драйверы лучше и стабильнее. Но очень не любят вспоминать (или предпочитают забыть) выпущенный в 2016 драйвер GeForce под номером 364.47, который вызвал многочисленные жалобы пользователей на форумах. Он, несмотря на прохождение сертификации Microsoft WHQL, стал причиной разных проблем — от отключающегося звука и вылетов в BSOD до сгоревших видеокарт и блоков питания. Сотрудникам NVIDIA пришлось в срочном порядке выкатить обновлённую бета-версию ПО. А уж история с запланированным программным устареванием знакома, пожалуй, каждому владельцу «зелёного» GPU.
Соблюдая традиции
Путь компании вышел тернистым: да, NVIDIA не всегда поступала «честно», но все её решения были коммерчески успешными. Текущее лидерство ей обеспечили как эффективные разработки, так и грамотный, хотя и крайне агрессивный, маркетинг. В результате своей кабальной партнёркой Хуанг фактически монополизировал торговые марки ASUS, MSI и GIGABYTE, пользуясь высокой популярностью своей продукции. А теперь решил перейти дорогу Intel. Всё та же GeForce Partner Program блокирует выпуск новых линеек ноутбуков на базе процессоров Core i7 со встроенной графикой AMD Vega. Список таких моделей на сегодня ограничен несколькими экземплярами от HP и Dell — они не связаны тем самым договором. Столь агрессивная политика выглядит спорно, но факт остаётся фактом: NVIDIA сегодня на коне именно благодаря череде неоднозначных бизнес-решений.
Ничего личного — просто бизнес
Сегодня NVIDIA — номер один на рынке видеокарт, а начинала калифорнийская компания свою деятельность с позиции аутсайдера. Её первый видеоадаптер NV1 вышел в 1995 году и демонстрировал неплохой потенциал по части трёхмерной графики. Однако с отрисовкой двумерных интерфейсов были большие проблемы, да и отсутствие аппаратной поддержки DirectX от Microsoft практически похоронило весь бизнес. Компания пыталась работать над NV2, но скоро стало очевидно, что новую видеокарту нужно создавать с нуля.
Первым коммерчески успешным продуктом стала только появившаяся двумя годами позже RIVA 128, которая поддерживала и DirectX, и OpenGL. Но по-консольному закрытый и быстрый Glide API, принадлежащий 3dfx Interactive и являющийся основой большинства игровых хитов того времени, был по-прежнему недоступен. Проще говоря, игры физически не могли работать на железе NVIDIA так же быстро и красиво, как на популярных в то время VooDoo. Не говоря о бесчисленных проблемах с драйверами: порой бедному пользователю приходилось держать под рукой три-четыре версии последних, переустанавливая нужную перед использованием конкретного приложения.
Казалось, провал неминуем. И тут в дело вступили маркетологи NVIDIA. Гипотетически, карточка могла работать в разрешении 1600х1200 с частотой 75 Гц и выдавать аж 65 535 цветов против 256 у конкурента в лице 3dfx VooDoo. Разумеется, только в 2D (то есть в офисных приложениях), но кого это волновало? Магия цифр, заботливо нанесённых на коробку отделом продаж, и промывка мозгов розничным продавцам сделали своё дело — отгрузки взлетели до невиданных высот благодаря грамотной рекламе и относительно невысокой цене. Не отставали и OEM-сборщики. Да-да, те самые, которые и сегодня готовы всучить нерадивым юзерам связку Core i7 с завалявшейся на складе GT 1030. Есть видеокарта? Значит, игровой «пека»!
Идея продавать обещания прижилась мгновенно. «Новая и улучшенная» Riva TNT, анонсированная в 1998 году, сулила чудеса трилинейной фильтрации в 3D-приложениях. На деле же покупателей обманывали при помощи технологии под названием «аппроксимация». Фильтрации подвергались только области перехода между MIP уровнями. Метод получился эффективным по скорости обработки, однако качество картинки очень страдало. Честная «трилинейка» в теории присутствовала, но был нюанс: при её включении — вручную через драйвер — скорость работы снижалась вдвое. Само собой, ни в одном мануале это не указывалось.
Печальная участь ожидала и малых сих геймеров, польстившихся на заявленную анизотропную фильтрацию. Во-первых, ни одно из приложений, за исключением некоторых синтетических тестов, её на тот момент не поддерживало. Во-вторых — её там не было.
Первой действительно крутой видеокартой NVIDIA стала GeForce 256, вышедшая в октябре 1999 года. Это был первый GPU, который был способен не только наносить текстуры, считать освещение и выводить готовый кадр, но и работать с геометрией — моделями. До этого треугольники обрабатывались полностью на центральном процессоре.
Атака клонов
Продолжилась «бумажная эпопея» и с выходом линейки GeForce 2. Зачем изобретать новую видеокарту, если можно продать одну и ту же в нескольких разных коробках? Без лишнего шума модельный ряд, построенный на одном ядре, разделили на несколько отдельных продуктов. Серии Pro и GTS отличались лишь частотой памяти. А тот факт, что пропускная способность увеличилась только в теории, мало кого беспокоил. Примерно на том же уровне находилась и производительность «старшей» GeForce 2 Ultra. А чтобы оправдать цену в 500 долларов, анонсы и рекламные материалы пестрили упоминанием нового чипа c заводским разгоном.
Не остался без внимания и бюджетный сегмент. «Новая» серия GeForce 2 MX оказалась слегка разогнанной GeForce 256. Но маркетологов было уже не остановить. Нужно больше золота? Не вопрос, разгоним эту рухлядь по частоте и припишем к названию внушительную цифру. MX 400 — нормально же звучит? По той же схеме в 2001 году создавалась GeForce 3: фиксированный геометрический конвейер и ограниченные инструменты по работе с растром сменила новая на то время архитектура с вершинными и фрагментными шейдерами. Одна беда: в играх технологии эти применялись далеко не везде, частоты GPU остались старыми, и во всех старых тайтлах новинку обгоняла даже старушка GeForce 2 Ultra.
Из-за сложной архитектуры и низкой скорости работы «нового» железа в «старых» условиях не было смысла и в выпуске дешёвых версий «тройки». Но продажников это не смутило: карточка всё равно получила две дополнительных версии. Лёгким движением руки, а также разгоном ядра с памятью до 175/200 и 240/250 МГц, GeForce 3 превратилась в ревизии Ti 200 и Ti 500 соответственно. О том, что обе стоили заметно дороже оригинала, догадаться несложно. Спасло ли это ситуацию с играми, которые не использовали всех преимуществ DirectX 8? Ответ вы и сами можете предсказать.
Магия чисел
Год спустя встал насущный вопрос о том, как заработать денег, не заморачиваясь с переделкой прошлой линейки. Уже догадались? Правильно, переделывать решили проверенную и простую в производстве позапрошлую серию. И на конвейер под видом «современной» архитектуры NV17 снова пошла GeForce 2. А чтобы никто не заметил подвоха, на коробках написали GeForce 4 MX. Да, техпроцесс был потоньше, технологий — побольше, а в сравнении с предшественником всё было быстрее и графонистее. Вот только поколение DirectX 7 устарело уже к моменту выхода. И ничего принципиально нового, кроме повышения ревизии AGP, в эту модель не вложили.
Адекватные GeForce 4 Ti появились только в 2002 году, но фактически представляли собой обработанные напильником «тройки». И, конечно же, были гораздо дороже предшественниц. А относительно бюджетная Ti 4200, во-первых, ждала, пока закончатся складские запасы прошлого поколения, а во-вторых, получилась спорной: память в версиях с разными объёмами RAM работала на различной частоте, создавая ещё большую путаницу. Карта с 64 мегабайтами оказывалась шустрее, чем её сестра-близнец на 128 мегабайт. Вот это поворот.
Крутое пике
Время шло, конкуренция поджимала, отделываться от дотошных покупателей клонами старых решений уже не удавалось. Результатом сумрачного инженерного гения стал многообещающий анонс серии GeForce FX на новом чипе NV30. Планку светлые головы специалистов, купленных вместе с 3dfx, задрали высоко. Но этим же и вырыли себе яму: долгострой по реализации грандиозного плана затянулся, и ATI первой выпустила чипы Radeon 9700, совместимые с DirectX 9. Из-за производственной спешки архитектура NV30 неоднократно изменялась и упрощалась. Результат слегка предсказуем: топовая и жутко дорогая FX 5800 Ultra, несмотря на гигантскую тактовую частоту микросхем памяти, имела вдвое более узкую шину её подключения и в результате — меньшую пропускную способность, чем у «красного» конкурента.
И если б всё ограничилось производительностью, ситуацию можно было бы исправить, к примеру, снижением ценника. Но что делать с изначально ущербной системой охлаждения несостоявшегося «зелёного» флагмана? Она ревела пострашнее советского пылесоса «Ракета». Даже тот факт, что вентилятор этого монстра Франкенштейна Хуанга включался лишь при работе в 3D-приложениях, ситуацию ни разу не спасал. Ведь даже этот неистовый рёв не шёл ни в какое сравнение со звуками остановки кулера. Управляющие цепи, расположенные на плате, останавливали крыльчатку постепенно, ступенчато понижая обороты до нуля. Частота собственного вращения вентилятора накладывалась на частоту следования питающих импульсов, в судорогах рождая феерию звуков, способных вернуть из мира мёртвых даже 3dfx.
И ведь выкрутились же! Пусть не взлетел флагман, зато всегда можно навариться на тех, у кого всё равно не хватило бы денег на его покупку. Сказано — сделано. И неважно, что «новые» GeForce FX 5200 имели даже меньшую пропускную способность памяти, чем бюджетная GeForce 4 MX 440-8x. Зато у них было в два раза больше текстурных модулей, и падения производительности из-за перехода в 3D-режим не ожидалось. А самое главное — это сработало: FX 5200 стала предметом вожделения каждого геймера того времени. Остальное маркетологи дорисовали, им не впервой. Забегая вперёд — те же ловкачи год спустя охмурили народ технологией TurboCache в GeForce 6200. Впарить видеокарту на 64 мегабайта под видом 256 (разница добиралась из «оперативки») — это надо уметь.
Хорошо забытое старое
Технология NVIDIA SLI — революционная, если верить официальному сайту. Оказывается, стряхнуть с архивной папки пыль и отдать инженерам — это целая революция, так и запишем. А ведь первыми придумали эту «инновацию» сотрудники безвременно погибшей компании 3dfx. Её спецы для своего времени действительно прыгнули выше головы и получили нормально работающий SLI. В 1998 году. На базе Voodoo2 Graphics. И если б не финансовые трудности, быть им сегодня лидерами десктопного рынка.
Но историю задним числом уже не исправишь: фирму пустили с молотка, а передовые разработки новая владелица — NVIDIA — запихнула в долгий ящик до лучших времён. Которые оказались не особо-то и лучшими — к 2004 году у продажников заканчивались идеи и клонированные названия, а народ по-прежнему требовал виртуальных зрелищ, да с хорошей графикой. А что может быть лучше одной видеокарты? Ну, разумеется, две видеокарты. Благо и PCI-Express в массовое производство пустили, что значительно упрощало процесс.
Суть работы, как и прежде, заключалась в распределении нагрузки между двумя графическими адаптерами одного PC, соединёнными специальным мостиком. В теории это позволяло распределить нагрузку между несколькими GPU и заметно увеличить производительность в 3D-приложениях, а на практике… Кого волновало, что сложность кадров может быть разной (следовательно, возможны микрофризы), а памяти для работы этого великолепия нужно вдвое больше? Достаточно внушить пользователю банальное «2 лучше, чем 1» и отгружать видеокарты на полки. К слову, повального преимущества «двухголовых» решений (как и массового распространения) за прошедшие 14 лет так и не произошло. Но миф о двукратном приросте производительности SLI-режима не только жив, но и активно культивируется в пользовательской среде.
Горячие цыпочки
В очередной раз умение наступать на грабли NVIDIA продемонстрировала в 2008 году. В погоне за производительностью фирма наконец-то выдала действительно мощное семейство графических ускорителей. Настолько мощное, что уже через год производство пришлось свернуть. По сути, большинство моделей 200-й серии просто «сгорали на работе». Сказывалось как поднятое до предела напряжение, так и переход на бессвинцовый припой для BGA-трафаретов. Ток он проводил получше, вот только через энное количество циклов нагрева и охлаждения видеочип просто отваливался от платы в самом прямом смысле. В русскоязычном сегменте новинки с ходу окрестили «ПЕЧками» (GTX в кириллической раскладке — ПЕЧ) и начали практиковать пресловутую прожарку плат с отвалившимися чипами в духовке. В других регионах народ массово отказывался покупать проблемные девайсы или сдавал сгоревшие по гарантии.
Череда неудач, преследовавшая конструкторов, оставила NVIDIA без GPU верхнего сегмента. Финал этой истории, несмотря на все старания «зелёных» занять лидирующие позиции на рынке, всем известен: конкурировать с семейством ATI в лице уже представленных моделей HD 5870 и HD 5850 стало попросту нечем. К слову, у «красных» была ещё и значительно более дешёвая HD 5830, которая при должном везении просто перепрошивалась BIOS'ом старших версий и работала как полноценный флагман. Угадайте, что активно брали в России? Шах и мат.
Разумеется, одним маркетингом аудиторию не завоюешь, и с выходом 400-й серии компании удалось реабилитировать себя в глазах аудитории. Новые элементы в архитектуре и адекватный теплопакет сделали «зелёные» графические адаптеры конкурентоспособными и получили народное признание. Позднее ситуация повторилась и с выходом семисотой серии, когда количественные изменения двух предыдущих поколений снова перешли в качественные. К слову, GTX 760 получилась настолько удачной, что в системных блоках многих пользователей трудится и по сей день. Да и GTX 780 Ti весьма достойно держалась до подхода «Паскалей».
Пропавшие мегабайты
Не обошлось без моментов в духе «хотели как лучше, а получилось как всегда» и в новейшей истории. GTX 970 в 2015 году покупали охотно, но радость была недолгой. Обнаружив странные просадки фреймрейта, многие геймеры с удивлением (и это ещё мягко сказано) обнаружили, что, по сути, им продали не 4 гига, а 3,5. Да и те — медленнее, чем обещали. В некоторых случаях проблемы начинались, когда приложение (в том числе игровое) отбирало под свои нужды свыше трёх гигабайт. Параллельно вскрылся факт недостачи блоков растровых операций: вместо заявленных 64 доехали до потребителя только 56. В ответ на обвинения в недобросовестном пиаре компания тут же заявила, что «это не баг, а фича». Народ, естественно, не поверил — и даже отсудил у Хуанга компенсацию.
Впрочем, выход актуальной и по сей день тысячной серии GPU закрепил за NVIDIA лидирующее положение в гонке видеокарт. Бескомпромиссная энергоэффективность и отличный температурный режим, которых так не хватало предшествующим моделям, вывели «зелёную» линейку на недосягаемый ранее уровень. А заодно и окончательно стёрли грань между мобильными и десктопными решениями. AMD пока ответить нечем, а других конкурентов попросту не осталось.
Иллюзия стабильности
Адепты калифорнийской компании часто утверждают, что вот у них-то драйверы лучше и стабильнее. Но очень не любят вспоминать (или предпочитают забыть) выпущенный в 2016 драйвер GeForce под номером 364.47, который вызвал многочисленные жалобы пользователей на форумах. Он, несмотря на прохождение сертификации Microsoft WHQL, стал причиной разных проблем — от отключающегося звука и вылетов в BSOD до сгоревших видеокарт и блоков питания. Сотрудникам NVIDIA пришлось в срочном порядке выкатить обновлённую бета-версию ПО. А уж история с запланированным программным устареванием знакома, пожалуй, каждому владельцу «зелёного» GPU.
Соблюдая традиции
Путь компании вышел тернистым: да, NVIDIA не всегда поступала «честно», но все её решения были коммерчески успешными. Текущее лидерство ей обеспечили как эффективные разработки, так и грамотный, хотя и крайне агрессивный, маркетинг. В результате своей кабальной партнёркой Хуанг фактически монополизировал торговые марки ASUS, MSI и GIGABYTE, пользуясь высокой популярностью своей продукции. А теперь решил перейти дорогу Intel. Всё та же GeForce Partner Program блокирует выпуск новых линеек ноутбуков на базе процессоров Core i7 со встроенной графикой AMD Vega. Список таких моделей на сегодня ограничен несколькими экземплярами от HP и Dell — они не связаны тем самым договором. Столь агрессивная политика выглядит спорно, но факт остаётся фактом: NVIDIA сегодня на коне именно благодаря череде неоднозначных бизнес-решений.
Материал взят: Тут