Android

Nvidia 【вся информация】

Оглавление:

Anonim

Nvidia Corporation, более известная как Nvidia, - американская технологическая компания, зарегистрированная в штате Делавэр и расположенная в Санта-Кларе, штат Калифорния. Nvidia разрабатывает графические процессоры для видеоигр и профессиональных рынков, а также систему чиповых блоков (SoC) для рынка автомобилей и мобильных компьютеров. Основная линейка продуктов GeForce находится в прямой конкуренции с продуктами AMD Radeon.

Мы рекомендуем ознакомиться с нашими лучшими руководствами по аппаратному обеспечению и компонентам ПК:

Помимо производства графических процессоров, Nvidia предоставляет исследователям и ученым во всем мире возможности параллельной обработки, что позволяет им эффективно запускать высокопроизводительные приложения. Совсем недавно она вышла на рынок мобильных компьютеров, где она производит мобильные процессоры Tegra для игровых приставок, планшетов и автономных навигационных и автомобильных развлекательных систем. Это привело к тому, что с 2014 года Nvidia стала компанией, ориентированной на четыре рынка: игры, профессиональную визуализацию, центры обработки данных, искусственный интеллект и автомобили.

Указатель содержания

История нвидии

Nvidia была основана в 1993 году Дженсеном Хуаном, Крисом Малаховски и Кертисом Приемом. Три соучредителя компании выдвинули гипотезу о том, что правильное направление для вычислений будет проходить через графически ускоренную обработку, полагая, что эта вычислительная модель может решить проблемы, которые не могут решить универсальные вычисления. Они также отметили, что видеоигры являются одними из самых сложных вычислительных задач, и что у них невероятно высокие объемы продаж.

От небольшой компании по производству видеоигр до гиганта искусственного интеллекта

Компания родилась с начальным капиталом в 40 000 долларов, изначально не имела названия, и соучредители назвали все свои файлы NV, как в «следующем выпуске». Необходимость регистрации компании заставила соучредителей пересмотреть все слова с этими двумя буквами, что привело их к «invidia», латинскому слову, означающему «зависть».

Запуск RIVA TNT в 1998 году укрепил репутацию Nvidia по разработке графических адаптеров. В конце 1999 года Nvidia выпустила GeForce 256 (NV10), которая наиболее широко представила преобразование и освещение на уровне потребителей (T & L) в 3D-оборудовании. Работая на частоте 120 МГц с четырьмя линиями пикселей, в нем реализовано расширенное ускорение видео, компенсация движения и аппаратное смешивание субизображений. GeForce значительно превзошла существующие продукты.

Благодаря успеху своих продуктов Nvidia выиграла контракт на разработку графического оборудования для игровой приставки Microsoft Xbox, заработав Nvidia 200 миллионов долларов. Тем не менее, проект взял многих из своих лучших инженеров из других проектов. В краткосрочной перспективе это не имело значения, и GeForce2 GTS была выпущена летом 2000 года. В декабре 2000 года Nvidia достигла соглашения о приобретении интеллектуальных активов своего единственного конкурента 3dfx, пионера в технологии 3D-графики для потребителя. который возглавлял поле с середины 1990-х по 2000 год. Процесс приобретения закончился в апреле 2002 года.

В июле 2002 года Nvidia приобрела Exluna за нераскрытую сумму. Exluna отвечала за создание различных программных инструментов рендеринга. Позже, в августе 2003 года, Nvidia приобрела MediaQ примерно за 70 миллионов долларов. Кроме того, 22 апреля 2004 года компания приобрела iReady, поставщика высокопроизводительных решений для разгрузки TCP / IP и iSCSI.

Успех Nvidia на рынке видеоигр был настолько велик, что в декабре 2004 года было объявлено, что это поможет Sony в разработке графического процессора RSX PlayStation 3 - консоли для видеоигр нового поколения от японской фирмы, которая перед ним стояла трудная задача - повторить успех своего предшественника, самого продаваемого в истории.

В декабре 2006 года Nvidia получила цитаты из Министерства юстиции США. Что касается возможных нарушений антимонопольного законодательства в индустрии видеокарт. В то время AMD стала ее великим конкурентом после покупки ATI последней. С тех пор AMD и Nvidia были единственными производителями видеоигр, не забывая о встроенных чипах Intel.

Forbes назвал Nvidia лучшей компанией года за 2007 год, сославшись на достижения, достигнутые за последние пять лет. 5 января 2007 года Nvidia объявила о завершении приобретения PortalPlayer, Inc, а в феврале 2008 года Nvidia приобрела Ageia, разработчика физического движка PhysX и физического процессора, работающего на этом движке. Nvidia объявила, что планирует интегрировать технологию PhysX в свои будущие продукты GeForce GPU.

Nvidia столкнулась с большими трудностями в июле 2008 года, когда она получила снижение выручки примерно на 200 миллионов долларов после сообщения о том, что некоторые мобильные чипсеты и мобильные графические процессоры, производимые компанией, имели ненормальные показатели отказов из-за производственных дефектов. В сентябре 2008 года Nvidia стала объектом коллективного иска со стороны пострадавших, утверждая, что дефектные графические процессоры были включены в некоторые модели ноутбуков, производимых Apple, Dell и HP. Мыльная опера закончилась в сентябре 2010 года, когда Nvidia достигла соглашения о том, что владельцам поврежденных ноутбуков будет возмещена стоимость ремонта или, в некоторых случаях, замена продукта.

В ноябре 2011 года компания Nvidia выпустила чиповую систему ARG Tegra 3 для мобильных устройств после того, как впервые представила ее на Mobile World Congress. Nvidia утверждает, что этот чип представляет собой первый четырехъядерный мобильный процессор. В январе 2013 года Nvidia представила Tegra 4, а также Nvidia Shield, портативную игровую консоль на базе Android с новым процессором.

6 мая 2016 года Nvidia представила графические карты GeForce GTX 1080 и 1070, первые на основе новой микроархитектуры Pascal. Nvidia утверждала, что обе модели превзошли свою модель Titan X на базе Maxwell. Эти карты включают память GDDR5X и GDDR5 соответственно и используют 16-нм производственный процесс. Архитектура Pascal также поддерживает новую аппаратную функцию, известную как одновременная множественная проекция (SMP), которая предназначена для улучшения качества рендеринга в нескольких мониторах и виртуальной реальности. Паскаль позволил производство ноутбуков, которые соответствуют стандарту дизайна Nvidia Max-Q.

В мае 2017 года Nvidia объявила о партнерстве с Toyota Motor Corp, в рамках которого последняя будет использовать платформу искусственного интеллекта серии Drive X от Nvidia для своих автономных автомобилей. В июле 2017 года Nvidia и китайский поисковый гигант Baidu, Inc. объявили о мощном партнерстве по искусственному интеллекту, которое включает облачные вычисления, автономное вождение, потребительские устройства и инфраструктуру искусственного интеллекта Baidu, PaddlePaddle.

Nvidia GeForce и Nvidia Pascal, доминирующие в играх

GeForce - это торговая марка графических карт, основанных на графических процессорах (GPU), созданная Nvidia с 1999 года. На сегодняшний день серия GeForce насчитывает шестнадцать поколений с момента своего появления. Версии, ориентированные на профессиональных пользователей этих карт, называются Quadro и включают некоторые отличительные особенности на уровне драйвера. Прямой конкуренцией GeForce является AMD с ее картами Radeon.

Pascal - это кодовое название новейшей микроархитектуры графических процессоров, разработанной Nvidia, которая вышла на рынок видеоигр как преемник предыдущей архитектуры Maxwell. Архитектура Pascal была впервые представлена ​​в апреле 2016 года, когда 5 апреля 2016 года был запущен Tesla P100 для серверов. В настоящее время Pascal в основном используется в серии GeForce 10, причем GeForce GTX 1080 и GTX являются Первые 1070 видеоигр были выпущены с этой архитектурой 17 мая 2016 года и 10 июня 2016 года соответственно. Pascal изготавливается с использованием 16-нм процесса FinFET TSMC, что позволяет ему предлагать гораздо более высокую энергоэффективность и производительность по сравнению с Maxwell, который был изготовлен на 28-нм FinFET.

Архитектура Pascal организована внутри так называемого потокового мультипроцессора ( SM), функциональных блоков, состоящих из 64 ядер CUDA, которые, в свою очередь, разделены на два блока обработки по 32 ядра CUDA каждый. из них и сопровождаются буфером инструкций, планировщиком основы, 2 блоками отображения текстуры и 2 блоками отправки. Эти SM-диски являются эквивалентом CU AMD.

Архитектура Nvidia Pascal была разработана, чтобы быть самой эффективной и передовой в игровом мире. Инженерная команда Nvidia приложила немало усилий для создания архитектуры графического процессора, способной работать на очень высоких тактовых частотах при сохранении низкого энергопотребления. Чтобы достичь этого, во всех своих цепях была выбрана очень осторожная и оптимизированная конструкция, в результате чего Паскаль смог достичь частоты на 40% выше, чем Максвелл, и эта цифра намного выше, чем процесс позволил бы при 16 нм без всех оптимизаций на уровне дизайна.

Память является ключевым элементом производительности видеокарты, технология GDDR5 была анонсирована в 2009 году, поэтому она уже устарела для самых мощных на сегодняшний день видеокарт. Вот почему Pascal поддерживает память GDDR5X, которая была самым быстрым и самым передовым стандартом интерфейса памяти в истории на момент запуска этих графических карт, достигая скорости передачи до 10 Гбит / с или почти 100 пикосекунд между битами. данных. Память GDDR5X также позволяет графической карте потреблять меньше энергии по сравнению с GDDR5, поскольку рабочее напряжение составляет 1, 35 В, по сравнению с 1, 5 В или даже больше, что требуется более быстрым чипам GDDR5. Это снижение напряжения приводит к увеличению рабочей частоты на 43% при той же потребляемой мощности.

Еще одно важное новшество Pascal связано с методами сжатия памяти без потери производительности, что снижает потребность GPU в пропускной способности. Паскаль включает в себя четвертое поколение технологии сжатия цвета delta. Благодаря дельта-сжатию цветов, графический процессор анализирует сцены, чтобы вычислить пиксели, информацию которых можно сжать, не жертвуя качеством сцены. В то время как архитектура Максвелла не могла сжимать данные, относящиеся к некоторым элементам, таким как растительность и части автомобиля, в игре Project Cars, Паскаль способен сжимать большую часть информации об этих элементах, что делает его гораздо более эффективным, чем Максвелл. Как следствие, Паскаль способен значительно уменьшить количество байтов, которые должны быть извлечены из памяти. Это сокращение байтов приводит к дополнительным 20% эффективной полосы пропускания, что приводит к увеличению пропускной способности в 1, 7 раза при использовании памяти GDDR5X по сравнению с архитектурой GDDR5 и Maxwell.

Паскаль также предлагает важные улучшения в отношении асинхронных вычислений, что очень важно, поскольку в настоящее время рабочие нагрузки очень сложны. Благодаря этим улучшениям архитектура Pascal более эффективно распределяет нагрузку между всеми ее различными модулями SM, а это означает, что практически нет неиспользуемых ядер CUDA. Это позволяет значительно повысить оптимизацию графического процессора и лучше использовать все имеющиеся у него ресурсы.

В следующей таблице приведены наиболее важные функции всех карт GeForce на основе Pascal.

NVIDIA GEFORCE PASCAL ГРАФИЧЕСКИЕ КАРТЫ

CUDA Cores Частоты (МГц) память Интерфейс памяти Пропускная способность памяти (ГБ / с) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 ГБ GDDR5 64 бит 48 30
NVIDIA GeForce GTX1050 640 1455 2 ГБ GDDR5 128 бит 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 ГБ GDDR5 128 бит 112 75
NVIDIA GeForce GTX1060 3 ГБ 1152 1506/1708 3 ГБ GDDR5 192 бит 192 120
NVIDIA GeForce GTX1060 6 ГБ 1280 1506/1708 6 ГБ GDDR5 192 бит 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 ГБ GDDR5 256 бит 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 ГБ GDDR5 256 бит 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 ГБ GDDR5X 256 бит 320 180
NVIDIA GeForce GTX1080 Ti 3584 1480/1582 GDDR5X 11 ГБ 352 бит 484 250
NVIDIA GeForce GTX Titan Xp 3840 1582 12 ГБ GDDR5X 384 бит 547 250

Искусственный интеллект и архитектура Вольта

Графические процессоры Nvidia широко используются в областях глубокого обучения, искусственного интеллекта и ускоренного анализа больших объемов данных. Компания разработала глубокое обучение на основе технологии GPU, чтобы использовать искусственный интеллект для решения таких проблем, как обнаружение рака, прогнозирование погоды и автономное вождение транспортных средств, таких как знаменитая Tesla.

Цель Nvidia - помочь сетям научиться «думать ». Графические процессоры Nvidia работают исключительно хорошо для задач глубокого обучения, потому что они предназначены для параллельных вычислений, и они хорошо работают для обработки векторных и матричных операций, которые преобладают в глубоком обучении. Графические процессоры компании используются исследователями, лабораториями, технологическими компаниями и предприятиями. В 2009 году Nvidia участвовала в так называемом Большом взрыве для глубокого обучения, поскольку нейронные сети глубокого обучения были объединены с графическими процессорами компании. В том же году Google Brain использовал графические процессоры Nvidia для создания глубоких нейронных сетей, способных к машинному обучению, где Эндрю Нг определил, что они могут увеличить скорость систем глубокого обучения в 100 раз.

В апреле 2016 года компания Nvidia представила суперкомпьютер DGX-1 на базе кластера с 8 графическими процессорами, чтобы расширить возможности пользователей по использованию глубокого обучения путем объединения графических процессоров и специально разработанного программного обеспечения. Nvidia также разработала виртуальные машины на базе графических процессоров Nvidia Tesla K80 и P100, доступные через Google Cloud, который Google установил в ноябре 2016 года. Microsoft добавила серверы на основе технологии Nvidia GPU в предварительном обзоре серии N, на основе карты Tesla K80. Nvidia также заключила партнерское соглашение с IBM по созданию набора программного обеспечения, который расширяет возможности ИИ своих графических процессоров. В 2017 году графические процессоры Nvidia были также введены в эксплуатацию в Центре RIKEN для проекта Advanced Intelligence для Fujitsu.

В мае 2018 года исследователи из отдела искусственного интеллекта Nvidi осознали возможность того, что робот может научиться выполнять работу, просто наблюдая за человеком, выполняющим ту же работу. Для этого они создали систему, которая после краткого обзора и тестирования теперь может использоваться для управления универсальными роботами следующего поколения.

Volta - это кодовое название самой передовой микроархитектуры на базе графических процессоров, разработанной Nvidia. Она является наследницей Pascal и была объявлена ​​как часть будущих планов развития дорог в марте 2013 года. Архитектура названа в честь Алессандро Вольта. Физик, химик и изобретатель электрической батареи. Архитектура Volta не достигла игрового сектора, хотя она сделала это с видеокартой Nvidia Titan V, ориентированной на потребительский сектор и которая также может использоваться в игровом оборудовании.

Nvidia Titan V - это видеокарта с ядром GV100 и три стека памяти HBM2 в одном корпусе. Карта имеет в общей сложности 12 ГБ памяти HBM2, которая работает через 3072-битный интерфейс памяти. Его графический процессор содержит более 21 миллиона транзисторов, 5120 ядер CUDA и 640 ядер Tensor для обеспечения производительности 110 TeraFLOPS в условиях глубокого обучения. Его рабочие частоты составляют базовую 1200 МГц и 1455 МГц в турбо-режиме, а память работает на частоте 850 МГц, обеспечивая пропускную способность 652, 8 ГБ / с. Недавно было объявлено о выпуске CEO Edition, который увеличивает объем памяти до 32 ГБ.

Первой видеокартой, выпущенной Nvidia с архитектурой Volta, была Tesla V100, которая является частью системы Nvidia DGX-1. Tesla V100 использует ядро GV100, выпущенное 21 июня 2017 года. Графический процессор Volta GV100 построен в 12-нм производственном процессе FinFET с 32 ГБ памяти HBM2, способной обеспечить пропускную способность до 900 ГБ / с.

Volta также реализует новейшую SoC от Nvidia Tegra под названием Xavier, анонсированную 28 сентября 2016 года. Xavier Содержит 7 миллиардов транзисторов и 8 пользовательских ядер ARMv8, а также графический процессор Volta с 512 ядрами CUDA и TPU с открытым исходным кодом (Tensor Processing Unit) под названием DLA (Deep Learning Accelerator). Xavier может кодировать и декодировать видео с разрешением 8K Ultra HD (7680 × 4320 пикселей) в режиме реального времени, все с TDP 20-30 Вт и размером кристалла, оцениваемым в 300 мм2, благодаря 12 производственному процессу. нм FinFET.

Архитектура Volta характеризуется тем, что она первой включает ядро ​​Tensor, ядра, специально разработанные для обеспечения гораздо более высокой производительности в задачах глубокого обучения по сравнению с обычными ядрами CUDA. Тензорное ядро ​​- это модуль, который умножает две матрицы FP16 4 × 4, а затем добавляет к результату третью матрицу FP16 или FP32, используя объединенные операции сложения и умножения, получая результат FP32, который может быть дополнительно понижен до результата FP16. Тензорные ядра предназначены для ускорения обучения нейронной сети.

Volta также выделяется включением усовершенствованного запатентованного интерфейса NVLink, который является проводным протоколом связи для ближней полупроводниковой связи, разработанным Nvidia, который может использоваться для передачи кода данных и управления в процессорных системах на основе CPU и GPU и те, которые основаны исключительно на GPU. NVLink определяет соединение «точка-точка» со скоростью передачи данных 20 и 25 Гбит / с на линию данных и на адрес в своей первой и второй версиях. Общая скорость передачи данных в реальных системах составляет 160 и 300 ГБ / с для общей суммы входных и выходных потоков данных. Продукты NVLink, представленные на сегодняшний день, ориентированы на высокопроизводительное пространство приложений. NVLINK был впервые анонсирован в марте 2014 года и использует запатентованное высокоскоростное сигнальное соединение, разработанное и разработанное Nvidia.

В следующей таблице приведены наиболее важные функции карт на базе Volta:

NVIDIA VOLTA GRAPHICS CARDS

CUDA Cores Основной Тензор Частоты (МГц) память Интерфейс памяти Пропускная способность памяти (ГБ / с)

TDP (W)

Tesla V100 5120 640 1465 32 ГБ HBM2 4, 096 бит 900 250
GeForce Titan V 5120 640 1200/1455 12 ГБ HBM2 3072 бит 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 ГБ HBM2 4, 096 бит 900 250

Будущее Nvidia проходит через Тьюринг и Ампер

По всем слухам, появившимся на сегодняшний день, двумя будущими архитектурами Nvidia будут Turing и Ampere. Вполне возможно, что когда вы читаете этот пост, одна из них уже была официально анонсирована. На данный момент ничего не известно наверняка об этих двух архитектурах, хотя говорят, что Turing будет упрощенной версией Volta для игрового рынка, на самом деле ожидается, что при том же производственном процессе ожидается 12 нм.

Ампера звучит как архитектура-преемник Тьюринга, хотя она также может стать преемницей Вольты в секторе искусственного интеллекта. Об этом абсолютно ничего не известно, хотя кажется логичным ожидать, что он будет изготовлен при 7 нм. Слухи предполагают, что Nvidia объявит о своих новых картах GeForce на Gamecom в следующем месяце августа, только тогда мы оставим сомнения относительно того, какими будут Turing или Ampere, если они действительно появятся.

NVIDIA G-Sync, устранение проблем с синхронизацией изображений

G-Sync - это запатентованная технология адаптивной синхронизации, разработанная Nvidia, основной целью которой является устранение разрывов экрана и необходимость альтернатив в виде программного обеспечения, такого как Vsync. G-Sync устраняет разрыв экрана, заставляя его адаптироваться к частоте кадров устройства вывода, графической карты, а не адаптировать устройство вывода к экрану, что приводит к разрыву изображения в экран.

Чтобы монитор был совместим с G-Sync, он должен содержать аппаратный модуль, продаваемый Nvidia. AMD (Advanced Micro Devices) выпустила аналогичную технологию для дисплеев, названную FreeSync, которая имеет ту же функцию, что и G-Sync, но не требует какого-либо специального оборудования.

Nvidia создала специальную функцию, чтобы избежать возможности готовности нового кадра при рисовании на экране дубликата, что может вызвать задержку и / или заикание, модуль ожидает обновления и ожидает завершения следующего кадра. Пиксельная перегрузка также вводит в заблуждение в сценарии нефиксированного обновления, и решения прогнозируют, когда произойдет следующее обновление, поэтому значение перегрузки должно быть реализовано и скорректировано для каждой панели, чтобы избежать побочного эффекта.

Модуль основан на FPGA семейства Altera Arria V GX с 156К логическими элементами, 396 блоками DSP и 67 каналами LVDS. Он создается в процессе TSMC 28LP и объединяется с тремя микросхемами, что составляет 768 МБ памяти DDR3L DRAM для достижения определенной полосы пропускания. Используемая FPGA также имеет интерфейс LVDS для управления панелью монитора. Этот модуль предназначен для замены обычных альпинистов и может быть легко интегрирован производителями мониторов, которым нужно только позаботиться о плате блока питания и входных соединениях.

G-Sync столкнулся с некоторой критикой из-за своей запатентованной природы и того факта, что он все еще продвигается, когда существуют бесплатные альтернативы, такие как стандарт VESA Adaptive-Sync, который является дополнительной функцией DisplayPort 1.2a. В то время как AMD FreeSync основана на DisplayPort 1.2a, для правильной работы G-Sync необходим модуль, созданный Nvidia, вместо обычного экранного скейлера для графических карт Nvidia GeForce, совместимый с Kepler, Maxwell, Pascal и микроархитектурами. Вольта.

Следующий шаг был сделан с технологией G-Sync HDR, которая, как следует из ее названия, добавляет возможности HDR, чтобы значительно улучшить качество изображения монитора. Чтобы сделать это возможным, необходимо сделать существенный скачок в оборудовании. Эта новая версия G-Sync HDR использует FPGA Intel Altera Arria 10 GX 480, очень продвинутый и высокопрограммируемый процессор, который может быть закодирован для широкого спектра применений, который сопровождается 3 ГБ памяти DDR4 2400 МГц производства Micron., Это делает цену этих мониторов более дорогой.

Здесь заканчивается наш пост обо всем, что вы должны знать о Nvidia. Помните, что вы можете поделиться им в социальных сетях, чтобы охватить больше пользователей. Вы также можете оставить комментарий, если у вас есть предложения или что-то добавить.

Android

Выбор редактора

Back to top button