Nvidia работает с Microsoft над созданием «массивного» облачного компьютера с искусственным интеллектом, использующего несколько тысяч графических процессоров

Американский разработчик чипов и вычислительная фирма Nvidia в среду заявили, что объединяются с Microsoft для создания “массивного” компьютера для интенсивной вычислительной работы с искусственным интеллектом в облаке.

Компьютер с искусственным интеллектом будет работать в облаке Microsoft Azure, используя десятки тысяч графических процессоров (GPU), самые мощные чипы Nvidia H100 и A100. Nvidia отказалась сообщить, сколько стоит сделка, но отраслевые источники сообщили, что каждый чип A100 оценивается примерно от 10 000 долларов (примерно 8 15 400 рупий) до 12 000 долларов (примерно 9 78 500 рупий), а H100 намного дороже.

“Мы находимся на том переломном этапе, когда искусственный интеллект приходит на предприятия, и становится реальным предоставление тех сервисов, которые клиенты могут использовать для развертывания искусственного интеллекта в бизнес-сценариях”, — сказал агентству Reuters Иэн Бак, генеральный менеджер Nvidia по Hyperscale и HPC. “Мы наблюдаем широкий всплеск внедрения искусственного интеллекта… и необходимость применения искусственного интеллекта для корпоративных сценариев использования”.

  • Модель Nvidia GeForce RTX 4080 12GB, которую планируется вернуть как RTX 4070 Ti

В дополнение к продаже чипов Microsoft, Nvidia заявила, что будет сотрудничать с программным обеспечением и облачным гигантом для разработки моделей искусственного интеллекта. Бак сказал, что Nvidia также станет клиентом облачного компьютера Microsoft с искусственным интеллектом и будет разрабатывать на нем приложения с искусственным интеллектом, чтобы предлагать услуги клиентам.

Быстрый рост моделей искусственного интеллекта, таких как те, которые используются для обработки естественного языка, резко повысил спрос на более быструю и мощную вычислительную инфраструктуру.

Nvidia заявила, что Azure станет первым публичным облаком, использующим свою сетевую технологию Quantum-2 InfiniBand, скорость которой составляет 400 гигабит в секунду. Эта сетевая технология связывает серверы на высокой скорости. Это важно, поскольку для интенсивной вычислительной работы с искусственным интеллектом требуются тысячи чипов для совместной работы на нескольких серверах.

  • Nvidia запускает усовершенствованный чип для Китая, отвечающий требованиям экспортного контроля США
  • Сообщается, что TSMC приостановила работу китайского чипового стартапа на фоне ограничений в США

© Thomson Reuters 2022

Источник

Оцените статью
Добавить комментарии
Nvidia работает с Microsoft над созданием «массивного» облачного компьютера с искусственным интеллектом, использующего несколько тысяч графических процессоров
6887926d59a3a9bfcb5f83303213f45d
Как правильно выбрать детский спортивный костюм для мальчика?