Глобальная горячая линия технической поддержки Тел: 1-844-860-0011 1-646-517-4966 E-mail:serversupport@inspur.com Следите Inspur



Inspur представила свой новый Caffe-MPI, который работает почти в два раза быстрее, чем TensorFlow от Google

  9 мая на конференции GPU Technology Conference 2017 (GTC17), которая состоялась в городе Сан-Хосе (США), Корпорация Inspur представила свою программную библиотеку Caffe-MPI (Deep Learning Caffe-MPI) специально разработанную для глубокого машинного обучения. По тестовым данным, когда ведется подготовка модели глубинного обучения на основе международно признанной базы данных ImageNet, Caffe-MPI показывает отличную масштабируемость параллельных вычислений и работает почти два раза быстрее, по сравнению с существующей библиотекой глубинного обучения TensorFlow компании Google. Caffe-MPI представляет собой первый во всем мире вычислительный фреймворк глубинного обучения Caffe версии параллельного алгоритма на кластере. Корпорация Inspur возглавляет разработку Caffe-MPI и уже опубликовала все исходные коды на Github.

  В настоящее время Caffe и TensorFlow являются двумя наиболее популярными в мире вычислительными библиотеками глубинного обучения с открытым исходным кодом. Caffe был разработан в филиале Калифорнийского университета в Беркли (США) и является первым в мире промышленным вычислительным фреймворком глубинного обучения, но отличается недостаточной гибкостью и относительно плохой способностью к расширению. TensorFlow – это вычислительный фреймворк глубинного обучения, разработанный компанией Google, который уже широко используется в поисках, распознавании изображений и электронной почте Google.

  Caffe-MPI, разработанный Корпорацией Inspur, сохраняет отличные свойства фреймворков версии Беркли, и при этом обладает прекрасной масштабируемостью параллельных вычислений для проектирования системы высокопроизводительных вычислений. При подготовке в системе кластеров с 16 GPU картами в 4 узлах Caffe-MPI новой версии работает в 13 раз более эффективно, чем с одной картой. Количество изображений, которое Caffe-MPI обрабатывает в каждую секунду, составляет почти в два раза больше, чем TensorFlow 1.0 с той же структурой кластеров.

  Превосходная производительность Caffe-MPI получилась благодаря своему новаторскому дизайну в параллельных алгоритмах. Caffe-MPI имеет два слоя режимов связи: Обмен данными между GPU видеокартами в узлах и глобальный обмен данными RDMA между узлами значительно сократили проблему сетевого общения и преодолели негативное влияние неравномерной пропускной способности между PCIE и сетью в традиционных коммуникационных режимах. Такой дизайн наилучшим образом подходит для GPU серверов c высокой концентрацией, и при этом Caffe-MPI осуществляет параллелизм вычислений и связи. Кроме того, Caffe-MPI новой версии отличается лучшей совместимостью, благодаря чему пользовали могут свободно использовать cuDNN новейшей версии для повышения производительности.

  На данной конференции GTC 2017 Корпорация Inspur представила комплексное решение задачи искусственного интеллекта (AI) для пользователей,  в том числе первый во всем мире суперкомпьютер искусственного интеллекта AGX-2, который в пространстве 2U поддерживает 8 NVLink или PCI-E интерфейс P100 GPU; совместно разработанный Корпорацией Inspur и компанией Baidu сервер аппаратного шкафа SR-AI Rack, который поддерживает расширение 16 GPU карт; групповая система управления глубинным обучением с искусственным интеллектом AIStation и параллельный вычислительный фреймворк глубинного обучения Caffe-MPI.

  Глубинное обучение с искусственным интеллектом представляет собой один из трех основных бизнесов интеллектуальных вычислений Корпорации Inspur. В новом финансовом году Корпорация Inspur создала отдел искусственного интеллекта и учреждает «комплекс платформ», в который входят передовые вычислительные платформы, платформы управления и анализа и вычислительный фреймворк глубинного обучения, чтобы осуществить получение данных нескольких источников в пользовательском интерфейсе и поддержку приложений AI в сервере, и таким образом предоставлять передовую способность к вычислениям для искусственного интеллекта. В настоящее время Корпорация Inspur уже является самым главным поставщиком вычислений искусственного интеллекта и GPU серверов для ведущих в мире интернет-компаний, таких, как компания Baidu, компания Alibaba и компания Tencent. Кроме того, Корпорация Inspur ведет тесное сотрудничество в области системы и приложения с рядом ведущих по искусственному интеллекту интернет-компаний, таких, как iFlytek, Qihoo 360, Sogou, Toutiao, Face ++, чтобы помочь клиентам значительно повысить производительность в плане голоса, изображения, видео, поиска, сети и т.д.