Войти Регистрация |
|
|
||||
Макро Групп → Обзор методов ускорения нейронных сетей от XilinxКомпания Xilinx уже не первый год развивает собственную экосистему, которая позволяет использовать её ПЛИС и SoC для ускорения работы нейронных сетей. Это и интеграция поддержки сетей в собственные продукты, и адаптация существующих сетей к имеющимся аппаратным платформам. У Xilinx имеется большой банк нейронных сетей «Model Zoo», в котором содержатся уже обученные и адаптированные для применения на ПЛИС и SoC сети. Это позволяет существенно упростить развёртывание и применение сетей в самых разных устройствах.Но у Xilinx есть решение и для ситуации, когда разработчику нужно загрузить собственную нейронную сеть, которая ещё не приспособлена для использования в устройствах с программируемой логикой. Недавно компания Xilinx опубликовала технический документ «FPGAs in the Emerging DNN Inference Landscape», в котором подробно описала, как создавать более эффективные нейронные сети, увеличить скорость обработки данных и снизить их энергопотребление. В документе описаны такие методы, как квантование (Quantization), прунинг (Pruning) и другие. Также описаны, направления развития ускорителей нейронных сетей. Документ содержит следующие разделы: - Introduction - A Quick Introduction to Deep Neural Networks - Trends in DNN Models for Inference - Methods for Creating More Efficient DNNs - Efficient Topologies - Quantization - Pruning - Layer Fusion and Decomposition - Accuracy-Computation Trade-Offs: Examples from Quantization - Trends in Inference Accelerator Architectures - The Landscape of Inference Accelerator Architectures - FPGA Implementation Advantages for Efficient DNNs - Summary - References Обзор методов ускорения нейронных сетей от Xilinx Более подробно с этим документом можно ознакомиться по ссылке. Источник: Новости Макро Групп • Подробнее: https://www.macrogroup.ru/news...-ot-xilinx
|
© 2006 — 2024 Капитал Плюс Телефон, e-mail, ICQ для связи |
Регистрация • Реклама на сайте |