Ориентируясь на исследователей в области искусственного интеллекта и других специалистов, использующих суперкомпьютеры, компания Nvidia представила программное обеспечение Magnum IO. По словам производителя, оно «устраняет узкие места при хранении и передаче данных в вычислительных узлах с большим количеством GPU». Как утверждается, выигрыш в скорости обработки массивов данных достигает 20 раз. Особенно заметно это может быть в задачах финансового анализа, моделирования климата и других суперкомпьютерных приложениях.
В разработке приняли участие компании DataDirect Networks, Excelero, IBM, Mellanox и WekaIO. Фундаментом ПО Magnum IO стала технология GPUDirect, позволяющая данным обходить CPU и перемещаться по магистралям, связывающим графические процессоры, накопители и сетевые устройства. Технология GPUDirect совместима с широким спектром интерфейсов и API, включая Nvidia NVLink и NCCL, а также OpenMPI и UCX. Новейшим элементом GPUDirect является GPUDirect Storage, позволяющий исследователям в обход CPU получать доступ к хранимым файлам для моделирования, анализа и визуализации.
ПО Magnum IO уже доступно, за исключением элемента GPUDirect Storage, который станет доступен в первом полугодии 2020 года.