Hewlett Packard создала компьютер с рекордным объемом оперативной памяти.

Hewlett Packard создала компьютер с рекордным объемом оперативной памяти.

22.05.2017
Пупом Вселенной объявляется память

Hewlett Packard Enterprise (HPE) в рамках проекта The Machine, посвященного созданию вычислительных технологий с использованием памяти (Memory-Driven Computing) — новой вычислительной архитектуры, специально созданной для эры больших данных, представила очередной прототип компьютера с рекордным объемом оперативной памяти в 160 ТБ.

По мнению специалистов компании, разработанная в HPE вычислительная архитектура способна масштабироваться до практически безграничных объемов используемой памяти.

О проекте The Machine

Hewlett Packard Enterprise начала разработку проекта The Machine в 2014 г. С самого начала в проекте предполагалось использовать так называемую мемристорную память, однако по причине задержек с коммерциализацией этого типа памяти компании пришлось запустить первый прототип The Machine на 4 ТБ традиционной динамической памяти (DRAM).

Проект The Machine, который называют крупнейшей научно-исследовательской программой за всю историю развития компании, направлен на создание парадигмы Memory-Driven Computing.

Вычислительные стойки системы Memory-Driven Computing
«Секреты грядущих крупных научных прорывов, инноваций, которые изменят индустрию и жизненно важных технологий, скрыты от нашего взора за горными массивами данных, которые мы ежедневно генерируем, — сказала Мэг Уитмен (Meg Whitman), исполнительный директор Hewlett Packard Enterprise. — Для реализации этих возможностей мы не можем использовать технологии прошлого, нам нужен компьютер, созданный для эпохи больших данных».

Масштабируемость и социализация технологий

Оперативной памяти прототипа вычислительной системы в 160 ТБ достаточно, например, для работы с пятикратным объемом информации, содержащейся в одной из крупнейших в мире библиотеки Конгресса США (порядка 160 млн книг).

От процессоро-центричности к технологиям Memory-Driven
В HPE планируют использовать нынешний прототип в качестве образца архитектуры для дальнейшего масштабирования вычислительных мощностей в рамках проекта The Machine с целью достижения горизонта экзабайтных (в миллионы ТБ) объемов памяти в одной вычислительной системе и более.

В качестве пограничного «почти неограниченного» объема памяти в компании называют предел в 4,096 йоттабайт (терабайт терабайтов). Такой объем данных в 250 тысяч раз превышает объем сегодняшней цифровой вселенной.

Возврат к списку