- Главная
- Новости
- Hewlett Packard создала компьютер с рекордным объемом оперативной памяти.
Hewlett Packard создала компьютер с рекордным объемом оперативной памяти.
Пупом Вселенной объявляется память
Hewlett Packard Enterprise (HPE) в рамках проекта The Machine, посвященного созданию вычислительных технологий с использованием памяти (Memory-Driven Computing) — новой вычислительной архитектуры, специально созданной для эры больших данных, представила очередной прототип компьютера с рекордным объемом оперативной памяти в 160 ТБ.
По мнению специалистов компании, разработанная в HPE вычислительная архитектура способна масштабироваться до практически безграничных объемов используемой памяти.
О проекте The Machine
Hewlett Packard Enterprise начала разработку проекта The Machine в 2014 г. С самого начала в проекте предполагалось использовать так называемую мемристорную память, однако по причине задержек с коммерциализацией этого типа памяти компании пришлось запустить первый прототип The Machine на 4 ТБ традиционной динамической памяти (DRAM).
Проект The Machine, который называют крупнейшей научно-исследовательской программой за всю историю развития компании, направлен на создание парадигмы Memory-Driven Computing.
Вычислительные стойки системы Memory-Driven Computing
«Секреты грядущих крупных научных прорывов, инноваций, которые изменят индустрию и жизненно важных технологий, скрыты от нашего взора за горными массивами данных, которые мы ежедневно генерируем, — сказала Мэг Уитмен (Meg Whitman), исполнительный директор Hewlett Packard Enterprise. — Для реализации этих возможностей мы не можем использовать технологии прошлого, нам нужен компьютер, созданный для эпохи больших данных».
Масштабируемость и социализация технологий
Оперативной памяти прототипа вычислительной системы в 160 ТБ достаточно, например, для работы с пятикратным объемом информации, содержащейся в одной из крупнейших в мире библиотеки Конгресса США (порядка 160 млн книг).
От процессоро-центричности к технологиям Memory-Driven
В HPE планируют использовать нынешний прототип в качестве образца архитектуры для дальнейшего масштабирования вычислительных мощностей в рамках проекта The Machine с целью достижения горизонта экзабайтных (в миллионы ТБ) объемов памяти в одной вычислительной системе и более.
В качестве пограничного «почти неограниченного» объема памяти в компании называют предел в 4,096 йоттабайт (терабайт терабайтов). Такой объем данных в 250 тысяч раз превышает объем сегодняшней цифровой вселенной.