Разные режимы использования Big Data привели к необходимости создания архитектурных конструкций, которые приблизили бы память по важности к вычислительными ресурсам. Искусственный интеллект и машинное обучение показывают, как аппаратное обеспечение и архитектура данных важны для успешной установки и удобства работы с ИИ-приложениями на внешней платформе. Однако, ключевой вопрос при этом – где именно будет находиться память.

Исследование, проведенное по заказу компании Micron Technology, показало, что 89% компаний-респондентов считают важным и даже критическим, чтобы вычислительные ресурсы и память были архитектурно близки друг другу. Опрос, проведенный Forrester Research, также показал, что память и хранилища данных связаны с наиболее распространенными аппаратными ограничениями, с которыми сталкивается вся индустрия искусственного интеллекта в наши дни. Более 75% респондентов признают необходимость обновления или реорганизации хранилищ данных и памяти для устранения проблем с архитектурными конструкциями и ускорения работы ИИ.

Искусственный интеллект выполняет множество накопительных операций с матрицей данных в нейронной сети. Эти операции повторяются снова и снова, так появляется больше исходных данных для создания алгоритма. Для системы такой алгоритм является наилучшим способом действия – так сеть учится работать с данными. По словам вице-президента Micron Колма Лайсата (Colm Lysaght), из-за обилия данных решить проблему получения необходимой рабочей памяти довольно просто – нужно добавить больше DRAM (динамических запоминающих устройств). Таким образом, это сместит фокус производительности с необработанных вычислений туда, где располагаются данные. Память и хранилище – места, где обитают данные. Нужно загрузить их в CPU, а затем снова и снова выполнять работу с этими наборами данных, советует специалист.

По словам Лайсата, поиск путей сближения вычислений и памяти (при удачном решении) в конечном итоге повлечет за собой экономию энергии, поскольку данные не будут часто переноситься. Следовательно, повысится и производительность. Существует множество подходов к созданию архитектур, одним из примеров являются нейроморфные процессоры – эти устройства формируют нейронную сеть и разбивают имеющееся число ядер на больше ядер, но меньшего размера.

Фактически, чем больше матрица данных, над которой работают инженеры, тем больше должно быть ядер. Каждое из них должно выполнять относительно простую операцию.

Разработкой новых архитектурных решений сегодня занимаются многие компании, в том числе и Crossbar Inc. Наряду с Gyrfalcon Technology Inc., mtes Neural Networks Co. (mtesNN) и RoboSensing Inc. она сформировала SCAiLE (SCalable AI) – тематический ИИ-консорциум, посвященный разработке ускоренной, энергосберегающей платформы AI. Представители Crossbar сообщили, что группа исследователей объединит в своих работах передовые технологии аппаратного ускорения, а именно резистивное ОЗУ (ReRAM) и оптимизированные нейронные сети для создания готовых, энергоэффективных ИИ-решений. В идеале такое ПО, после короткого инструктажа от человека, должно обучаться самостоятельно и обладать способностью к распознаванию.

Инженеры подчеркнули, что многие компании хотят выпускать устройства с ИИ (интеллектуальные динамики, смарт-камеры или телевизоры), но не имеют ни малейшего представления, как это сделать. Crossbar Inc – разработчик ReRAM. Именно этот вид памяти делает считывание данных еще проще: любая входящая информация, например, текст, теги, координаты или визуальные образы обрабатывается максимально быстро.

 

Читайте также:

Дроны – основные конкуренты корпоративного инструмента Big Data

Как Big Data и AI можно использовать для продвижения и оптимизации торговли

Автор: Марина Шост


Теги:
Комментарии