Метод создания схем прогнозирования для классификации табличных данных.

Важные новости

Метод генерировать схемы прогнозирования для классификации табличных данных

Различия между текущими подходами AutoML, NAS, NAIS и нашими схемами автоматических крошечных классификаторов. a,b, AutoML (a) и NAS (b) генерируют модель машинного обучения и модель нейронной архитектуры соответственно с максимальной производительностью прогнозирования. Однако модель машинного обучения необходимо перевести в RTL и проверить. в) NAIS выбирает конкретную нейронную сеть (NN) и известный ускоритель нейронной сети для перебора пространства, определяя лучшие параметры из пула аппаратного обеспечения (HW) для максимизации точности прогнозирования. г. Предлагаемая нами методология автоматически осуществляет поиск в пространстве схемы классификатора с использованием эволюционного алгоритма. В ходе эволюции схемы сгенерированная схема не сопоставляется с какой-либо предопределенной моделью ML или известной аппаратной схемой. Автор: Nature Electronics(2024). DOI: 10.1038/s41928-024-01157-5

За последние несколько лет методы глубокого обучения становятся все более продвинутыми, достигая точности человеческого уровня в широком спектре задач, включая классификацию изображений и обработку естественного языка.

Широкое использование этих вычислительных методов стимулировало исследования, направленные на разработку новых аппаратных решений, которые могут удовлетворить их существенные вычислительные потребности.

Для работы глубоких нейронных сетей некоторые исследователи разрабатывают так называемые аппаратные ускорители — специализированные вычислительные устройства, которые можно запрограммировать для решения конкретных вычислительных задач более эффективно, чем обычные центральные процессоры (ЦП).

Конструкция до сих пор эти ускорители в основном проводились отдельно от обучения и реализации моделей глубокого обучения, и лишь несколько команд решали эти две исследовательские цели в тандеме.

Исследователи из Манчестерского университета и компании Pragmatic Semiconductor недавно приступили к разработке метода на основе машинного обучения для автоматического создания схем классификации на основе табличных данных, которые представляют собой неструктурированные данные, объединяющие числовую и категориальную информацию.

Описан предлагаемый ими метод. в статье, опубликованной в журнале Nature Electronics, она опирается на недавно представленную методологию, которую команда называет «крошечными классификаторами».

«Типичный цикл разработки машинного обучения максимизирует производительность во время обучения модели, а затем сводит к минимуму объем памяти и занимаемую областью обученную модель для развертывания на вычислительных ядрах, графических процессорах, микроконтроллерах или специальных аппаратных ускорителях», — написали Константинос Иордану, Тимоти Аткинсон и их коллеги. в своей статье.

«Однако это становится все труднее по мере того, как модели машинного обучения становятся все больше и сложнее. Мы сообщаем о методологии автоматического создания схем прогнозирования для классификации табличных данных».

< р>Крошечные схемы-классификаторы, разработанные Иордану, Аткинсоном и их коллегами, состоят всего из нескольких сотен логических элементов. Несмотря на их относительно небольшой размер, было обнаружено, что они обеспечивают точность, аналогичную той, которая достигается с помощью современных классификаторов машинного обучения.

«Этот подход обеспечивает сопоставимую производительность прогнозирования с традиционными методами машинного обучения, но при этом существенно меньшую. используются аппаратные ресурсы и мощность», — написали Иордану, Аткинсон и их коллеги.

«Мы используем эволюционный алгоритм для поиска в пространстве логических элементов и автоматически генерируем схему классификатора с максимальной точностью прогнозирования обучения, которая состоит не более чем из 300 логических элементов».

Исследователи протестировали свой крошечный классификатор схемы в серии симуляций и обнаружил, что они достигли весьма многообещающих результатов, как с точки зрения точности, так и с точки зрения энергопотребления. Затем они также проверили свои характеристики на реальной недорогой интегральной схеме (ИС).

«При моделировании в виде кремниевого чипа наши крошечные классификаторы используют в 8–18 раз меньше площади и в 4–8 раз меньше энергии, чем самые эффективные базовые модели машинного обучения», — пишут Иордану, Аткинсон и их коллеги.

«Когда они реализованы в виде недорогих чипов на гибкой подложке, они занимают в 10–75 раз меньше площади, потребляют в 13–75 раз меньше энергии и имеют в 6 раз более высокую производительность, чем наиболее аппаратно-эффективная базовая версия ML».

В будущем крошечные классификаторы, разработанные исследователями, можно будет использовать для эффективного решения широкого спектра реальных задач. Например, они могут служить в качестве триггерных схем на чипе для интеллектуальной упаковки и мониторинга различных товаров, а также для разработки недорогих околосенсорных вычислительных систем.

Дополнительная информация: Константинос Иордану и др., Недорогое и эффективное оборудование для прогнозирования табличных данных с использованием крошечных схем классификатора, Nature Electronics (2024). DOI: 10.1038/s41928-024-01157-5

Информация журнала: Nature Electronics

Новости сегодня

Последние новости