Аннотация:
Предлагается метод редукции признакового пространства до заданных размеров, ориентированный на задачи рандомизированного машинного обучения и основанный на процедуре “прямого” и “обратного” проектирования (метод DIP). Матрицы-“проекторы” определяются максимизацией относительной энтропии. Информационные потери при редукции признакового пространства предлагается оценивать абсолютной ошибкой, вычисляемой с использованием функции Кульбака–Ляйблера (метод SRC). Приводится пример, иллюстрирующий указанные методы.
Образец цитирования:
Ю. С. Попков, Ю. А. Дубнов, А. Ю. Попков, “Энтропийная редукция размерности в задачах рандомизированного машинного обучения”, Автомат. и телемех., 2018, № 11, 106–122; Autom. Remote Control, 79:11 (2018), 2038–2051
А. Н. Тырсин, “Энтропийное моделирование сетевых структур”, Автомат. и телемех., 2022, № 10, 144–155; A. N. Tyrsin, “Entropy modeling of network structures”, Autom. Remote Control, 83:10 (2022), 1608–1618
Ю. С. Попков, “Рандомизация и энтропия в машинном обучении и обработке данных”, Докл. РАН. Матем., информ., проц. упр., 504 (2022), 3–27; Yu. S. Popkov, “Randomization and entropy in machine learning and data processing”, Dokl. Math., 105:3 (2022), 135–157
Ю. С. Попков, А. Ю. Попков, Ю. А. Дубнов, “Кросс-энтропийная редукции матрицы данных с ограничением информационной емкости матриц-проекторов и их норм”, Матем. моделирование, 32:9 (2020), 35–52; Y. S. Popkov, A. Y. Popkov, Y. A. Dubnov, “Cross-entropy reduction of data matrix with restriction on information capacity of projectors and their norms”, Math. Models Comput. Simul., 13:3 (2021), 382–394
Ю. С. Попков, А. Ю. Попков, Ю. А. Дубнов, “Методы детерминированных и рандомизированных энтропийных проекций для редукции размерности матрицы данных”, Информ. и её примен., 14:4 (2020), 47–54
Yu. S. Popkov, A. Yu. Popkov, “Cross-entropy optimal dimensionality reduction with a condition on information capacity”, Dokl. Math., 100:2 (2019), 420–422