Инд. авторы: Рябко Б.Я.
Заглавие: Применение методов сжатия данных для непараметрического оценивания характеристик случайных процессов с дискретным временем
Библ. ссылка: Рябко Б.Я. Применение методов сжатия данных для непараметрического оценивания характеристик случайных процессов с дискретным временем // Проблемы передачи информации. - 2007. - С.109-123. - ISSN 0555-2923.
Внешние системы: РИНЦ: 10022775;
Реферат: rus: Рассматриваются случайные процессы с дискретным временем, порождающие элементы либо из некоторого конечного множества (алфавита), либо из отрезка действительной прямой. Исследуются задачи оценки предельных (или стационарных) вероятностей и плотностей распределения, а также классификации и прогнозирования. Показано, что для решения этих задач можно использовать методы универсального кодирования (или "сжатия данных").
Издано: 2007
Физ. характеристика: с.109-123
Цитирование: 1. Кульбак С. Теория информации и статистика. М.: Наука, 1967. 2. Ryabko B.Ya., Monarev V.A. Using Information Theory Approach to Randomness Testing // J. Stat. Plan. Inference. 2005. V. 133. № 1. P. 95-110. 3. Ryabko В., Astola J. Universal Codes as a Basis for Time Series Testing // Stat. Methodol. 2006. V. 3. № 4. P. 375-397. 4. Рябко Б.Я., Монарев В.А. Экспериментальное исследование методов прогнозирования, базирующихся на алгоритмах сжатия данных // Пробл. передачи информ. 2005. Т. 41. № 1. С. 74-78. 5. Рябко Б.Я. Прогноз случайных последовательностей и универсальное кодирование // Пробл. передачи информ. 1988. Т. 24. № 2. С. 3-14. 6. Algoet P. Universal Schemes for Learning the Best Nonlinear Predictor Given the Infinite Past and Side Information // IEEE Trans. Inform. Theory. 1999. V. 45. № 4. P. 1165-1185. 7. Gyorfi L., Morvai G., Yakowitz S.J. Limits to Consistent On-Line Forecasting for Ergodic Time Series // IEEE Trans. Inform. Theory. 1998. V. 44. № 2. P. 886-892. 8. Jacquet P., Szpankowski W., Apostol L. A Universal Predictor Based on Pattern Matching // IEEE Trans. Inform. Theory. 2002. V. 48. № 2. P. 1462-1472. 9. Kieffer J. Prediction and Information Theory: Preprint, 1998. Available at 10. Modha D.S., Masry E. Memory-Universal Prediction of Stationary Random Processes // IEEE Trans. Inform. Theory. 1998. V. 44. № 1. P. 117-133. 11. Morvai G., Yakowitz S.J., Algoet P.H. Weakly Convergent Nonparametric Forecasting of Stationary Time Series // IEEE Trans. Inform. Theory. 1997. V. 43. № 2. P. 483-498. 12. Колмогоров А.Н. Три подхода к определению понятия "количество информации" // Пробл. передачи информ. 1965. Т. 1. № 1. С. 3-11. 13. Успенский В.А., Семенов А.Л., Шень А.Х. Может ли (индивидуальная) последовательность нулей и единиц быть случайной? // УМН. 1990. Т. 45. № 1. С. 105-162. 14. Ryabko В., Astola J., Gammerman A. Application of Kolmogorov Complexity and Universal Codes to Identity Testing and Nonparametric Testing of Serial Independence for Time Series // Theoret. Comput. Sci. 2006. V. 359. P. 440-448. 15. Rukhin A. and others. A Statistical Test Suite for Random and Pseudorandom Number Generators for Cryptographic Applications. NIST Special Publication 800-22. 2001. Availabe at 16. Кукушкина О.В., Поликарпов А.А., Хмелев Д.В. Определение авторства текста с использованием буквенной и грамматической информации // Пробл. передачи информ. 2001. Т. 37. № 2. С. 96-109. 17. Cilibrasi R., Vitanyi P.M.В. Clustering by Compression // IEEE Trans. Inform. Theory. 2005. V. 51. № 4. P. 1523-1545. 18. Cilibrasi R., Vitanyi P.M.В., de Wolf R. Algorithmic Clustering of Music Based on String Compression // Computer Music J. Winter. 2004. V. 28. № 4. P. 49-67. 19. Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1. М.: Мир, 1984. 20. Чисар И., Кернер Я. Теория информации: Теоремы кодирования для дискретных ситем без памяти. М.: Мир, 1985. 21. Рябко Б.Я. Быстрый алгоритм адаптивного кодирования // Пробл. передачи информ. 1990. Т. 26. № 4. С. 305-317. 22. Кричевский Р.Е. Связь между избыточностью кодирования и достоверностью сведений об источнике // Пробл. передачи информ. 1968. Т. 4. № 3. С. 48-57. 23. Кричевский Р.Е. Сжатие и поиск информации. М.: Радио и связь, 1989. 24. Галлагер Р. Теория информации и надежная связь. М.: Сов. радио, 1974. 25. Ryabko D., Butter M. Sequence prediction for Non-Stationary Processes // Combinatorial and Algorithmic Foundations of Pattern and Association Discovery. Dagstuhl Seminar, 2006, Germany. Available at . 26. Barron A.R. The Strong Ergodic Theorem for Dencities: Generalized Shannon-McMillan-Breiman Theorem // Ann. Probability. 1985. V. 13. № 4. P. 1292-1303. 27. Darbellay G.A., Vajda I. Entropy Expressions for Multivariate Continuous Distributions // IEEE Trans. Inform. Theory. 2000. V. 46. № 2. P. 709-711. 28. Darbellay G.A., Vajda I. Estimation of the Mutual Information with Data-Dependent Partitions. Research Report № 1921. Institute of Information Theory and Automation (UTIA), Praha, 1998.