Цитирование: | 1. Кульбак С. Теория информации и статистика. М.: Наука, 1967.
2. Ryabko B.Ya., Monarev V.A. Using Information Theory Approach to Randomness Testing // J. Stat. Plan. Inference. 2005. V. 133. № 1. P. 95-110.
3. Ryabko В., Astola J. Universal Codes as a Basis for Time Series Testing // Stat. Methodol. 2006. V. 3. № 4. P. 375-397.
4. Рябко Б.Я., Монарев В.А. Экспериментальное исследование методов прогнозирования, базирующихся на алгоритмах сжатия данных // Пробл. передачи информ. 2005. Т. 41. № 1. С. 74-78.
5. Рябко Б.Я. Прогноз случайных последовательностей и универсальное кодирование // Пробл. передачи информ. 1988. Т. 24. № 2. С. 3-14.
6. Algoet P. Universal Schemes for Learning the Best Nonlinear Predictor Given the Infinite Past and Side Information // IEEE Trans. Inform. Theory. 1999. V. 45. № 4. P. 1165-1185.
7. Gyorfi L., Morvai G., Yakowitz S.J. Limits to Consistent On-Line Forecasting for Ergodic Time Series // IEEE Trans. Inform. Theory. 1998. V. 44. № 2. P. 886-892.
8. Jacquet P., Szpankowski W., Apostol L. A Universal Predictor Based on Pattern Matching // IEEE Trans. Inform. Theory. 2002. V. 48. № 2. P. 1462-1472.
9. Kieffer J. Prediction and Information Theory: Preprint, 1998. Available at
10. Modha D.S., Masry E. Memory-Universal Prediction of Stationary Random Processes // IEEE Trans. Inform. Theory. 1998. V. 44. № 1. P. 117-133.
11. Morvai G., Yakowitz S.J., Algoet P.H. Weakly Convergent Nonparametric Forecasting of Stationary Time Series // IEEE Trans. Inform. Theory. 1997. V. 43. № 2. P. 483-498.
12. Колмогоров А.Н. Три подхода к определению понятия "количество информации" // Пробл. передачи информ. 1965. Т. 1. № 1. С. 3-11.
13. Успенский В.А., Семенов А.Л., Шень А.Х. Может ли (индивидуальная) последовательность нулей и единиц быть случайной? // УМН. 1990. Т. 45. № 1. С. 105-162.
14. Ryabko В., Astola J., Gammerman A. Application of Kolmogorov Complexity and Universal Codes to Identity Testing and Nonparametric Testing of Serial Independence for Time Series // Theoret. Comput. Sci. 2006. V. 359. P. 440-448.
15. Rukhin A. and others. A Statistical Test Suite for Random and Pseudorandom Number Generators for Cryptographic Applications. NIST Special Publication 800-22. 2001. Availabe at
16. Кукушкина О.В., Поликарпов А.А., Хмелев Д.В. Определение авторства текста с использованием буквенной и грамматической информации // Пробл. передачи информ. 2001. Т. 37. № 2. С. 96-109.
17. Cilibrasi R., Vitanyi P.M.В. Clustering by Compression // IEEE Trans. Inform. Theory. 2005. V. 51. № 4. P. 1523-1545.
18. Cilibrasi R., Vitanyi P.M.В., de Wolf R. Algorithmic Clustering of Music Based on String Compression // Computer Music J. Winter. 2004. V. 28. № 4. P. 49-67.
19. Феллер В. Введение в теорию вероятностей и ее приложения. Т. 1. М.: Мир, 1984.
20. Чисар И., Кернер Я. Теория информации: Теоремы кодирования для дискретных ситем без памяти. М.: Мир, 1985.
21. Рябко Б.Я. Быстрый алгоритм адаптивного кодирования // Пробл. передачи информ. 1990. Т. 26. № 4. С. 305-317.
22. Кричевский Р.Е. Связь между избыточностью кодирования и достоверностью сведений об источнике // Пробл. передачи информ. 1968. Т. 4. № 3. С. 48-57.
23. Кричевский Р.Е. Сжатие и поиск информации. М.: Радио и связь, 1989.
24. Галлагер Р. Теория информации и надежная связь. М.: Сов. радио, 1974.
25. Ryabko D., Butter M. Sequence prediction for Non-Stationary Processes // Combinatorial and Algorithmic Foundations of Pattern and Association Discovery. Dagstuhl Seminar, 2006, Germany. Available at .
26. Barron A.R. The Strong Ergodic Theorem for Dencities: Generalized Shannon-McMillan-Breiman Theorem // Ann. Probability. 1985. V. 13. № 4. P. 1292-1303.
27. Darbellay G.A., Vajda I. Entropy Expressions for Multivariate Continuous Distributions // IEEE Trans. Inform. Theory. 2000. V. 46. № 2. P. 709-711.
28. Darbellay G.A., Vajda I. Estimation of the Mutual Information with Data-Dependent Partitions. Research Report № 1921. Institute of Information Theory and Automation (UTIA), Praha, 1998.
|