Commits

Kosta Sokolov  committed e78215e

contd

  • Participants
  • Parent commits 6549edb

Comments (0)

Files changed (3)

File bib/MachineLearningRus.bib

-% This file was created with JabRef 2.7b.
-% Encoding: UTF8
-
-@ARTICLE{abumostafa95hints,
-  author = {Yaser S. Abu-Mostafa},
-  title = {Hints},
-  journal = {Neural Computation},
-  year = {1995},
-  volume = {7},
-  pages = {639--671},
-  number = {4},
-  url = {citeseer.ist.psu.edu/abu-mostafa95hints.html}
-}
-
-@INPROCEEDINGS{allwein00reducing,
-  author = {Erin L. Allwein and Robert E. Schapire and Yoram Singer},
-  title = {Reducing Multiclass to Binary: {A} Unifying Approach for Margin Classifiers},
-  booktitle = {Proc. 17th International Conf. on Machine Learning},
-  year = {2000},
-  pages = {9--16},
-  publisher = {Morgan Kaufmann, San Francisco, CA},
-  url = {citeseer.ist.psu.edu/article/allwein00reducing.html}
-}
-
-@TECHREPORT{andersson98measuring,
-  author = {A. Andersson and P. Davidsson and J. Lind'en},
-  title = {Measuring generalization quality},
-  institution = {Department of Computer Science, Lund University, Lund, Sweden},
-  year = {1998},
-  number = {LU--CS--TR: 98--202},
-  text = {A. Andersson, P. Davidsson, and J. Lind'en. Measuring generalization
-	quality. Technical Report LU--CS--TR: 98--202, Department of Computer
-	Science, Lund University, Lund, Sweden, 1998.},
-  url = {citeseer.ist.psu.edu/andersson98measuring.html}
-}
-
-@BOOK{a-reyes-coevolutionary,
-  title = {Coevolutionary Fuzzy Modeling},
-  publisher = {Springer-Verlag New York},
-  year = {2004},
-  author = {Carlos {Andre's Pena-Reyes}},
-  url = {citeseer.ifi.unizh.ch/569226.html}
-}
-
-@INCOLLECTION{angeline95adaptive,
-  author = {Peter J. Angeline},
-  title = {Adaptive and Self-Adaptive Evolutionary Computations},
-  booktitle = {Computational Intelligence: A Dynamic Systems Perspective},
-  publisher = {IEEE Press},
-  year = {1995},
-  editor = {Marimuthu Palaniswami and Yianni Attikiouzel},
-  pages = {152--163},
-  url = {citeseer.ist.psu.edu/angeline95adaptive.html}
-}
-
-@ARTICLE{anthony04generalization,
-  author = {Martin Anthony},
-  title = {Generalization Error Bounds for Threshold Decision Lists},
-  journal = {Journal of Machine Learning Research},
-  year = {2004},
-  volume = {5},
-  pages = {189--217},
-  url = {jmlr.csail.mit.edu}
-}
-
-@TECHREPORT{anthony02uniform,
-  author = {Martin Anthony},
-  title = {Uniform Glivenko-Cantelli Theorems and Concentration of Measure in
-	the Mathematical Modelling of Learning},
-  year = {2002},
-  number = {LSE-CDAM-2002-07},
-  url = {www.maths.lse.ac.uk/Personal/martin/mresearch.html}
-}
-
-@BOOK{anthony99neural,
-  title = {Neural Network Learning: Theoretical Foundations},
-  publisher = {Cambridge University Press, Cambridge},
-  year = {1999},
-  author = {M. Anthony and P. L. Bartlett}
-}
-
-@INPROCEEDINGS{anthony98crossvalidation,
-  author = {Martin Anthony and Sean B. Holden},
-  title = {Cross-Validation for Binary Classification by Real-Valued Functions:
-	Theoretical Analysis},
-  booktitle = {Computational Learing Theory},
-  year = {1998},
-  pages = {218-229},
-  url = {citeseer.ist.psu.edu/anthony98crossvalidation.html}
-}
-
-@ARTICLE{anthony93result,
-  author = {Martin Anthony and John Shawe-Taylor},
-  title = {A Result of {V}apnik with Applications},
-  journal = {Discrete Applied Mathematics},
-  year = {1993},
-  volume = {47},
-  pages = {207-217},
-  number = {2},
-  url = {citeseer.ist.psu.edu/anthony91result.html}
-}
-
-@ARTICLE{antos02datadependent,
-  author = {Antos, A. and Kegl, B. and Linder, T. and Lugosi, G.},
-  title = {Data-dependent margin-based generalization bounds for classification},
-  journal = {Journal of Machine Learning Research},
-  year = {2002},
-  pages = {73--98},
-  url = {citeseer.ist.psu.edu/article/antos02datadependent.html}
-}
-
-@TECHREPORT{arminger-assymetric,
-  author = {Gerhard Arminger and Carsten Schneider},
-  title = {Asymmetric loss functions for evaluating the quality of forecasts
-	in time series for goods management systems},
-  institution = {University of Dortmund},
-  year = {1999},
-  number = {22/1999, SFB 475}
-}
-
-@TECHREPORT{arminger-frequent,
-  author = {Gerhard Arminger and Carsten Schneider},
-  title = {Frequent Problems of Model Specification and Forecasting of Time
-	Series in Goods Management Systems},
-  institution = {University of Dortmund},
-  year = {1999},
-  number = {21/1999, SFB 475},
-  url = {citeseer.ist.psu.edu/236345.html}
-}
-
-@ARTICLE{atkeson97locally,
-  author = {Christopher G. Atkeson and Andrew W. Moore and Stefan Schaal},
-  title = {Locally Weighted Learning},
-  journal = {Artificial Intelligence Review},
-  year = {1997},
-  volume = {11},
-  pages = {11-73},
-  number = {1-5},
-  url = {citeseer.ist.psu.edu/atkeson96locally.html}
-}
-
-@ARTICLE{waiho03novel,
-  author = {Wai-Ho Au and Keith C. C. Chan and Xin Yao},
-  title = {A novel evolutionary data mining algorithm with applications to churn
-	prediction},
-  journal = {IEEE Trans. Evolutionary Computation},
-  year = {2003},
-  volume = {7},
-  pages = {532-545},
-  number = {6},
-  url = {dblp.uni-trier.de}
-}
-
-@INPROCEEDINGS{back91optga,
-  author = {Thomas Back},
-  title = {Optimization by Means of Genetic Algorithms},
-  booktitle = {36th International Scientific Colloquium},
-  year = {1991},
-  editor = {E. Kohler},
-  pages = {163--169},
-  address = {Technical University of Ilmenau},
-  url = {citeseer.ist.psu.edu/71967.html}
-}
-
-@MISC{back91survey,
-  author = {T. Back and F. Hoffmeister and H. Schwefel},
-  title = {A survey of evolution strategies},
-  year = {1991},
-  text = {Thomas Back, Frank Hoffmeister, and Hans-Paul Schwefel. A survey of
-	evolution strategies. In Lashon B. Belew, Richard K.; Booker, editor,
-	Proceedings of the 4th International Conference on Genetic Algorithms,
-	pages 2--9, San Diego, CA, July 1991. Morgan Kaufmann.},
-  url = {citeseer.ist.psu.edu/back91survey.html}
-}
-
-@INPROCEEDINGS{BakerSelection,
-  author = {Baker, J. E.},
-  title = {Adaptive Selection Methods for Genetic Algorithms},
-  booktitle = {Proceedings of an International Conference on Genetic Algorithms
-	and their Applications},
-  year = {1985},
-  editor = {J. J. Grefenstette},
-  publisher = {Lawrence Erlbaum Associates, Hillsdale, NJ}
-}
-
-@ARTICLE{bartlett98ieee,
-  author = {P.L. Bartlett},
-  title = {The sample complexity of pattern classification with neural networks:
-	the size of the weights is more important than the size of the network},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1998},
-  volume = {44},
-  pages = {525-536},
-  number = {2},
-  annote = {Теория обучаемых систем говорит, что нейронная сеть имеет хорошую
-	обобщающую способность, если число обучающих объектов зависит по~меньшей
-	мере линейно от~количества настраиваемых параметров сети. В~статье
-	показывается, что если алгоритм обучения находит сеть с~малыми весами
-	и~малой квадратичной ошибкой на обучении, то~обобщающая способность
-	зависит от~величины весов в~б\'ольшей степени, чем от~их~количества.
-	Техника доказательств, основанная на понятиях отступа (margin) и~fat-размерности
-	(fat-shattering dimension), может быть применена и~к~другим алгоритмам
-	распознавания. В~частности, этот~же подход распространяется на~случай
-	метрического пространства объектов, когда алгоритм обучения строит
-	разделяющую поверхность, проходящую в~достаточном удалении от~обучающих
-	объектов.},
-  url = {discus.anu.edu.au/~bartlett}
-}
-
-@INPROCEEDINGS{bartlett93lower,
-  author = {P. Bartlett},
-  title = {Lower bounds on the {V}apnik-{C}hervonenkis dimension of multi-layer
-	threshold networks},
-  booktitle = {Proceedings of the Sixth Annual {ACM} Conference on Computational
-	Learning Theory},
-  year = {1993},
-  pages = {144--150},
-  publisher = {{ACM} Press, New York, NY},
-  url = {citeseer.ist.psu.edu/bartlett93lower.html}
-}
-
-@INPROCEEDINGS{bartlett02localized,
-  author = {P. Bartlett and O. Bousquet and S. Mendelson},
-  title = {Localized Rademacher Complexities},
-  booktitle = {{COLT}: 15th Annual Conference on Computational Learning Theory},
-  year = {2002},
-  pages = {44-58},
-  publisher = {Springer, Berlin},
-  url = {citeseer.ist.psu.edu/bartlett02localized.html}
-}
-
-@INPROCEEDINGS{bartlett97for,
-  author = {Peter L. Bartlett},
-  title = {For Valid Generalization the Size of the Weights is More Important
-	than the Size of the Network},
-  booktitle = {Advances in Neural Information Processing Systems},
-  year = {1997},
-  editor = {Michael C. Mozer and Michael I. Jordan and Thomas Petsche},
-  volume = {9},
-  pages = {134},
-  publisher = {The {MIT} Press},
-  annote = {Даётся качественно новое, по сравнению с~теорией Вап\-ни\-ка-Черво\-нен\-киса~\cite{vapnik74rus},
-	обоснование применимости выпуклых комбинаций обучаемых алгоритмов,
-	в~частности, нейронных сетей. Оказывается, сложность выпуклой комбинации
-	классификаторов равна не~суммарной, и~даже не~максимальной (как ранее
-	предполагалось), а~средней взвешенной сложности отдельных классификаторов
-	с~теми~же весами, с~которыми они входят в~комбинацию. Вытекающие
-	отсюда оценки обобщающей способности (generalization performance)
-	существенно лучше сложностных оценок, хотя и~они всё ещё сильно завышены.
-	Полученный результат дает теоретическое обоснование эвристикам, направленным
-	на~уменьшение весов в~процессе обучения, таким как weight decay и
-	early stopping.},
-  url = {citeseer.ist.psu.edu/bartlett97for.html}
-}
-
-@ARTICLE{bartlett96fatshattering,
-  author = {Peter L. Bartlett and Philip M. Long and Robert C. Williamson},
-  title = {Fat-Shattering and the Learnability of Real-Valued Functions},
-  journal = {Journal of Computer and System Sciences},
-  year = {1996},
-  volume = {52},
-  pages = {434-452},
-  number = {3},
-  url = {citeseer.ist.psu.edu/bartlett95fatshattering.html}
-}
-
-@INPROCEEDINGS{bartlett01rademacher,
-  author = {Peter L. Bartlett and Shahar Mendelson},
-  title = {Rademacher and {G}aussian Complexities: {R}isk Bounds and Structural
-	Results},
-  booktitle = {{COLT}: 14th Annual Conference on Computational Learning Theory},
-  year = {2001},
-  volume = {2111},
-  pages = {224--240},
-  publisher = {Springer, Berlin},
-  url = {citeseer.ist.psu.edu/bartlett02rademacher.html}
-}
-
-@INPROCEEDINGS{bartlett04local,
-  author = {Peter L. Bartlett and Shahar Mendelson and Petra Philips},
-  title = {Local Complexities for Empirical Risk Minimization},
-  booktitle = {{COLT}: 17th Annual Conference on Learning Theory},
-  year = {2004},
-  editor = {John Shawe-Taylor, Yoram Singer},
-  pages = {270-284},
-  publisher = {Springer-Verlag}
-}
-
-@ARTICLE{bauer99empirical,
-  author = {Eric Bauer and Ron Kohavi},
-  title = {An Empirical Comparison of Voting Classification Algorithms: Bagging,
-	Boosting, and Variants},
-  journal = {Machine Learning},
-  year = {1999},
-  volume = {36},
-  pages = {105-139},
-  number = {1-2},
-  url = {citeseer.ist.psu.edu/bauer99empirical.html}
-}
-
-@ARTICLE{bauer99statistics,
-  author = {M. Bauer and C. Godreche and J.~M. Luck},
-  title = {Statistics of persistent events in the binomial random walk: Will
-	the drunken sailor hit the sober man?},
-  journal = {J.STAT.PHYS.},
-  year = {1999},
-  volume = {96},
-  pages = {963},
-  url = {www.citebase.org/abstract?id=oai:arXiv.org:cond-mat/9905252}
-}
-
-@ARTICLE{bax98validation,
-  author = {Eric T. Bax},
-  title = {Validation of Voting Committees},
-  journal = {Neural Computation},
-  year = {1998},
-  volume = {10},
-  pages = {975-986},
-  number = {4},
-  url = {citeseer.ist.psu.edu/bax97validation.html}
-}
-
-@TECHREPORT{bax97similar,
-  author = {Eric T. Bax},
-  title = {Similar Classifiers and {VC} Error Bounds},
-  year = {1997},
-  number = {CalTech-CS-TR97-14},
-  month = {6},
-  pages = {19},
-  url = {citeseer.ist.psu.edu/bax97similar.html}
-}
-
-@BOOK{bishop95neural,
-  title = {Neural Networks for Pattern Recognition},
-  publisher = {Oxford University Press},
-  year = {1995},
-  author = {Christopher M. Bishop}
-}
-
-@TECHREPORT{blake98uci,
-  author = {Blake, C.L. and Merz, C.J.},
-  title = {{UCI} Repository of machine learning databases},
-  institution = {Department of Information and Computer Science, University of California,
-	Irvine, {CA}},
-  year = {1998},
-  annote = {Крупнейший репозиторий реальных задач классификации и восстановления
-	зависимостей, свободно доступный через Интернет. },
-  url = {www.ics.uci.edu/~mlearn/MLRepository.html}
-}
-
-@INPROCEEDINGS{blum98learning,
-  author = {Avrim Blum and Carl Burch and John Langford},
-  title = {On Learning Monotone Boolean Functions},
-  booktitle = {{IEEE} Symposium on Foundations of Computer Science},
-  year = {1998},
-  pages = {408-415},
-  url = {citeseer.ist.psu.edu/article/blum98learning.html}
-}
-
-@INPROCEEDINGS{blum97universal,
-  author = {Avrim Blum and Adam Kalai},
-  title = {Universal Portfolios with and without Transaction Costs},
-  booktitle = {{COLT}: Proceedings of the Workshop on Computational Learning Theory,
-	Morgan Kaufmann Publishers},
-  year = {1997},
-  url = {citeseer.ist.psu.edu/blum97universal.html}
-}
-
-@INPROCEEDINGS{blum99beating,
-  author = {Avrim Blum and Adam Kalai and John Langford},
-  title = {Beating the Hold-Out: Bounds for K-fold and Progressive Cross-Validation},
-  booktitle = {Computational Learing Theory},
-  year = {1999},
-  pages = {203-208},
-  url = {citeseer.ist.psu.edu/blum99beating.html}
-}
-
-@INPROCEEDINGS{blum93training,
-  author = {Avrim Blum and Ronald L. Rivest},
-  title = {Training a 3-Node Neural Network is {NP}-Complete},
-  booktitle = {Machine Learning: From Theory to Applications},
-  year = {1993},
-  pages = {9-28},
-  url = {citeseer.ist.psu.edu/blum92training.html}
-}
-
-@INPROCEEDINGS{bontempi99bound,
-  author = {Gianluca Bontempi and Mauro Birattari},
-  title = {A bound on the cross-validation estimate for algorithm assessment},
-  booktitle = {Eleventh Belgium/Netherlands Conference on Artificial Intelligence
-	(BNAIC)},
-  year = {1999},
-  pages = {115-122},
-  annote = {Вводятся два различных понятия обобщающей способности: первое характеризует
-	отдельный алгоритм, полученный в результате обучения, второе характеризует
-	метод обучения в~целом. В~предшествовавших работах~\cite{kearns96bound,kearns97algorithmic,holden96crossvalidation}
-	оценивалось отклонение скользящего контроля от~обобщающей способности
-	отдельного алгоритма. Скорость сходимости этой величины к~нулю очень
-	мала, зависит от~ёмкости семейства и~стабильности метода обучения.
-	Отсюда делался слишком слабый вывод о~том, что скользящий контроль
-	характеризует качество алгоритма всего лишь не~хуже, чем частота
-	ошибок на~обучении (sanity-check bounds). В~данной работе получена
-	оценка отклонения скользящего контроля от~обобщающей способности
-	{\it метода обучения}, которая не~зависит от~ёмкости семейства, а~только
-	от~длины обучения и~контроля. Таким образом, данная работа проясняет
-	природу скользящего контроля. Завышенность предыдущих оценок объясняется
-	неудачным выбором функционала качества.},
-  url = {citeseer.ist.psu.edu/225930.html}
-}
-
-@INCOLLECTION{borodin04can,
-  author = {Allan Borodin and Ran El-Yaniv and Vincent Gogan},
-  title = {Can We Learn to Beat the Best Stock},
-  booktitle = {Advances in Neural Information Processing Systems 16},
-  publisher = {MIT Press},
-  year = {2004},
-  editor = {Sebastian Thrun and Lawrence Saul and Bernhard {Sch\"{o}lkopf}},
-  address = {Cambridge, MA},
-  annote = { Предлагается алгоритм динамической (online) балансировки портфеля
-	ANTICOR, основанный на~анализе матриц кросс-корреляций двух последних
-	интервалов времени длиной~$w$ каждый. ANTICOR является усовершенствованным
-	вариантом DELTA~\cite{borodin00competitive}. Алгоритм тестируется
-	на 4~рядах реальных данных, в~том числе на 22-летней истории NYCE.
-	Две версии ANTICOR сопоставляются с~9 известными портфельными стратегиями.
-	Предлагаемый алгоритм демонстрирует нереально высокую доходность,
-	особенно на данных NYCE, без учёта транзакционных издержек.},
-  url = {citeseer.ist.psu.edu/630049.html}
-}
-
-@INPROCEEDINGS{borodin00competitive,
-  author = {Allan Borodin and Ran El-Yaniv and Vincent Gogan},
-  title = {On the Competitive Theory and Practice of Portfolio Selection (Extended
-	Abstract)},
-  booktitle = {Latin American Theoretical {INformatics}},
-  year = {2000},
-  pages = {173-196},
-  annote = { Статья содержит обзор основных концепций сравнительной теории (competitive
-	theory) портфельных стратегий. Рассматриваются следующие алгоритмы:
-	BAH (buy-and-hold~--- <<купи-и-держи>>), CBAL (constant rebalanced
-	portfolio~--- постоянная балансировка), UNI (universal portfolio~\cite{cover91universal}),
-	EG (exponential gradient~\cite{helmbold96line}), M0~и~T0 (предсказание
-	бинарной последовательности), LZ (предсказание бинарной последовательности
-	на~основе сжатия Лемпела-Зива). Описана техника доказательства оценок
-	доходности портфельных стратегий, основанная на~последовательностях
-	Кэлли. Предлагается новый алгоритм динамической (online) балансировки
-	портфеля DELTA, основанный на~анализе матрицы корреляций между ценами
-	акций на предшествующем интервале времени длиной~$w$. Алгоритмы тестируются
-	и~сравниваются по~доходности на 4~рядах реальных данных, в~том числе
-	на 22-летней истории NYCE. Сравнение производится при транзакционных
-	издержках 0\%, 0.1\% и 2\%, а~также при ограничении частоты сделок
-	с~1~дня до~1~месяца. Алгоритм DELTA демонстрирует нереально высокую
-	доходность при малых транзакционных издержках, особенно на данных
-	NYCE. При введении ограничений доходность DELTA становится реальной
-	и~сравнимой с~лучшими результатами других алгоритмов. В~качестве
-	основных направлений исследований называются две задачи: оптимальный
-	выбор моментов времени для балансировки портфеля и~оптимальный выбор
-	подмножества акций.},
-  url = {citeseer.ist.psu.edu/borodin02competitive.html}
-}
-
-@INPROCEEDINGS{boser92training,
-  author = {Bernhard E. Boser and Isabelle Guyon and Vladimir Vapnik},
-  title = {A Training Algorithm for Optimal Margin Classifiers},
-  booktitle = {Computational Learning Theory},
-  year = {1992},
-  pages = {144-152},
-  url = {citeseer.ist.psu.edu/boser92training.html}
-}
-
-@MISC{bottou94effective,
-  author = {L\'eon Bottou and Corinna Cortes and Vladimir Vapnik},
-  title = {On the Effective {VC} Dimension},
-  year = {1994},
-  annote = {Вводится понятие эффективной ёмкости, отличное от~\cite{vapnik94measuring}.
-	Предлагается метод измерения эффективной ёмкости, также основанный
-	на~эмпирической оценке равномерного отклонения ошибок (максимальной
-	разности частот ошибок на двух подвыборках одинаковой длины), но
-	существенно более простой для реализации. Основное отличие заключаются
-	в~использовании процедуры скользящего контроля для измерения равномерного
-	отклонения ошибок, что позволяет избежать сложных параметрических
-	аппроксимаций. Получаемые оценки ёмкости зависят не только от~выборки
-	данных, но и~от используемого метода обучения.},
-  url = {citeseer.ist.psu.edu/bottou94effective.html}
-}
-
-@ARTICLE{boucheron05theory,
-  author = {Stephane Boucheron and Olivier Bousquet and Gabor Lugosi},
-  title = {Theory of Classification: A Survey of Some Recent Advances},
-  journal = {ESAIM: Probability and Statistics},
-  year = {2005},
-  pages = {323-375},
-  number = {9},
-  url = {www.econ.upf.edu/~lugosi/esaimsurvey.pdf}
-}
-
-@ARTICLE{boucheron02concentration,
-  author = {S. Boucheron and G. Lugosi and P. Massart},
-  title = {Concentration inequalities using the entropy method},
-  journal = {The Annals of Probability},
-  year = {2003},
-  volume = {31},
-  number = {3},
-  url = {citeseer.ist.psu.edu/boucheron02concentration.html}
-}
-
-@ARTICLE{boucheron00sharp,
-  author = {Stephane Boucheron and Gabor Lugosi and Pascal Massart},
-  title = {A sharp concentration inequality with applications},
-  journal = {Random Structures and Algorithms},
-  year = {2000},
-  volume = {16},
-  pages = {277-292},
-  number = {3},
-  url = {citeseer.ist.psu.edu/article/boucheron99sharp.html}
-}
-
-@ARTICLE{bousquet01stability,
-  author = {Olivier Bousquet and Andre Elisseeff},
-  title = {Stability and generalization},
-  journal = {Journal of Machine Learning Research},
-  year = {2002},
-  pages = {499-526},
-  number = {2},
-  annote = { Работа является развитием~\cite{bousquet00algorithmic}. Выводятся
-	новые верхние оценки обобщающей способности стабильных алгоритмов
-	классификации и~восстановления регрессии. Оценивается отклонение
-	средней ошибки на~обучении от~матожидания ошибки, а~также отклонение
-	скользящего контроля с~одним отделяемым объектом (leave-one-out cross-validation)
-	от~матожидания ошибки. В~обоих случаях оценки не~зависят от~сложности
-	семейства алгоритмов, а~только от~стабильности метода обучения, причём
-	во~втором случае оценки несколько точнее. Вводятся несколько понятий
-	стабильности. Условие равномерной стабильности (uniform stability)
-	сильнее стабильности результирующих алгоритмов (hypothesis stability),
-	которое, в~свою очередь, сильнее стабильности ошибок (error stability).
-	Стабильность классификации (classification stability) является вариантом
-	равномерной стабильности, адаптированным для случая вещественнозначных
-	классификаторов. Для равномерно стабильных методов получены полиномиальные
-	оценки, обобщающие результаты Девроя и~Вагнера~\cite{devroye79inequal}.
-	Для случая стабильности алгоритмов получены новые экспоненциальные
-	оценки. Ранее свойство стабильности было доказано только для локальных
-	методов типа ближайших соседей. В~данной работе доказывается стабильность
-	широкого класса методов, основанных на~минимизации регуляризованных
-	функционалов. Этот результат применяется к~методу опорных векторов
-	(SVM) и~регуляризации с~использованием дивергенции Кульбака-Лейблера
-	(относительной энтропии).},
-  url = {citeseer.ist.psu.edu/article/bousquet00stability.html}
-}
-
-@INPROCEEDINGS{bousquet00algorithmic,
-  author = {Olivier Bousquet and Andre Elisseeff},
-  title = {Algorithmic Stability and Generalization Performance},
-  booktitle = {Advances in Neural Information Processing Systems 13},
-  year = {2001},
-  pages = {196-202},
-  annote = { Получены новые оценки обобщающей способности, которые не~зависят
-	от~сложности семейства алгоритмов и~используют только свойство стабильности
-	метода обучения. Метод обучения называется стабильным, если удаление
-	одного обучающего объекта приводит к~незначительному изменению результирующего
-	алгоритма. Для сопоставления полученных оценок с~классическими вместо
-	функционала равномерной сходимости вводится новый функционал качества,
-	явным образом зависящий от~метода обучения (отображения, которое
-	обучающей выборке ставит в~соответствие алгоритм). Для данного функционала
-	остаются верны все классические оценки, использующие различные меры
-	сложности семейства алгоритмов: мощность покрытия, функцию роста
-	или фат-размерность. Перечисленные общие результаты справедливы как~для
-	задач классификации, так и~для восстановления регрессии. Показано,
-	что алгоритмы построения линейной регрессии и~некоторые алгоритмы,
-	использующие принцип регуляризации, являются стабильными. При~этом
-	увеличение регуляризирующего коэффициента приводит к~увеличению стабильности.
-	Отмечается, что в~общем случае стабильность не~даёт лучших оценок
-	обобщающей способности, чем классический сложностный подход. Тем
-	не~менее, усиление оценок возможно при наличии подходящей априорной
-	информации. Такой информацией может быть распределение на~множестве
-	исходных объектов в~случае линейной регрессии, либо модель предметной
-	области в~случае методов регуляризации.},
-  url = {citeseer.ist.psu.edu/article/bousquet00algorithmic.html}
-}
-
-@ARTICLE{breiman98arcing,
-  author = {Leo Breiman},
-  title = {Arcing classifiers},
-  journal = {The Annals of Statistics},
-  year = {1998},
-  volume = {26},
-  pages = {801--849},
-  number = {3},
-  url = {citeseer.ist.psu.edu/breiman98arcing.html}
-}
-
-@ARTICLE{breiman96bagging,
-  author = {Leo Breiman},
-  title = {Bagging Predictors},
-  journal = {Machine Learning},
-  year = {1996},
-  volume = {24},
-  pages = {123-140},
-  number = {2},
-  url = {citeseer.ist.psu.edu/breiman96bagging.html}
-}
-
-@TECHREPORT{breiman96bias,
-  author = {Leo Breiman},
-  title = {Bias, Variance, and Arcing Classifiers},
-  institution = {Statistics Department, University of California},
-  year = {1996},
-  number = {460},
-  text = {Breiman,L. (1996) Bias, Variance, and Arcing Classifiers, Technical
-	Report 460, Statistics Department, University of California},
-  url = {citeseer.ist.psu.edu/breiman96bias.html}
-}
-
-@ARTICLE{breslow97simplifying,
-  author = {Breslow, L. A. and Aha, D. W.},
-  title = {Simplifying decision trees: a survey},
-  journal = {Knowledge Engineering Review},
-  year = {1997},
-  volume = {12},
-  pages = {1-40},
-  number = {1},
-  url = {citeseer.ist.psu.edu/breslow96simplifying.html}
-}
-
-@INPROCEEDINGS{bucci03mathematical,
-  author = {A. Bucci and J. Pollack},
-  title = {A mathematical framework for the study of coevolution},
-  booktitle = {FOGA 7: Proceedings of the Foundations of Genetic Algorithms Workshop,
-	San Francisco, CA},
-  year = {2003},
-  editor = {De Jong, K., Poli, R., Rowe, J.},
-  pages = {221--235},
-  publisher = {Morgan Kaufmann Publishers},
-  url = {citeseer.ist.psu.edu/bucci03mathematical.html}
-}
-
-@MISC{bucci02ordertheoretic,
-  author = {A. Bucci and J. Pollack},
-  title = {Order-theoretic analysis of coevolution problems: Coevolutionary
-	statics},
-  year = {2002},
-  text = {Bucci, A., Pollack, J.: Order-theoretic analysis of coevolution problems:
-	Coevolutionary statics. In Barry, A.M., ed.: GECCO 2002 Workshop
-	on Understanding Coevolution: Theory and Analysis of Coevolutionary
-	Algorithms. (2002) 229--235},
-  url = {citeseer.ist.psu.edu/article/bucci02ordertheoretic.html}
-}
-
-@ARTICLE{burges98tutorial,
-  author = {Christopher J. C. Burges},
-  title = {A Tutorial on Support Vector Machines for Pattern Recognition},
-  journal = {Data Mining and Knowledge Discovery},
-  year = {1998},
-  volume = {2},
-  pages = {121-167},
-  number = {2},
-  url = {citeseer.ist.psu.edu/burges98tutorial.html}
-}
-
-@MISC{busetti-genetic,
-  author = {Franco Busetti},
-  title = {Genetic Algorithms Overview},
-  year = {2002},
-  url = {citeseer.ist.psu.edu/busetti01genetic.html}
-}
-
-@ARTICLE{chernoff52measure,
-  author = {H. Chernoff},
-  title = {A measure of asymptotic efficiency for tests of a hypothesis based
-	on the sum of observations},
-  journal = {Annals of Math. Stat.},
-  year = {1952},
-  volume = {23},
-  pages = {493--509}
-}
-
-@ARTICLE{chipman98bayesian,
-  author = {Hugh A. Chipman and Edward I. George and Robert E. McCulloch},
-  title = {{Bayesian {CART}} Model Search},
-  journal = {Journal of the American Statistical Association},
-  year = {1998},
-  volume = {93},
-  pages = {935--947},
-  number = {443},
-  url = {citeseer.ist.psu.edu/chipman97bayesian.html}
-}
-
-@INCOLLECTION{coello01microgenetic,
-  author = {Carlos A. {Coello Coello} and Gregorio {Toscano Pulido}},
-  title = {A {M}icro-{G}enetic {A}lgorithm for {M}ultiobjective {O}ptimization},
-  booktitle = {First International Conference on Evolutionary Multi-Criterion Optimization},
-  publisher = {Springer-Verlag. Lecture Notes in Computer Science No. 1993},
-  year = {2001},
-  editor = {Eckart Zitzler and Kalyanmoy Deb and Lothar Thiele and Carlos A.
-	Coello Coello and David Corne},
-  pages = {126--140},
-  url = {citeseer.ist.psu.edu/444668.html}
-}
-
-@INPROCEEDINGS{cohen95fast,
-  author = {William W. Cohen},
-  title = {Fast Effective Rule Induction},
-  booktitle = {Proc. of the 12th International Conference on Machine Learning, Tahoe
-	City, CA},
-  year = {1995},
-  pages = {115--123},
-  publisher = {Morgan Kaufmann},
-  annote = { RIPPER$k$ (Repeated Iterative Pruning to Produce Error Reduction)~---
-	простой и эффективный алгоритм построения покрывающего набора (решающего
-	списка) конъюнкций. Алгоритм имеет столь~же высокую обобщающую способность,
-	как C4.5rules и~столь~же высокую эффективность, как IREP. Объём вычислений
-	практически линеен по~длине обучающей выборки, что позволяет обрабатывать
-	сотни тысяч объектов за~приемлемое время. Алгоритм RIPPER$k$ отличается
-	от~IREP тремя модификациями. 1.~Изменён эвристический критерий, оптимизируемый
-	при редукции правил. 2.~Введён новый критерий останова, основанный
-	на~принципе минимума длины описания~(MDL). 3.~Построенные правила
-	поочерёдно перестраиваются $k$~раз. Эмпирическое сравнение всех упомянутых
-	алгоритмов проведено на~22 реальных задачах из~репозитория~UCI.},
-  url = {citeseer.ist.psu.edu/cohen95fast.html}
-}
-
-@INPROCEEDINGS{cohen99simple,
-  author = {William W. Cohen and Yoram Singer},
-  title = {A Simple, Fast and Effective Rule Learner},
-  booktitle = {Proc. of the 16 National Conference on Artificial Intelligence},
-  year = {1999},
-  pages = {335-342},
-  annote = { SLIPPER (Simple Learner with Iterative Pruning to Produce Error
-	Reduction)~--- простой и эффективный алгоритм классификации, основанный
-	на взвешенном голосовании конъюнкций. Для построения набора конъюнкций
-	используется бустинг. В~роли слабого классификатора может выступать
-	произвольный жадный алгоритм синтеза конъюнкций. Конъюнкции наращиваются
-	по~случайной подвыборке, составляющей порядка 2/3 данных, затем редуцируются
-	по~оставшейся части данных. Описаны эксперименты по проверке алгоритма
-	на~наборе из~32~реальных задач, причём только половина задач использовалась
-	на~этапе разработки алгоритма, на~остальных производилось финальное
-	тестирование. Точность SLIPPER оказалась несколько выше, чем у~алгоритмов
-	RIPPER, C4.5, C5.0, а~скорость~--- на~порядок ниже, но~в~пределах
-	$m\ln m$, где $m$~--- длина выборки. Среднее (по~задачам) количество
-	конъюнкций~--- втрое больше, чем у~RIPPER.},
-  url = {citeseer.ist.psu.edu/198445.html}
-}
-
-@ARTICLE{cortes95supportvector,
-  author = {Corinna Cortes and Vladimir Vapnik},
-  title = {Support-Vector Networks},
-  journal = {Machine Learning},
-  year = {1995},
-  volume = {20},
-  pages = {273-297},
-  number = {3},
-  url = {citeseer.ist.psu.edu/cortes95supportvector.html}
-}
-
-@ARTICLE{cost93weighted,
-  author = {Scott Cost and Steven Salzberg},
-  title = {A Weighted Nearest Neighbor Algorithm for Learning with Symbolic
-	Features},
-  journal = {Machine Learning},
-  year = {1993},
-  volume = {10},
-  pages = {57-78},
-  url = {citeseer.ist.psu.edu/cost93weighted.html}
-}
-
-@ARTICLE{cover91universal,
-  author = {{T.M.} Cover},
-  title = {Universal Portfolios},
-  journal = {Mathematical Finance},
-  year = {1991},
-  volume = {1},
-  pages = {1--29},
-  number = {1},
-  month = {January},
-  annote = { Вводятся понятия постоянно-балансируемого портфеля (CRP, constant
-	rebalanced portfolio) и~универсального портфеля (universal portfolio).
-	Стратегия CRP-портфеля заключается в~том, чтобы продавать и~покупать
-	активы, поддерживая в~каждый момент времени заранее фиксированное
-	распределение капитала по~активам. Универсальный портфель есть интегральное
-	среднее всех CRP-портфелей, каждый их которых берётся с~весом, пропорциональным
-	его доходности на~предыстории. Доказывается, что доходность универсального
-	портфеля асимптотически приближается к~доходности наилучшего CRP-портфеля.
-	Однако универсальный портфель является динамическим алгоритмом, использующим
-	только информацию о~прошлом, в~то время как выбор наилучшего CRP-портфеля
-	требует <<зяглядывания в~будущее>>.},
-  url = {citeseer.ist.psu.edu/article/cover96universal.html}
-}
-
-@ARTICLE{cover96universal,
-  author = {{T.M.} Cover and E. Ordentlich},
-  title = {Universal Portfolios with Side Information},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1996},
-  volume = {42},
-  number = {2},
-  month = {March},
-  url = {citeseer.ist.psu.edu/cover96universal.html}
-}
-
-@INPROCEEDINGS{crone-training,
-  author = {Sven F. Crone},
-  title = {Training Artificial Neural Networks For Time Series Prediction Using
-	Asymmetric Cost Functions},
-  booktitle = {Computational Intelligence for the E-Age},
-  year = {2002},
-  pages = {2374-2380},
-  url = {citeseer.ist.psu.edu/crone02training.html}
-}
-
-@INPROCEEDINGS{dejong95evolving,
-  author = {Kenneth {De Jong} and Mitchell A. Potter},
-  title = {Evolving Complex Structures via Cooperative Coevolution},
-  booktitle = {Proc. on the {F}ourth {A}nnual {C}onf. on {E}volutionary {P}rogramming},
-  year = {1995},
-  pages = {307--317},
-  address = {Cambridge, MA},
-  publisher = {{MIT} {P}ress},
-  url = {citeseer.ist.psu.edu/article/dejong95evolving.html}
-}
-
-@ARTICLE{dempster77em,
-  author = {Dempster, A. P. and Laird, N. M. and Rubin, D. B.},
-  title = {Maximum likelihood from incomplete data via the {EM} algorithm},
-  journal = {J. of the Royal Statistical Society, Series B},
-  year = {1977},
-  pages = {1-38},
-  number = {34}
-}
-
-@MISC{dempster00profitability,
-  author = {Dempster, M. A. H. and Jones, C. M.},
-  title = {The profitability of intra-day {FX} trading using technical indicators},
-  howpublished = {Working paper No.~35/00, Judge Institute of Management, University
-	of Cambridge},
-  year = {2000},
-  url = {www.jims.cam.ac.uk}
-}
-
-@ARTICLE{dempster01computational,
-  author = {Dempster, M. A. H. and Payne, T. W. and Romahi, Y. S. and Thompson,
-	G. W. P.},
-  title = {Computational learning techniques for intraday {FX} trading using
-	popular technical indicators},
-  journal = {IEEE Transactions on Neural Networks, special issue on Computational
-	Finance},
-  year = {2001},
-  volume = {12},
-  pages = {744-754},
-  annote = { Описывается применение генетического алгоритма для построения логического
-	корректора над набором из~16 технических индикаторов рынка. Предложенная
-	торговая стратегия сравнивается по~доходности с~алгоритмами, использующими
-	активное обучение (reinforcement learning) и~линейное программирование.
-	Сравнительный эксперимент проводится на~внутридневных данных валютного
-	рынка.},
-  url = {www.jims.cam.ac.uk}
-}
-
-@INPROCEEDINGS{desyatnikov03datadependent,
-  author = {I. Desyatnikov and R. Meir},
-  title = {Data-dependent bounds for multi-category classification based on
-	convex losses},
-  booktitle = {{COLT}: 16th Annual Conference on Learning Theory},
-  year = {2003},
-  editor = {B. Scholkopf and M. Warmuth},
-  pages = {159-172},
-  publisher = {Springer Verlag, Heidelberg},
-  url = {citeseer.ist.psu.edu/desyatnikov03datadependent.html}
-}
-
-@ARTICLE{devroye94strong,
-  author = {L. Devroye and L. Gyorfi and A. Krzyzak and G. Lugosi},
-  title = {On the strong universal consistency of nearest neighbor regression
-	function estimates},
-  journal = {Annals of Statistics},
-  year = {1994},
-  pages = {1371--1385},
-  number = {22},
-  url = {citeseer.ist.psu.edu/devroye92strong.html}
-}
-
-@ARTICLE{devroye79inequal,
-  author = {L. P. Devroye and T. J. Wagner},
-  title = {Distribution-free inequalities for the deleted and holdout error
-	estimates},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1979},
-  volume = {25},
-  pages = {202--207},
-  number = {2}
-}
-
-@ARTICLE{devroye79pfr,
-  author = {L. P. Devroye and T. J. Wagner},
-  title = {Distribution-free performance bounds for potential function rules},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1979},
-  volume = {25},
-  pages = {601--604},
-  number = {5}
-}
-
-@ARTICLE{dietterich00experimental,
-  author = {Thomas G. Dietterich},
-  title = {An Experimental Comparison of Three Methods for Constructing Ensembles
-	of Decision Trees: Bagging, Boosting, and Randomization},
-  journal = {Machine Learning},
-  year = {2000},
-  volume = {40},
-  pages = {139-157},
-  number = {2},
-  url = {citeseer.ist.psu.edu/article/dietterich98experimental.html}
-}
-
-@ARTICLE{dietterich97machine,
-  author = {Dietterich, T. G.},
-  title = {Machine Learning Research: Four Current Directions},
-  journal = {{AI} Magazine},
-  year = {1997},
-  volume = {18},
-  pages = {97-136},
-  number = {4},
-  url = {citeseer.ist.psu.edu/dietterich97machine.html}
-}
-
-@ARTICLE{djukova03covering-eng,
-  author = {Djukova, E. V. and Inyakin, A. S.},
-  title = {Classification Procedures Based on the Construction of Class Coverings},
-  journal = {Computational Mathematics and Mathematical Physics},
-  year = {2003},
-  volume = {43},
-  pages = {1812–1822},
-  number = {12},
-  annote = {The English version of~\cite{djukova03covering}.},
-  url = {www.ccas.ru/frc/papers/djukova03covering-eng.pdf}
-}
-
-@ARTICLE{djukova03pria-eng,
-  author = {E. V. Djukova and A. S. Inyakin and N. V. Peskov},
-  title = {Methods of Combinatorial Analysis in Synthesis of Efficient Recognition
-	Algorithms},
-  journal = {Pattern Recognition and Image Analysis},
-  year = {2003},
-  volume = {13},
-  pages = {426-432},
-  number = {3},
-  url = {www.ccas.ru/frc/papers/djukova03pria-eng.pdf}
-}
-
-@ARTICLE{djukova02pria-eng,
-  author = {E. V. Djukova and N. V. Peskov},
-  title = {Selection of Typical Objects in Classes for Recognition Problems},
-  journal = {Pattern Recognition and Image Analysis},
-  year = {2002},
-  volume = {12},
-  pages = {243–249},
-  number = {3},
-  url = {www.ccas.ru/frc/papers/djukova02pria-eng.pdf}
-}
-
-@ARTICLE{djukova97pria-eng,
-  author = {Djukova, E. V. and Zhuravlev, Ju. I.},
-  title = {Discrete Methods of Information Analysis in Recognition and Algorithms
-	Synthesis},
-  journal = {Pattern Recognition and Image Analysis},
-  year = {1997},
-  volume = {7},
-  pages = {192-207},
-  number = {2},
-  url = {www.ccas.ru/frc/papers/djukova97pria-eng.pdf}
-}
-
-@ARTICLE{djukova96jvm-eng,
-  author = {Djukova, E. V. and Zhuravlev, Ju. I. and Rudakov, K. V.},
-  title = {Algebraic-Logic Synthesis of Correct Recognition Procedures Based
-	on Elementary Algorithms},
-  journal = {Computational Mathematics and Mathematical Physics},
-  year = {1996},
-  volume = {36},
-  pages = {1161--1167},
-  number = {8},
-  url = {www.ccas.ru/frc/papers/djukova96jvm-eng.pdf}
-}
-
-@INPROCEEDINGS{domingos97why,
-  author = {Pedro Domingos},
-  title = {Why Does Bagging Work? A Bayesian Account and its Implications},
-  booktitle = {Knowledge Discovery and Data Mining},
-  year = {1997},
-  pages = {155-158},
-  url = {citeseer.ist.psu.edu/21089.html}
-}
-
-@ARTICLE{dubner94statistical,
-  author = {Dubner, P. N.},
-  title = {Statistical tests for feature selection in {KORA} recognition algorithms},
-  journal = {Pattern Recognition and Image Analysis},
-  year = {1994},
-  volume = {4},
-  pages = {396},
-  number = {4}
-}
-
-@ARTICLE{durbin89product,
-  author = {Durbin, R. and Rummelhart, D. E.},
-  title = {Product units: A computationally powerful and biologically plausible
-	extension to backpropagation networks},
-  journal = {Neural Computation},
-  year = {1989},
-  volume = {1},
-  pages = {133--142},
-  number = {4}
-}
-
-@BOOK{efron82jackboot,
-  title = {The Jackknife, the Bootstrap, and Other Resampling Plans},
-  publisher = {SIAM, Philadelphia},
-  year = {1982},
-  author = {Efron, B.}
-}
-
-@ARTICLE{elisseeff05stability,
-  author = {Andre Elisseeff and Theodoros Evgeniou and Massimiliano Pontil},
-  title = {Stability of Randomized Learning Algorithms},
-  journal = {Journal of Machine Learning Research},
-  year = {2005},
-  pages = {55-79},
-  number = {6},
-  url = {jmlr.csail.mit.edu}
-}
-
-@MISC{eriksson96applying,
-  author = {R. Eriksson},
-  title = {Applying cooperative coevolution to inventory control parameter optimization},
-  year = {1996},
-  text = {R. Eriksson. Applying cooperative coevolution to inventory control
-	parameter optimization. Master's thesis, University of Skovde, Sweden,
-	1996.},
-  url = {citeseer.ist.psu.edu/eriksson96applying.html}
-}
-
-@INPROCEEDINGS{esmeir04lookahead,
-  author = {S. Esmeir and S. Markovitch},
-  title = {Lookahead-based Algorithms for Anytime Induction of Decision Trees},
-  booktitle = {Proceedings of the 21st International Conference on Machine Learning
-	(ICML-2004)},
-  year = {2004},
-  url = {citeseer.ist.psu.edu/esmeir04lookaheadbased.html}
-}
-
-@INPROCEEDINGS{evgeniou00bounds,
-  author = {Theodoros Evgeniou and Luis Perez-Breva and Massimiliano Pontil and
-	Tomaso Poggio},
-  title = {Bounds on the Generalization Performance of Kernel Machine Ensembles},
-  booktitle = {Proc. 17th International Conf. on Machine Learning},
-  year = {2000},
-  pages = {271--278},
-  publisher = {Morgan Kaufmann, San Francisco, CA},
-  url = {citeseer.ist.psu.edu/evgeniou99bounds.html}
-}
-
-@TECHREPORT{evgeniou-leave,
-  author = {Theodoros Evgeniou and Massimiliano Pontil and Andre Elisseeff},
-  title = {Leave one out error, stability, and generalization of voting combinations
-	of classifiers},
-  institution = {INSEAD},
-  year = {2001},
-  number = {2001-21-TM},
-  annote = { Исследуется обобщающая способность алгоритмов взвешенного голосования
-	вещественнозначных классификаторов. Рассматривается частный случай,
-	когда голосование производится методом баггинга~\cite{breiman96bagging}
-	при фиксированных весах, а~в~качестве классификаторов используются
-	ядерные алгоритмы (kernel machines). В~частности, это могут быть
-	машины опорных векторов (SVM,~support vector machines~\cite{cortes95supportvector}),
-	построенные с~разными ядрами, по~разным обучающим подвыборкам, и/или
-	по~различным подописаниям объектов. В~отличие от~принятого подхода,
-	обобщающая способность характеризуется не~вероятностью ошибочной
-	классификации, а~ошибкой скользящего контроля с~одним отделяемым
-	объектом (Loo,~leave-one-out cross-validation). Выводится верхняя
-	оценка Loo для машин опорных векторов. При фиксированных весах Loo~выпуклой
-	комбинации нескольких~SVM оценивается сверху суммой их~Loo, взятых
-	с~теми~же весами. Выводятся новые оценки стабильности выпуклой комбинации
-	классификаторов. Ошибка скользящего контроля стабильных алгоритмов
-	сходится к~вероятности ошибочной классификации со~скоростью порядка
-	корня квадратного от~длины выборки. Это означает, что при определённых
-	условиях баггинг может увеличивать стабильность базовых классификаторов.
-	Теоретические оценки подтверждаются экспериментами на~4~реальных
-	задачах из~репозитория~UCI, а~также на~выборке рукописных символов,
-	предоставленной почтовой службой США~\cite{lecun89backprop}. Приводятся
-	результаты экспериментального сравнения обобщающей способности взвешенного
-	голосования при фиксированных и~настраиваемых весах, а~также отдельных
-	классификаторов без голосования. Комбинации с~настраиваемыми весами
-	существенно менее чувствительны к~изменениям ядер в~базовых классификаторах.
-	Отмечается, что взвешенное голосование~SVM практически не~улучшает
-	обобщающую способность по~сравнению с~отдельной~SVM. Тем~не~менее,
-	взвешенное голосование обладает существенно большей эффективностью
-	при распараллеливании, поскольку базовые алгоритмы можно настраивать
-	на~подвыборках существенно меньшей длины.},
-  url = {citeseer.ist.psu.edu/445768.html}
-}
-
-@INPROCEEDINGS{ficici00gametheoretic,
-  author = {Sevan G. Ficici and Ofer Melnik and Jordan B. Pollack},
-  title = {A Game-Theoretic Investigation of Selection Methods Used in Evolutionary
-	Algorithms},
-  booktitle = {Proceedings of the 2000 Congress on Evolutionary Computation CEC00},
-  year = {2000},
-  pages = {880},
-  address = {La Jolla Marriott Hotel La Jolla, California, USA},
-  month = {6-9},
-  publisher = {IEEE Press},
-  isbn = {0-7803-6375-2},
-  url = {citeseer.ist.psu.edu/ficici00gametheoretic.html}
-}
-
-@INPROCEEDINGS{FiciciCoevolution,
-  author = {S. G. Ficici and J. B. Pollack},
-  title = {A Game-Theoretic Approach to the Simple Coevolutionary Algorithm},
-  booktitle = {Parallel Problem Solving from Nature --- {PPSN} {VI} 6th International
-	Conference},
-  year = {2000},
-  editor = {Hans-Paul Schwefel {Marc Schoenauer, Kalyanmoy Deb, G{\"u}nter Rudolph,
-	Xin Yao, Evelyne Lutton, Juan Julian Merelo}},
-  address = {Paris, France},
-  month = {16-20},
-  publisher = {Springer Verlag},
-  url = {citeseer.ist.psu.edu/322969.html}
-}
-
-@ARTICLE{ficici01pareto,
-  author = {Sevan G. Ficici and Jordan B. Pollack},
-  title = {{Pareto} Optimality in Coevolutionary Learning},
-  journal = {Lecture Notes in Computer Science},
-  year = {2001},
-  volume = {2159},
-  pages = {316+},
-  url = {citeseer.ist.psu.edu/article/ficici01pareto.html}
-}
-
-@INPROCEEDINGS{fidelis00discovering,
-  author = {M. V. Fidelis and H. S. Lopes and A. A. Freitas},
-  title = {Discovering Comprehensible Classification Rules a Genetic Algorithm},
-  booktitle = {Proceedings of the 2000 Congress on Evolutionary Computation CEC00},
-  year = {2000},
-  pages = {805--810},
-  address = {La Jolla Marriott Hotel La Jolla, California, USA},
-  month = {6-9},
-  publisher = {IEEE Press},
-  isbn = {0-7803-6375-2},
-  url = {citeseer.ist.psu.edu/fidelis00discovering.html}
-}
-
-@TECHREPORT{fine02incas,
-  author = {Shai Fine and Katya Scheinberg},
-  title = {{INCAS}: An incremental active set method for {SVM}},
-  year = {2002},
-  text = {IBM Research Labs, Haifa, 2002.},
-  url = {citeseer.ist.psu.edu/fine02incas.html}
-}
-
-@ARTICLE{fisher36taxonomic,
-  author = {R. A. Fisher},
-  title = {The use of multiple measurements in~taxonomic problem},
-  journal = {Ann. Eugen.},
-  year = {1936},
-  pages = {179--188},
-  number = {7}
-}
-
-@INPROCEEDINGS{frank98generating,
-  author = {Eibe Frank and Ian H. Witten},
-  title = {Generating accurate rule sets without global optimization},
-  booktitle = {Proc. 15th International Conf. on Machine Learning},
-  year = {1998},
-  pages = {144--151},
-  publisher = {Morgan Kaufmann, San Francisco, CA},
-  url = {citeseer.ist.psu.edu/frank98generating.html}
-}
-
-@MISC{freitas01survey,
-  author = {A. Freitas},
-  title = {A survey of evolutionary algorithms for data mining and knowledge
-	discovery},
-  year = {2001},
-  text = {Freitas, A.A. (2001). A survey of evolutionary algorithms for data
-	mining and knowledge discovery. To appear in: Ghosh, A.; Tsutsui,
-	S. (Eds.) Advances in evolutionary computation. Springer-Verlag.},
-  url = {citeseer.ist.psu.edu/freitas01survey.html}
-}
-
-@INPROCEEDINGS{freund99adaptive,
-  author = {Yoav Freund},
-  title = {An Adaptive Version of the Boost by Majority Algorithm},
-  booktitle = {{COLT}: Proceedings of the Workshop on Computational Learning Theory},
-  year = {1999},
-  publisher = {Morgan Kaufmann Publishers},
-  url = {citeseer.ist.psu.edu/article/freund00adaptive.html}
-}
-
-@INPROCEEDINGS{freund98self,
-  author = {Yoav Freund},
-  title = {Self Bounding Learning Algorithms},
-  booktitle = {{COLT}: Proceedings of the Workshop on Computational Learning Theory,
-	Morgan Kaufmann Publishers},
-  year = {1998},
-  url = {citeseer.ist.psu.edu/freund98self.html}
-}
-
-@INPROCEEDINGS{freund90boosting,
-  author = {Yoav Freund},
-  title = {Boosting a Weak Learning Algorithm by Majority},
-  booktitle = {{COLT}: Proceedings of the Workshop on Computational Learning Theory},
-  year = {1990},
-  publisher = {Morgan Kaufmann Publishers},
-  url = {citeseer.ist.psu.edu/freund95boosting.html}
-}
-
-@INPROCEEDINGS{freund99decisiontree,
-  author = {Yoav Freund and Llew Mason},
-  title = {The alternating decision tree learning algorithm},
-  booktitle = {Sixteenth International Conference on Machine Learning},
-  year = {1999},
-  pages = {124--133}
-}
-
-@ARTICLE{freund99short,
-  author = {Yoav Freund and Robert E. Schapire},
-  title = {A short introduction to boosting},
-  journal = {J. Japan. Soc. for Artif. Intel.},
-  year = {1999},
-  volume = {14},
-  pages = {771-780},
-  number = {5},
-  text = {Y. Freund and R. Schapire. A short introduction to boosting, J. Japan.
-	Soc. for Artif. Intel. 14(5) (1999), 771-780. 11},
-  url = {citeseer.ist.psu.edu/freund99short.html}
-}
-
-@ARTICLE{freund97discussion,
-  author = {Yoav Freund and Robert E. Schapire},
-  title = {Discussion of the paper ``{A}rcing Classifiers'' by {L}eo {B}reiman},
-  journal = {The Annals of Statistics},
-  year = {1998},
-  volume = {26},
-  pages = {824--832},
-  number = {3},
-  annote = { Обсуждаются результаты экспериментального сравнения алгоритмов бустинга
-	и баггинга. Оба метода предназначены для взвешенного голосования
-	<<слабых>> классификаторов. Конструктивное различие состоит в~том,
-	что для настройки каждого слабого классификатора баггинг случайным
-	образом выбирает обучающие подвыборки, а~бустинг детерминированным
-	образом устанавливает веса обучающих объектов. При этом баггинг направлен
-	исключительно на~уменьшение вариации (variance). Эксперименты показывают,
-	что бустинг способствует уменьшению как вариации, так~и смещения
-	(bias). Эффективность бустинга объясняется тем, что он~пытается максимизировать
-	отступы обучающих объектов даже после достижения безошибочной классификации
-	обучающей выборки~\cite{schapire97boosting}. В~заключение приводится
-	перечень открытых проблем для исследования.},
-  url = {citeseer.ist.psu.edu/freund97discussion.html}
-}
-
-@INPROCEEDINGS{freund96experiments,
-  author = {Yoav Freund and Robert E. Schapire},
-  title = {Experiments with a New Boosting Algorithm},
-  booktitle = {International Conference on Machine Learning},
-  year = {1996},
-  pages = {148-156},
-  url = {citeseer.ist.psu.edu/freund96experiments.html}
-}
-
-@INPROCEEDINGS{freund95decisiontheoretic,
-  author = {Yoav Freund and Robert E. Schapire},
-  title = {A decision-theoretic generalization of on-line learning and an application
-	to boosting},
-  booktitle = {European Conference on Computational Learning Theory},
-  year = {1995},
-  pages = {23-37},
-  url = {citeseer.ist.psu.edu/article/freund95decisiontheoretic.html}
-}
-
-@TECHREPORT{friedman98additive,
-  author = {J. Friedman and T. Hastie and R. Tibshirani},
-  title = {Additive logistic regression: a statistical view of boosting},
-  institution = {Dept. of Statistics, Stanford University Technical Report},
-  year = {1998},
-  url = {citeseer.ist.psu.edu/friedman98additive.html}
-}
-
-@INPROCEEDINGS{fritsch97adaptively,
-  author = {Juergen Fritsch and Michael Finke and Alex Waibel},
-  title = {Adaptively Growing Hierarchical Mixtures of Experts},
-  booktitle = {Advances in Neural Information Processing Systems},
-  year = {1997},
-  editor = {Michael C. Mozer and Michael I. Jordan and Thomas Petsche},
-  volume = {9},
-  pages = {459},
-  publisher = {The {MIT} Press},
-  url = {citeseer.ist.psu.edu/73627.html}
-}
-
-@BOOK{fukunaga90intro,
-  title = {Introduction to statistical pattern recognition},
-  publisher = {Academic press, Inc., Boston, USA},
-  year = {1990},
-  author = {K. Fukunaga},
-  edition = {2}
-}
-
-@INPROCEEDINGS{garg02generalization,
-  author = {Ashutosh Garg and Sariel Har-Peled and Dan Roth},
-  title = {On Generalization Bounds, Projection Profile, and Margin Distribution},
-  booktitle = {ICML'02},
-  year = {2002},
-  url = {citeseer.ist.psu.edu/600544.html}
-}
-
-@TECHREPORT{garg01generalization,
-  author = {A. Garg and S. Har-Peled and D. Roth},
-  title = {Generalization bounds for linear learning algorithms},
-  institution = {University of Illinois, Department of Computer Science},
-  year = {2001},
-  number = {UIUCDCS-R-},
-  url = {citeseer.ist.psu.edu/455960.html}
-}
-
-@INPROCEEDINGS{garg03margin,
-  author = {Ashutosh Garg and Dan Roth},
-  title = {Margin Distribution and Learning Algorithms},
-  booktitle = {ICML'03},
-  year = {2002},
-  url = {citeseer.ist.psu.edu/600544.html}
-}
-
-@ARTICLE{giordana95searchintensive,
-  author = {Attilio Giordana and Filippo Neri},
-  title = {Search-Intensive Concept Induction},
-  journal = {Evolutionary Computation},
-  year = {1995},
-  volume = {3},
-  pages = {375-419},
-  number = {4},
-  url = {citeseer.ist.psu.edu/article/giordana95searchintensive.html}
-}
-
-@INPROCEEDINGS{golea98generalization,
-  author = {Mostefa Golea and Peter Bartlett and Wee Sun Lee and Llew Mason},
-  title = {Generalization in Decision Trees and {DNF}: Does Size Matter?},
-  booktitle = {Advances in Neural Information Processing Systems},
-  year = {1998},
-  editor = {Michael I. Jordan and Michael J. Kearns and Sara A. Solla},
-  volume = {10},
-  publisher = {The {MIT} Press},
-  annote = {Последние исследования~\cite{bartlett98ieee} продемонстрировали,
-	что вероятность ошибки пороговых выпуклых комбинаций (таких, как
-	машины опорных векторов, сигмоидальные нейросети и~бустинг) не~зависит
-	от~сложности классификатора и~может быть существенно ниже границ,
-	предсказываемых теорией Вапника-Червоненкиса~\cite{vapnik74rus}.
-	В~данной статье этот результат обобщается на~класс булевых функций,
-	представимых в~виде выпуклой комбинации булевых функций (термов)
-	с~пороговым решающим правилом. В~таком виде представимы бинарные
-	решающие деревья и дизъюнктивные нормальные формы. С~помощью техники~\cite{bartlett98ieee}
-	показывается, что сложность комбинации равна средней взвешенной сложности
-	термов, взятых с~теми~же весами, с~которыми они входят в~комбинацию.
-	Вводится новая мера сложности~--- эффективное число термов, которое
-	может оказаться существенно меньше, когда значительная доля термов
-	редко используется при классификации, занимаясь обработкой <<исключительных
-	ситуаций>>.},
-  url = {citeseer.ist.psu.edu/golea97generalization.html}
-}
-
-@ARTICLE{goutte97note,
-  author = {Cyril Goutte},
-  title = {Note on Free Lunches and Cross-validation},
-  journal = {Neural Computation},
-  year = {1997},
-  volume = {9},
-  pages = {1245-1249},
-  number = {6},
-  url = {citeseer.ist.psu.edu/goutte97note.html}
-}
-
-@INPROCEEDINGS{grove98boosting,
-  author = {Adam J. Grove and Dale Schuurmans},
-  title = {Boosting in the Limit: Maximizing the Margin of Learned Ensembles},
-  booktitle = {{AAAI}/{IAAI}},
-  year = {1998},
-  pages = {692-699},
-  url = {citeseer.ist.psu.edu/grove98boosting.html}
-}
-
-@INPROCEEDINGS{guerrasalcedo99genetic,
-  author = {Cesar Guerra-Salcedo and Darrell Whitley},
-  title = {Genetic Approach to Feature Selection for Ensemble Creation},
-  booktitle = {Proceedings of the Genetic and Evolutionary Computation Conference},
-  year = {1999},
-  editor = {Wolfgang Banzhaf and Jason Daida and Agoston E. Eiben and Max H.
-	Garzon and Vasant Honavar and Mark Jakiela and Robert E. Smith},
-  volume = {1},
-  pages = {236--243},
-  address = {Orlando, Florida, USA},
-  month = {13-17},
-  publisher = {Morgan Kaufmann},
-  isbn = {1-55860-611-4},
-  url = {citeseer.ist.psu.edu/531553.html}
-}
-
-@INPROCEEDINGS{hancock94empirical,
-  author = {Peter J. B. Hancock},
-  title = {An Empirical Comparison of Selection Methods in Evolutionary Algorithms},
-  booktitle = {Evolutionary Computing, {AISB} Workshop},
-  year = {1994},
-  pages = {80-94},
-  url = {citeseer.ist.psu.edu/hancock94empirical.html}
-}
-
-@ARTICLE{hastie86generalized,
-  author = {T. Hastie and R. Tibshirani},
-  title = {Generalized Additive Models},
-  journal = {Statistical Science},
-  year = {1986},
-  volume = {1},
-  pages = {297--318},
-  url = {citeseer.ist.psu.edu/hastie95generalized.html}
-}
-
-@BOOK{hastie01elements,
-  title = {The Elements of Statistical Learning},
-  publisher = {Springer},
-  year = {2001},
-  author = {Hastie, T. and Tibshirani, R. and Friedman, J.}
-}
-
-@BOOK{hebb49organization,
-  title = {The organization of behavior},
-  publisher = {New York: Wiley},
-  year = {1949},
-  author = {D. Hebb}
-}
-
-@ARTICLE{hellstrom00outlier,
-  author = {Thomas Hellstrom},
-  title = {Outlier Removal for Prediction of Covariance Matrices~--- with an
-	Application to Portfolio Optimization},
-  journal = {Theory of Stochastic Processes},
-  year = {2000},
-  volume = {6(22)},
-  pages = {47--63},
-  number = {3},
-  annote = { В~рамках теории Марковица строятся оценки ковариационной матрицы
-	и~вектора доходностей, устойчивые к~выбросам. Предлагается простой
-	алгоритм, исключающий дни с~выбросами методом скользящего контроля.
-	Алгоритм тестируется на~двухлетних данных американского и~шведского
-	рынка акций. Оценки строятся по 200-дневным интервалам и~проверяются
-	по~20-дневным. Устранение выбросов понижает ошибку ковариационной
-	матрицы на~9\% и~повышает значение функционала (Доходность~--~2~Риск)
-	на~2.5\% на~тестовой выборке.},
-  url = {citeseer.ist.psu.edu/485368.html}
-}
-
-@INPROCEEDINGS{helmbold96line,
-  author = {David P. Helmbold and Robert E. Schapire and Yoram Singer and Manfred
-	K. Warmuth},
-  title = {On-Line Portfolio Selection Using Multiplicative Updates},
-  booktitle = {International Conference on Machine Learning},
-  year = {1996},
-  pages = {243-251},
-  annote = { Предлагается алгоритм динамической (online) балансировки портфеля
-	EG (Exponential Gradient). Для вычисления текущего вектора портфеля
-	EG~используется только предыдущий вектор портфеля и~текущий вектор
-	приращений цен. При таком способе балансировки больший вес в~портфеле
-	автоматически получают те~акции, которые за~последнее время давали
-	больший доход. Таким образом, вся необходимая информация о~доходности
-	отдельных акций оказывается записанной в~самом векторе портфеля,
-	и~полное знание всей предыстории не~требуется. Идея мультипликативного
-	обновления весов эксплуатируется также в~алгоритмах взвешенного голосования~\cite{littlestone89weighted}
-	и~бустинга~\cite{schapire01boosting}. Сложность алгоритма линейна
-	по~числу акций, в~отличие от~алгоритма универсального портфеля~\cite{cover91universal},
-	имеющего экспоненциальную сложность. Тем не менее EG даёт асимптотически
-	тот~же результат. Нижняя граница доходности выводится без каких бы
-	то ни было статистических предположений о~процессе ценообразования.
-	Теоретические оценки несколько хуже~\cite{cover91universal}. Однако
-	тесты на 22-летнем периоде ежедневных данных NYCE (без учёта транзакционных
-	издержек) показывают превосходство данного алгоритма над универсальным
-	портфелем~\cite{cover91universal}.},
-  url = {citeseer.ist.psu.edu/article/helmbold98line.html}
-}
-
-@ARTICLE{herbrich02algorithmic,
-  author = {R. Herbrich and R. Williamson},
-  title = {Algorithmic luckiness},
-  journal = {Journal of Machine Learning Research},
-  year = {2002},
-  pages = {175-212},
-  number = {3},
-  url = {citeseer.ist.psu.edu/article/herbrich02algorithmic.html}
-}
-
-@INPROCEEDINGS{hinterding95nature,
-  author = {Robert Hinterding and Harry Gielewski and T. C. Peachey},
-  title = {The Nature of Mutation in Genetic Algorithms},
-  booktitle = {Proceedings of the Sixth International Conference on Genetic Algorithms},
-  year = {1995},
-  editor = {Larry Eshelman},
-  pages = {65--72},
-  address = {San Francisco, CA},
-  publisher = {Morgan Kaufmann},
-  url = {citeseer.ist.psu.edu/hinterding95nature.html}
-}
-
-@ARTICLE{ho98random,
-  author = {Tin Kam Ho},
-  title = {The Random Subspace Method for Constructing Decision Forests},
-  journal = {IEEE Transactions on Pattern Analysis and Machine Intelligence},
-  year = {1998},
-  volume = {20},
-  pages = {832-844},
-  number = {8},
-  url = {citeseer.ist.psu.edu/ho98random.html}
-}
-
-@TECHREPORT{holden96crossvalidation,
-  author = {Sean B. Holden},
-  title = {Cross-Validation and the PAC Learning Model},
-  institution = {Dept. of CS, Univ. College, London},
-  year = {1996},
-  number = {RN/96/64}
-}
-
-@INPROCEEDINGS{horn93markov,
-  author = {Horn, J.},
-  title = {{Finite Markov Chain Analysis of Genetic Algorithms with Niching}},
-  booktitle = {{Proceedings of the Fifth International Conference on Genetic Algorithms}},
-  year = {1993},
-  editor = {S. Forrest},
-  pages = {110--117},
-  address = {San Mateo, California},
-  publisher = {Morgan Kaufmann Publishers},
-  url = {citeseer.ist.psu.edu/article/horn93finite.html}
-}
-
-@MISC{iorio02parameter,
-  author = {A. Iorio and X. Li},
-  title = {Parameter Control Within a Cooperative Coevolutionary Genetic Algorithm},
-  year = {2002},
-  text = {Iorio, A. W., Li, X.: Parameter Control Within a Cooperative Coevolutionary
-	Genetic Algorithm. In: Merelo Guervos, J.J., Adamidis, P., Beyer,
-	H.-G., FernandezVillaca nas, J.-L., Schwefel, H.-P.(eds.): Proc.
-	of Parallel Problem Solving From Nature VII (PPSN'02). Lecture Notes
-	in Computer Science, Vol 2439. SpringerVerlag, Berlin Germany (2002)
-	247--256},
-  url = {citeseer.ist.psu.edu/iorio02parameter.html}
-}
-
-@ARTICLE{islam03constructive,
-  author = {M. Islam and X. Yao and K. Murase},
-  title = {A constructive algorithm for training cooperative neural network
-	ensembles},
-  journal = {IEEE Transactions on Neural Networks},
-  year = {2003},
-  volume = {14},
-  pages = {820--834},
-  number = {4},
-  month = {July},
-  url = {citeseer.ist.psu.edu/islam03constructive.html}
-}
-
-@ARTICLE{jacobs93hierarchical,
-  author = {Jacobs, R. A. and Jordan, M. I. and Nowlan, S. J. and Hinton, G.
-	E.},
-  title = {Adaptive Mixtures of Local Experts},
-  journal = {Neural Computation},
-  year = {1991},
-  pages = {79-87},
-  number = {3}
-}
-
-@ARTICLE{jain99data,
-  author = {A. Jain and M. Murty and P. Flynn},
-  title = {Data Clustering: A Review},
-  journal = {ACM Computing Surveys},
-  year = {1999},
-  volume = {31},
-  pages = {264-323},
-  number = {3},
-  url = {citeseer.ifi.unizh.ch/jain99data.html}
-}
-
-@ARTICLE{jain00statistical,
-  author = {Anil K. Jain and Robert P. W. Duin and Jianchang Mao},
-  title = {Statistical Pattern Recognition: A Review},
-  journal = {IEEE Transactions on Pattern Analysis and Machine Intelligence},
-  year = {2000},
-  volume = {22},
-  pages = {4-37},
-  number = {1},
-  url = {citeseer.ist.psu.edu/article/jain00statistical.html}
-}
-
-@INPROCEEDINGS{jin03new,
-  author = {R. Jin and Y. Liu and L. Si and J. Carbonell and A. Hauptmann},
-  title = {A new boosting algorithm using input-dependent regularizer},
-  booktitle = {The 20-th International Conference on Machine Learning},
-  year = {2003},
-  annote = { Предлагается новый вариант алгоритма бустинга WeightBoost, более
-	устойчивый к~шумовым искажениям данных, и~потому менее склонный к
-	переобучению, чем исходный алгоритм AdaBoost. В~новом алгоритме веса
-	базовых классификаторов не~постоянны и~зависят от~объекта. Для каждого
-	классификатора выделяется своя <<область компетентности>>, на~которой
-	он~настраивается наиболее точно. Конкретней, вес базового классификатора
-	на~объекте тем меньше, чем большее (по~модулю) значение принимает
-	на~данном объекте линейная комбинация всех предыдущих классификаторов.
-	Именно такими выбросами проявляют себя зашумлённые объекты. Таким
-	образом, WeightBoost перестаёт настраиваться на~объектах, оказавшихся
-	<<трудными>> для большинства базовых классификаторов, считая эти
-	объекты зашумлёнными. Предложенный алгоритм сравнивается с~другими
-	вариантами бустинга AdaBoost, $\epsilon$-Boost, WeightDecay на~8~реальных
-	задачах из~репозитория~UCI. В~6~случаях из~8 результат WeightBoost
-	оказывается не~хуже.},
-  url = {citeseer.ist.psu.edu/jin03new.html}
-}
-
-@INPROCEEDINGS{john94irrelevant,
-  author = {George H. John and Ron Kohavi and Karl Pfleger},
-  title = {Irrelevant Features and the Subset Selection Problem},
-  booktitle = {International Conference on Machine Learning},
-  year = {1994},
-  pages = {121-129},
-  url = {citeseer.ist.psu.edu/john94irrelevant.html}
-}
-
-@ARTICLE{jordan93hierarchical,
-  author = {Michael I. Jordan and Robert A. Jacobs},
-  title = {Hierarchical Mixtures of Experts and the {EM} Algorithm},
-  journal = {Neural Computation},
-  year = {1994},
-  pages = {181-214},
-  number = {6},
-  url = {citeseer.ist.psu.edu/article/jordan94hierarchical.html}
-}
-
-@TECHREPORT{jordan93convergence,
-  author = {Michael I. Jordan and Lei Xu},
-  title = {Convergence results for the~{EM} algorithm to mixtures of experts
-	architectures},
-  institution = {MIT, Cambridge, MA},
-  year = {1993},
-  number = {A.I. Memo No. 1458}
-}
-
-@INPROCEEDINGS{kalai00efficient,
-  author = {Adam Kalai and Santosh Vempala},
-  title = {Efficient Algorithms for Universal Portfolios},
-  booktitle = {{IEEE} Symposium on Foundations of Computer Science},
-  year = {2000},
-  pages = {486-491},
-  url = {citeseer.ist.psu.edu/kalai00efficient.html}
-}
-
-@INPROCEEDINGS{karpinski95polynomial,
-  author = {Marek Karpinski and Angus Macintyre},
-  title = {Polynomial bounds for {VC} dimension of sigmoidal neural networks},
-  booktitle = {27th ACM Symposium on Theory of Computing, Las Vegas, Nevada, US},
-  year = {1995},
-  pages = {200--208},
-  url = {citeseer.ist.psu.edu/karpinski95polynomial.html}
-}
-
-@INPROCEEDINGS{kearns96bound,
-  author = {Michael Kearns},
-  title = {A Bound on the Error of Cross Validation Using the Approximation
-	and Estimation Rates, with Consequences for the Training-Test Split},
-  booktitle = {Advances in Neural Information Processing Systems},
-  year = {1996},
-  editor = {David S. Touretzky and Michael C. Mozer and Michael E. Hasselmo},
-  volume = {8},
-  pages = {183--189},
-  publisher = {The {MIT} Press},
-  annote = { Рассматривается метод структурной минимизации риска, в~котором семейство
-	оптимальной сложности выбирается по~результату теста на~независимой
-	контрольной выборке. Выводится оценка вероятности ошибки для алгоритма,
-	получаемого данным методом. Оценка зависит от ёмкости (VC-dimension)
-	рассматриваемых семейств. На~модельной задаче <<выделения одномерных
-	интервалов>> исследуется вопрос об~оптимальном соотношении между
-	числом обучающих и~тестовых объектов. При невысокой сложности восстанавливаемой
-	зависимости оценка слабо зависит от~этого соотношения. По~мере увеличения
-	сложности оптимум становится более выраженным, оптимальное значение
-	доли тестовых объектов уменьшается. Рекомендуемое соотношение, подходящее
-	для большинства случаев~--- около~10\% тестовых объектов.},
-  url = {citeseer.ist.psu.edu/kearns96bound.html}
-}
-
-@INPROCEEDINGS{kearns89cryptographic,
-  author = {M. Kearns and L. G. Valiant},
-  title = {Cryptographic limitations on learning {Boolean} formulae and finite
-	automata},
-  booktitle = {Proc. of the 21st Annual ACM Symposium on Theory of Computing},
-  year = {1989},
-  pages = {433--444},
-  url = {citeseer.ist.psu.edu/kearns89cryptographic.html}
-}
-
-@INPROCEEDINGS{kearns95experimental,
-  author = {Michael J. Kearns and Yishay Mansour and Andrew Y. Ng and Dana Ron},
-  title = {An Experimental and Theoretical Comparison of Model Selection Methods},
-  booktitle = {8th Conf. on Computational Learning Theory, Santa Cruz, California,
-	US},
-  year = {1995},
-  pages = {21-30},
-  annote = { Сравнивается обобщающая способность трёх методов выбора модели оптимальной
-	сложности в~задачах классификации: GRM~--- гарантированная минимизация
-	риска по~Вапнику, MDL~--- принцип минимальной длины описания по~Риссанену,
-	CV~--- скользящий контроль. Первые два основаны на~явном введении
-	штрафа за сложность. На~модельной задаче ни~один из~них не~оказался
-	универсально лучшим. GRM~склонен переупрощать, а~MDL~--- переусложнять
-	модель. При наличии шума эти эффекты усиливаются и~не~устраняются
-	умножением штрафной функции на~константу. Обобщающая способность~CV
-	ограничена сверху оценкой, немного худшей, чем вероятность ошибки
-	произвольного штрафного метода на~выборках несколько меньшего объёма.
-	Для любого штрафного метода существует задача, на~которой он~вообще
-	не~способен определить оптимум сложности модели. CV~более устойчив
-	к~шуму и~быстрее сходится с~ростом длины выборки. Вывод: при отсутствии
-	обоснованного предпочтения штрафных методов лучше применять~CV.},
-  url = {citeseer.ist.psu.edu/kearns95experimental.html}
-}
-
-@INPROCEEDINGS{kearns97algorithmic,
-  author = {Michael J. Kearns and Dana Ron},
-  title = {Algorithmic Stability and Sanity-Check Bounds for Leave-one-Out Cross-Validation},
-  booktitle = {Computational Learning Theory},
-  year = {1997},
-  pages = {152--162},
-  annote = { Принято считать, что скользящий контроль характеризует обобщающую
-	способность алгоритма лучше, чем частота ошибок на обучающей выборке.
-	В~данной статье авторам удаётся показать лишь то, что он не~может
-	характеризовать её существенно хуже. Рассматривается задача классификации
-	на два класса и~функционал скользящего контроля с~одним отделяемым
-	объектом (leave-one-out cross-validation). Выводится верхняя оценка
-	отклонения скользящего контроля от~вероятности ошибки алгоритма,
-	полученного по~той~же выборке. Данная оценка аналогична оценкам отклонения
-	частоты ошибок на~обучении от~вероятности ошибки, полученным в~статистической
-	теории Вапника-Червоненкиса. Она также зависит от~ёмкости семейства
-	алгоритмов, и~также справедлива при произвольном распределении вероятностей
-	на~множестве объектов, то~есть является оценкой <<худшего случая>>.
-	Отличие заключается в~том, что для оценивания скользящего контроля
-	потребовалось ввести два дополнительных предположения. Во-первых,
-	метод обучения должен обладать свойством стабильности, когда малое
-	изменение обучающей выборки приводит к~малому изменению обученного
-	алгоритма. Вводится два различных понятия стабильности: стабильность
-	результирующих алгоритмов (hypothesis stability), и стабильность
-	ошибок (error stability). Предположение о~стабильности ошибок является
-	менее обременительным и~лучше подходит для случая, когда восстанавливаемая
-	зависимость не~обязательно содержится в~семействе алгоритмов (unrealizable
-	case). Доказывается, что для семейств конечной ёмкости метод минимизации
-	эмпирического риска является стабильным. Во-вторых, скользящий контроль
-	должен <<переоценивать>> (overestimate) частоту ошибок на~обучении,
-	то~есть значение скользящего контроля с~высокой вероятностью должно
-	быть не~сильно меньше частоты ошибок на~обучении. Несмотря~на указанные
-	дополнительные предположения, полученная оценка даёт всего лишь <<разумные>>
-	верхние границы (sanity-check bounds) для отклонения скользящего
-	контроля от~вероятности ошибок. Выводятся также нижние оценки, показывающие
-	необходимость требований стабильности, переоценивания и~конечной
-	ёмкости. Таким образом, подтвердить исходное предположение об~<<особой
-	эффективности>> скользящего контроля пока не~удаётся.},
-  url = {citeseer.ist.psu.edu/kearns97algorithmic.html}
-}
-
-@INCOLLECTION{kearns94efficient,
-  author = {Kearns, M. J. and Schapire, R. E.},
-  title = {Efficient Distribution-free Learning of Probabilistic Concepts},
-  booktitle = {Computational Learning Theory and Natural Learning Systems, Volume
-	I: Constraints and Prospect, edited by Stephen Jose Hanson, George
-	A. Drastal, and Ronald L. Rivest, Bradford/{MIT} Press},
-  year = {1994},
-  volume = {1},
-  url = {citeseer.ist.psu.edu/article/kearns93efficient.html}
-}
-
-@INPROCEEDINGS{kohavi95study,
-  author = {Ron Kohavi},
-  title = {A Study of Cross-Validation and Bootstrap for Accuracy Estimation
-	and Model Selection},
-  booktitle = {14th International Joint Conference on Artificial Intelligence, Palais
-	de Congres Montreal, Quebec, Canada},
-  year = {1995},
-  pages = {1137-1145},
-  url = {citeseer.ist.psu.edu/kohavi95study.html}
-}
-
-@INCOLLECTION{koltchinskii99rademacher,
-  author = {V. Koltchinskii and D. Panchenko},
-  title = {Rademacher processes and bounding the risk of function learning},
-  booktitle = {High Dimensional Probability, II},
-  publisher = {Birkhauser},
-  year = {1999},
-  editor = {E. Gine, D. and J.Wellner},
-  pages = {443-457},
-  url = {citeseer.ist.psu.edu/article/koltchinskii99rademacher.html}
-}
-
-@MISC{koltchinskii00empirical,
-  author = {V. Koltchinskii and D. Panchenko},
-  title = {Empirical margin distributions and bounding the generalization error
-	of combined classifiers},
-  year = {2000},
-  url = {citeseer.ist.psu.edu/koltchinskii00empirical.html}
-}
-
-@INPROCEEDINGS{koltchinskii01further,
-  author = {Vladimir Koltchinskii and Dmitriy Panchenko and Fernando Lozano},
-  title = {Further Explanation of the Effectiveness of Voting Methods: {T}he
-	Game Between Margins and Weights},
-  booktitle = {14th Annual Conference on Computational Learning Theory, {COLT} 2001
-	and 5th {E}uropean Conference on Computational Learning Theory, {EuroCOLT}
-	2001, Amsterdam, The Netherlands, July 2001, Proceedings},
-  year = {2001},
-  volume = {2111},
-  pages = {241--255},
-  publisher = {Springer, Berlin},
-  url = {citeseer.ist.psu.edu/476199.html}
-}
-
-@BOOK{kuncheva04combining,
-  title = {Combining pattern classifiers},
-  publisher = {John Wiley \& Sons, Inc.},
-  year = {2004},
-  author = {L. Kuncheva}
-}
-
-@ARTICLE{kuncheva02experimental,
-  author = {L. Kuncheva and M. Skurichina and R. Duin},
-  title = {An experimental study on diversity for bagging and boosting with
-	linear classifiers},
-  journal = {Information Fusion},
-  year = {2002},
-  volume = {3},
-  pages = {245-258},
-  number = {4},
-  publisher = {Elsevier},
-  url = {citeseer.ist.psu.edu/kuncheva02experimental.html}
-}
-
-@ARTICLE{kuncheva03measures,
-  author = {L. Kuncheva and C. Whitaker},
-  title = {Measures of Diversity in Classifier Ensembles and Their Relationship
-	with the Ensemble Accuracy},
-  journal = {Machine Learning},
-  year = {2003},
-  volume = {51},
-  pages = {181-207},
-  number = {2},
-  publisher = {Kluwer Academic Publishers},
-  url = {citeseer.ist.psu.edu/kuncheva00measures.html}
-}
-
-@ARTICLE{kuncheva00designing,
-  author = {L. I. Kuncheva and L. C. Jain},
-  title = {Designing Classifier Fusion Systems by Genetic Algorithms},
-  journal = {{IEEE}-{EC}},
-  year = {2000},
-  volume = {4},
-  pages = {327},
-  number = {4},
-  month = {November},
-  url = {citeseer.ist.psu.edu/kuncheva00designing.html}
-}
-
-@TECHREPORT{kutin02almosteverywhere,
-  author = {Samuel Kutin and Partha Niyogi},
-  title = {Almost-everywhere algorithmic stability and generalization error},
-  institution = {University of Chicago},
-  year = {2002},
-  number = {TR-2002-03},
-  text = {S. Kutin and P. Niyogi. Almost-everywhere algorithmic stability and
-	generalization error. Technical report TR-2002-03, University of
-	Chicago, 2002. 6},
-  url = {citeseer.ist.psu.edu/kutin02almosteverywhere.html}
-}
-
-@MISC{kutin-interaction,
-  author = {Samuel Kutin and Partha Niyogi},
-  title = {The interaction of stability and weakness in {A}da{B}oost},
-  year = {2001},
-  url = {citeseer.ist.psu.edu/kutin01interaction.html}
-}
-
-@ARTICLE{lancewilliams67general,
-  author = {G. N. Lance and W. T. Willams},
-  title = {A General theory of classification sorting strategies. 1. Hierarchical
-	Systems},
-  journal = {Comp. J.},
-  year = {1967},
-  pages = {373-380},
-  number = {9}
-}
-
-@INPROCEEDINGS{langford02combining,
-  author = {J. Langford},
-  title = {Combining Train Set and Test Set Bounds},
-  booktitle = {ICML'02},
-  year = {2002},
-  url = {citeseer.ist.psu.edu/612035.html}
-}
-
-@MISC{langford02quantitatively,
-  author = {J. Langford},
-  title = {Quantitatively Tight Sample Complexity Bounds},
-  year = {2002},
-  note = {Carnegie Mellon Thesis},
-  url = {citeseer.ist.psu.edu/langford02quantitatively.html}
-}
-
-@INPROCEEDINGS{langford99microchoice,
-  author = {John Langford and Avrim Blum},
-  title = {Microchoice Bounds and Self Bounding Learning Algorithms},
-  booktitle = {Computational Learing Theory},
-  year = {1999},
-  pages = {209-214},
-  url = {citeseer.ist.psu.edu/article/langford00microchoice.html}
-}
-
-@ARTICLE{lecun89backprop,
-  author = { Y. LeCun and B. Boser and J. S. Denker and D. Henderson and R. E.
-	Howard and W. Hubbard and L. D. Jackel},
-  title = {Backpropagation applied to handwritten zip code recognition},
-  journal = {Neural Computation},
-  year = {1989},
-  volume = {1},
-  pages = {541-551},
-  number = {4}
-}
-
-@INCOLLECTION{lecun98efficient,
-  author = {Yann LeCun and Leon Bottou and Genevieve B. Orr and Klaus-Robert
-	Muller},
-  title = {Efficient {B}ack{P}rop},
-  booktitle = {Neural Networks: tricks of the trade},
-  publisher = {Springer},
-  year = {1998}
-}
-
-@ARTICLE{lee98convexity,
-  author = {Wee Sun Lee and Peter Bartlett and R. C. Williamson},
-  title = {The importance of convexity in learning with squared loss},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1998},
-  volume = {44},
-  pages = {1974--1980},
-  number = {5},
-  url = {citeseer.ist.psu.edu/206820.html}
-}
-
-@INPROCEEDINGS{littlestone89weighted,
-  author = {Nick Littlestone and Manfred K. Warmuth},
-  title = {The Weighted Majority Algorithm},
-  booktitle = {{IEEE} Symposium on Foundations of Computer Science},
-  year = {1989},
-  pages = {256-261},
-  url = {citeseer.ist.psu.edu/littlestone92weighted.html}
-}
-
-@MISC{lugosi98concentrationmeasure,
-  author = {Gabor Lugosi},
-  title = {On concentration-of-measure inequalities},
-  howpublished = {Machine Learning Summer School, Australian National University, Canberra},
-  year = {2003},
-  url = {citeseer.ist.psu.edu/lugosi98concentrationmeasure.html}
-}
-
-@ARTICLE{lugosi94estimate,
-  author = {G. Lugosi and M. Pawlak},
-  title = {On the posterior-probability estimate of the error of nonparametric
-	classification rules},
-  journal = {IEEE Transactions on Information Theory},
-  year = {1994},
-  volume = {40},
-  pages = {475-481},
-  number = {2}
-}
-
-@ARTICLE{WigandEAEquiv,
-  author = {Sean Luke and R. Paul Wiegand},
-  title = {When Coevolutionary Algorithms Exhibit Evolutionary Dynamics},
-  journal = {In Workshop Proceedings of the 2003 Genetic and Evolutionary Computation
-	Conference},
-  year = {2002}
-}
-
-@ARTICLE{WigandObjective,
-  author = {Sean Luke and R. Paul Wiegand},
-  title = {Guaranteeing Coevolutionary Objective Measures},
-  journal = {In Foundations of Genetic Algorithms VII},
-  year = {2002},
-  pages = {237-251},
-  publisher = {Morgan Kaufman}
-}
-
-@INPROCEEDINGS{maclin97empirical,
-  author = {Richard Maclin and David Opitz},
-  title = {An Empirical Evaluation of Bagging and Boosting},
-  booktitle = {{AAAI}/{IAAI}},
-  year = {1997},
-  pages = {546-551},
-  url = {citeseer.ist.psu.edu/maclin97empirical.html}
-}
-
-@INPROCEEDINGS{mansour00generalization,
-  author = {Yishay Mansour and David Mc{A}llester},
-  title = {Generalization Bounds for Decision Trees},
-  booktitle = {Proc. 13th Annu. Conference on Comput. Learning Theory},
-  year = {2000},
-  pages = {69--80},
-  publisher = {Morgan Kaufmann, San Francisco},
-  url = {citeseer.ist.psu.edu/mansour00generalization.html}
-}
-
-@INPROCEEDINGS{marchand03halfspaces,
-  author = {Mario Marchand and Mohak Shah and John Shawe-Taylor and Marina Sokolova},
-  title = {The set covering machine with data-dependent half-spaces},
-  booktitle = {Proc. 20th International Conf. on Machine Learning},
-  year = {2003},
-  pages = {520--527},
-  publisher = {Morgan Kaufmann},
-  url = {www.hpl.hp.com/conferences/icml03/titlesAndAuthors.html}
-}
-
-@INPROCEEDINGS{marchand01learning,
-  author = {Mario Marchand and John Shawe-Taylor},
-  title = {Learning with the Set Covering Machine},
-  booktitle = {Proc. 18th International Conf. on Machine Learning},
-  year = {2001},
-  pages = {345--352},
-  publisher = {Morgan Kaufmann, San Francisco, CA},
-  url = {citeseer.ist.psu.edu/452556.html}
-}
-
-@BOOK{markowitz59portfolio,
-  title = {Portfolio Selection: Efficient Diversification of Investments},
-  publisher = {Wiley, New York},
-  year = {1959},
-  author = {H. Markowitz}
-}
-
-@ARTICLE{martin97exact,
-  author = {J. Kent Martin},
-  title = {An Exact Probability Metric for Decision Tree Splitting and Stopping},
-  journal = {Machine Learning},
-  year = {1997},
-  volume = {28},
-  pages = {257-291},
-  number = {2-3},
-  annote = {Предлагается критерий ветвления решающих деревьев, основанный на~точном
-	тесте Фишера (Fisher's Exact Test). Этот тест использует гипергеометрическое
-	распределение для проверки нулевой гипотезы о~независимости двух
-	предикатов. Стандартные информационные критерии (IGain, ORT, Beta,~$X^{2}$,~$G^{2}$)
-	являются асимптотическими аппроксимациями предложенного точного критерия.
-	Данный критерий более точен на~малых подвыборках, не~приводит к~чрезмерному
-	дроблению поддеревьев и~не~смещён в~сторону выбора признаков с~б\'ольшим
-	числом градаций. В~