Участник:Yrogirg/Черновик2

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Ирган Шмидхуба (нем. Jürgen Schmidhuber; 1963,Munich) — информатик и художник известный своими работами в области машинного обучения, универсального [[Искусственный интеллект|искуственного интелекта]), искуственных нейронных сетей, цифровой физики, и low-complexity art. Его вклад также касается обобщения Колмогоровской сложности и Speed Prior. С 1995 он является содиректором швейцарской лаборатории ИИ IDSIA в Lugano, с 2004 также профессор Cognitive Robotics at the Tech. University Munich, с 2006 also in the faculty of the University of Lugano.

Вклад в науку

[править | править код]

Рекуррентные нейронные сети

[править | править код]

Динамичные рекуррентная нейронные сети, разработанные в его лаборатории, являются упрощенными математическими моделями биологических нейронных сетей, обнаруженными в человечьих мозгах. Особенно успешной модель этого типа называется "Долгая кратковременная память" (Long Short-Term Memory) (Хохрайтер & Шмидхубер, 1997). При помощи обучающих последовательностей она учится решать многочисленные задачи, не решаемые предыдущими подобными моделями. Область применения варьируется от автоматического сочинения музыки до распознавания речи, reinforcement learning и робототехники, действующей в среде со слабой видимостью.

Искуственная эволюция / Генетическое программирование

[править | править код]

Будучи выпускником TUM, Шмидхубер развивал компьютерные программы, основанные на генетических алгоритмах. Публикация этого метода в 1987 году стала одной из первых в зарождавшейся тогда области, позднее ставшей известной как генетическое программирование. С тех пор он был соавтором многочисленных статей по искуственной эволюции. Практические применения этих работ включают управление роботами, обучение футболу, минимизация лобового сопротивления, и предсказание временных рядов.

Нейронная экономика

[править | править код]

В 1989 он создал первый алгоритм обучения нейронных сетей, основанный на принципах рыночной экономики (навеянный John Holland's bucket brigade algorithm for classifier systems): адаптивные нейроны конкурируют за то, чтобы быть активными в ответ на определенные входящие паттерны; те, что активны, когда есть внешнее вознаграждение, получают более сильные синапсы, но тактивные нейроны должны платить тем, которые активировели их, передавая им часть своей синапсной силы, таким образом вознагрождая спрятанные нейроны создавая условия для дальнейшего успех (последовательности?)

Искусственное оюбопытство

[править | править код]

В 1990 он опубликовал первую в длинной серии статей по искуственному любопытсву для автономнвх обьектов. The agent is equipped with an adaptive predictor trying to predict future events from the history of previous events and actions. A reward-maximizing, reinforcement learning, adaptive controller is steering the agent and gets curiosity reward for executing action sequences that improve the predictor. This discourages it from executing actions leading to boring outcomes that are either predictable or totally unpredictable. Instead the controller is motivated to learn actions that help the predictor to learn new, previously unknown regularities in its environment, thus improving its model of the world, which in turn can greatly help to solve externally given tasks. This has become an important concept of developmental robotics.

Unsupervised Learning / Factorial Codes

[править | править код]

During the early 1990s Schmidhuber also invented a neural method for nonlinear independent component analysis (ICA) called predictability minimization. It is based on co-evolution of adaptive predictors and initially random, adaptive feature detectors processing input patterns from the environment. For each detector there is a predictor trying to predict its current value from the values of neighboring detectors, while each detector is simultaneously trying to become as unpredictable as possible. It can be shown that the best the detectors can do is to create a factorial code of the environment, that is, a code that conveys all the information about the inputs such that the code components are statistically independent, which is desirable for many pattern recognition applications.

Колмогоровская сложность / Вселенная, созданная компьютером

[править | править код]

In 1997 Schmidhuber published a paper based on Konrad Zuse´s assumption (1967) that the history of the universe is computable. He pointed out that the simplest explanation of the universe would be a very simple Turing machine programmed to systematically execute all possible programs computing all possible histories for all types of computable physical laws. He also pointed out that there is an optimally efficient way of computing all computable universes based on Leonid Levin´s universal search algorithm (1973). In 2000 he expanded this work by combining Ray Solomonoff´s theory of inductive inference with the assumption that quickly computable universes are more likely than others. This work on digital physics also led to limit-computable generalizations of algorithmic information or Kolmogorov Complexity and the concept of Super Omegas, which are limit-computable numbers that are even more random (in a certain sense) than Gregory Chaitin´s number of wisdom Omega.

Универсальный ИИ

[править | править код]

Важные темы недавних исследований его группы включают универсальные обучающие алгоритмы Important recent research topics of his group include universal learning algorithms and universal AI. Contributions include the first theoretically optimal decision makers living in environments obeying arbitrary unknown but computable probabilistic laws, and mathematically sound general problem solvers such as the remarkable asymptotically fastest algorithm for all well-defined problems, by his former postdoc Marcus Hutter. Based on the theoretical results obtained in the early 2000s, Schmidhuber is actively promoting the view that in the new millennium the field of general AI has matured and become a real formal science.

Low-Complexity Art / Theory of Beauty

[править | править код]

Schmidhuber's low-complexity artworks (since 1997) can be described by very short computer programs containing very few bits of information, and reflect his formal theory of beauty based on the concepts of Kolmogorov complexity and minimum description length.

Schmidhuber writes that since age 15 or so his main scientific ambition has been to build an optimal scientist, then retire. First he wants to build a scientist better than himself (humorously, he quips that his colleagues claim that should be easy) who will then do the remaining work. He claims he "cannot see any more efficient way of using and multiplying the little creativity he's got".

Частичная библиография

[править | править код]

Some of the far more than 100 peer-reviewed articles:

  • J. Schmidhuber. Optimal Ordered Problem Solver. Machine Learning, 54, 211-254, 2004
  • J. Schmidhuber. Hierarchies of generalized Kolmogorov complexities and nonenumerable universal measures computable in the limit. International Journal of Foundations of Computer Science 13(4):587-612, 2002
  • J. Schmidhuber. The Speed Prior: A New Simplicity Measure Yielding Near-Optimal Computable Predictions. Proceedings of the 15th Annual Conference on Computational Learning Theory (COLT 2002), Sydney, Australia, LNAI, 216-228, Springer, 2002
  • J. Schmidhuber. Low-Complexity Art. Leonardo, Journal of the International Society for the Arts, Sciences, and Technology, 30(2):97-103, MIT Press, 1997
  • J. Schmidhuber. A computer scientist's view of life, the universe, and everything. Foundations of Computer Science: Potential - Theory - Cognition, Lecture Notes in Computer Science, pages 201-208, Springer, 1997
  • S. Hochreiter and J. Schmidhuber. Long Short-Term Memory. Neural Computation, 9(8):1735-1780, 1997
  • J. Schmidhuber. Learning factorial codes by predictability minimization. Neural Computation, 4(6):863-879, 1992
  • J. Schmidhuber. Curious model-building control systems. In Proc. International Joint Conference on Neural Networks, Singapore, volume 2, pages 1458-1463. IEEE, 1991
  • J. Schmidhuber. A local learning algorithm for dynamic feedforward and recurrent networks. Connection Science, 1(4):403-412, 1989


[[Category:1963 births]] [[Category:Living people]] [[Category:Artificial intelligence researchers]] [[Category:Machine learning researchers]] [[Category:Swiss computer scientists]]