Approximation and learning of multivariable functions by neural networks and kernel methods
Project goals
The goal of the project is to contribute to the interaction between classical and newly developed mathematical ideas and hallenging application domains of machine learning and neurocomputing. To describe properties which make neural networks and kernel models efficient and flexible tools for learning reasonable approximations of high-dimensional mappings, learning with generalization capability will be investigated as a regularized optimization problem in reproducing kernel Hilbert spaces. There will bederived mathematical results on minimization of functionals defined by data, various types of their regularization, nonlinear approximation schemes, rates of approximation, integral representations, properties of operators and their eigenvalues. Theseresults will be applied to families of multivariable functions corresponding to various neurocomputing and kernel computational models. Their consequences will be formulated in terms of complexity of neural networks and learning. Taking advantage of
Keywords
learning from datanonlinear approximationneural networkskernel methods
Public support
Provider
Czech Science Foundation
Programme
Standard projects
Call for proposals
Standardní projekty 8 (SGA02005GA-ST)
Main participants
—
Contest type
VS - Public tender
Contract ID
201/05/0557
Alternative language
Project name in Czech
Aproximace a učení funkcí více proměnných pomocí neuronových sítí a jádrových metod
Annotation in Czech
Cílem projektu je přispět k interakci mezi klasickými a nově vytvářenými matematickými pojmy a rozvíjejícími se obory neuropočítání a strojového učení. Aby mohly být popsány vlastnosti, které způsobují, že jsou neuronové sítě a jádrové modely efektivní aflexibilní nástroje pro učení aproximací funkcí mnoha proměnných, bude učení se schopností generalizace studováno jako regularizovaná optimalizační úloha v Hilbertových prostorech s reprodukčním jádrem. Budou odvozeny matematické výsledky týkající se minimalizaci funkcionálů definovaných pomocí dat, různých typů jejich regularizace, nelineárních aproximačních schemat, rychlosti aproximace, integrálních reprezentací, vlastností operátorů a jejich vlastních čísel. Tyto výsledky budou aplikovány na množinyfunkcí více proměnných odpovídající různým typům neuronových a jádrových výpočetních modelů. Jejich důsledky budou formulovány v termínech složitosti neuronových sítí a učení. Na základě konstruktivních důkazových technik budou odvozena fuzzy
Scientific branches
R&D category
ZV - Basic research
CEP classification - main branch
IN - Informatics
CEP - secondary branch
BA - General mathematics
CEP - another secondary branch
—
10101 - Pure mathematics
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Completed project evaluation
Provider evaluation
V - Vynikající výsledky projektu (s mezinárodním významem atd.)
Project results evaluation
Possibilities of learning with generalization from high-dimensional data by neural networks and kernel models were studied using methods from nonlinear approximation and optimization theory. New mathematical results on minimization of error functionals d
Solution timeline
Realization period - beginning
Jan 1, 2005
Realization period - end
Dec 31, 2007
Project status
U - Finished project
Latest support payment
May 2, 2007
Data delivery to CEP
Confidentiality
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Data delivery code
CEP08-GA0-GA-U/04:3
Data delivery date
Dec 16, 2008
Finance
Total approved costs
1,260 thou. CZK
Public financial support
1,260 thou. CZK
Other public sources
0 thou. CZK
Non public and foreign sources
0 thou. CZK
Recognised costs
1 260 CZK thou.
Public support
1 260 CZK thou.
0%
Provider
Czech Science Foundation
CEP
IN - Informatics
Solution period
01. 01. 2005 - 31. 12. 2007