Translation-Invariant Kernels for Multivariable Approximation
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F67985807%3A_____%2F21%3A00532708" target="_blank" >RIV/67985807:_____/21:00532708 - isvavai.cz</a>
Výsledek na webu
<a href="http://dx.doi.org/10.1109/TNNLS.2020.3026720" target="_blank" >http://dx.doi.org/10.1109/TNNLS.2020.3026720</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1109/TNNLS.2020.3026720" target="_blank" >10.1109/TNNLS.2020.3026720</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Translation-Invariant Kernels for Multivariable Approximation
Popis výsledku v původním jazyce
Suitability of shallow (one-hidden-layer) networks with translation-invariant kernel units for function approximation and classification tasks is investigated. It is shown that a critical property influencing the capabilities of kernel networks is how the Fourier transforms of kernels converge to zero. The Fourier transforms of kernels suitable for multivariable approximation can have negative values but must be almost everywhere nonzero. In contrast, the Fourier transforms of kernels suitable for maximal margin classification must be everywhere nonnegative but can have large sets where they are equal to zero (e.g., they can be compactly supported). The behavior of the Fourier transforms of multivariable kernels is analyzed using the Hankel transform. The general results are illustrated by examples of both univariable and multivariable kernels (such as Gaussian, Laplace, rectangle, sinc, and cut power kernels)
Název v anglickém jazyce
Translation-Invariant Kernels for Multivariable Approximation
Popis výsledku anglicky
Suitability of shallow (one-hidden-layer) networks with translation-invariant kernel units for function approximation and classification tasks is investigated. It is shown that a critical property influencing the capabilities of kernel networks is how the Fourier transforms of kernels converge to zero. The Fourier transforms of kernels suitable for multivariable approximation can have negative values but must be almost everywhere nonzero. In contrast, the Fourier transforms of kernels suitable for maximal margin classification must be everywhere nonnegative but can have large sets where they are equal to zero (e.g., they can be compactly supported). The behavior of the Fourier transforms of multivariable kernels is analyzed using the Hankel transform. The general results are illustrated by examples of both univariable and multivariable kernels (such as Gaussian, Laplace, rectangle, sinc, and cut power kernels)
Klasifikace
Druh
J<sub>imp</sub> - Článek v periodiku v databázi Web of Science
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
<a href="/cs/project/GA18-23827S" target="_blank" >GA18-23827S: Schopnosti a omezení mělkých a hlubokých sítí</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)<br>I - Institucionalni podpora na dlouhodoby koncepcni rozvoj vyzkumne organizace
Ostatní
Rok uplatnění
2021
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název periodika
IEEE Transactions on Neural Networks and Learning Systems
ISSN
2162-237X
e-ISSN
2162-2388
Svazek periodika
32
Číslo periodika v rámci svazku
11
Stát vydavatele periodika
US - Spojené státy americké
Počet stran výsledku
10
Strana od-do
5072-5081
Kód UT WoS článku
000711638200028
EID výsledku v databázi Scopus
2-s2.0-85092915493