Using Local Convolutional Units to Defend against Adversarial Examples
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216208%3A11320%2F19%3A10408042" target="_blank" >RIV/00216208:11320/19:10408042 - isvavai.cz</a>
Výsledek na webu
<a href="https://doi.org/10.1109/IJCNN.2019.8852393" target="_blank" >https://doi.org/10.1109/IJCNN.2019.8852393</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1109/IJCNN.2019.8852393" target="_blank" >10.1109/IJCNN.2019.8852393</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Using Local Convolutional Units to Defend against Adversarial Examples
Popis výsledku v původním jazyce
Deep neural networks are known to be sensitive to adversarial examples - inputs that are created in such a way that they are similar (if viewed by people) to clean inputs, but the neural network has high confidence that they belong to another class.In this paper, we study a new type of neural network unit similar to the convolutional units, but with a more local behavior. The unit is based on the Gaussian radial basis function. We show that if we replace the first convolutional layer in a convolutional network by the new layer (called RBFolutional), we obtain better robustness towards adversarial samples on the MNIST and CIFAR10 datasets, without sacrificing the performance on the clean examples.
Název v anglickém jazyce
Using Local Convolutional Units to Defend against Adversarial Examples
Popis výsledku anglicky
Deep neural networks are known to be sensitive to adversarial examples - inputs that are created in such a way that they are similar (if viewed by people) to clean inputs, but the neural network has high confidence that they belong to another class.In this paper, we study a new type of neural network unit similar to the convolutional units, but with a more local behavior. The unit is based on the Gaussian radial basis function. We show that if we replace the first convolutional layer in a convolutional network by the new layer (called RBFolutional), we obtain better robustness towards adversarial samples on the MNIST and CIFAR10 datasets, without sacrificing the performance on the clean examples.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
<a href="/cs/project/GJ17-10090Y" target="_blank" >GJ17-10090Y: Optimalizace sítí</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2019
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
2019 International Joint Conference on Neural Networks (IJCNN)
ISBN
978-1-72811-985-4
ISSN
—
e-ISSN
—
Počet stran výsledku
8
Strana od-do
1-8
Název nakladatele
IEEE
Místo vydání
Neuveden
Místo konání akce
Budapešť, Maďarsko
Datum konání akce
14. 7. 2019
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
—