Lightweight Monocular Depth with a Novel Neural Architecture Search Method
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F68407700%3A21230%2F22%3A00362944" target="_blank" >RIV/68407700:21230/22:00362944 - isvavai.cz</a>
Výsledek na webu
<a href="https://doi.org/10.1109/WACV51458.2022.00040" target="_blank" >https://doi.org/10.1109/WACV51458.2022.00040</a>
DOI - Digital Object Identifier
<a href="http://dx.doi.org/10.1109/WACV51458.2022.00040" target="_blank" >10.1109/WACV51458.2022.00040</a>
Alternativní jazyky
Jazyk výsledku
angličtina
Název v původním jazyce
Lightweight Monocular Depth with a Novel Neural Architecture Search Method
Popis výsledku v původním jazyce
This paper presents a novel neural architecture search method, called LiDNAS, for generating lightweight monocular depth estimation models. Unlike previous neural architecture search (NAS) approaches, where finding optimized networks is computationally demanding, the introduced novel Assisted Tabu Search leads to efficient architecture exploration. Moreover, we construct the search space on a pre-defined backbone network to balance layer diversity and search space size. The LiDNAS method outperforms the state-of-the-art NAS approach, proposed for disparity and depth estimation, in terms of search efficiency and output model performance. The LiDNAS optimized models achieve result superior to compact depth estimation state-of-the-art on NYU-Depth-v2, KITTI, and ScanNet, while being 7%-500% more compact in size, i.e the number of model parameters.
Název v anglickém jazyce
Lightweight Monocular Depth with a Novel Neural Architecture Search Method
Popis výsledku anglicky
This paper presents a novel neural architecture search method, called LiDNAS, for generating lightweight monocular depth estimation models. Unlike previous neural architecture search (NAS) approaches, where finding optimized networks is computationally demanding, the introduced novel Assisted Tabu Search leads to efficient architecture exploration. Moreover, we construct the search space on a pre-defined backbone network to balance layer diversity and search space size. The LiDNAS method outperforms the state-of-the-art NAS approach, proposed for disparity and depth estimation, in terms of search efficiency and output model performance. The LiDNAS optimized models achieve result superior to compact depth estimation state-of-the-art on NYU-Depth-v2, KITTI, and ScanNet, while being 7%-500% more compact in size, i.e the number of model parameters.
Klasifikace
Druh
D - Stať ve sborníku
CEP obor
—
OECD FORD obor
10201 - Computer sciences, information science, bioinformathics (hardware development to be 2.2, social aspect to be 5.8)
Návaznosti výsledku
Projekt
<a href="/cs/project/EF16_019%2F0000765" target="_blank" >EF16_019/0000765: Výzkumné centrum informatiky</a><br>
Návaznosti
P - Projekt vyzkumu a vyvoje financovany z verejnych zdroju (s odkazem do CEP)
Ostatní
Rok uplatnění
2022
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů
Údaje specifické pro druh výsledku
Název statě ve sborníku
Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2022
ISBN
978-1-6654-0915-5
ISSN
2472-6737
e-ISSN
2642-9381
Počet stran výsledku
11
Strana od-do
326-336
Název nakladatele
IEEE Computer Society
Místo vydání
USA
Místo konání akce
Waikoloa
Datum konání akce
3. 1. 2022
Typ akce podle státní příslušnosti
WRD - Celosvětová akce
Kód UT WoS článku
000800471200033