Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Hybrid retinal image registration using phase correlation

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216305%3A26220%2F13%3APU105459" target="_blank" >RIV/00216305:26220/13:PU105459 - isvavai.cz</a>

  • Výsledek na webu

    <a href="http://www.ingentaconnect.com/content/maney/isj/2013/00000061/00000004/art00004" target="_blank" >http://www.ingentaconnect.com/content/maney/isj/2013/00000061/00000004/art00004</a>

  • DOI - Digital Object Identifier

    <a href="http://dx.doi.org/10.1179/1743131X11Y.0000000065" target="_blank" >10.1179/1743131X11Y.0000000065</a>

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Hybrid retinal image registration using phase correlation

  • Popis výsledku v původním jazyce

    This paper deals with registration of retinal images, which were taken by highresolution digital colour fundus cameras. The proposed method describes successful application of phase correlation method. It combines several basic steps - global correctionof shift, rotation and scaling, detection of landmarks, their correspondences and finally image registration using second-order polynomial model. The method is tested on two sets of images. The first set contains images from the diabetic patients where many retinal pathologies can disturb the registration process. The second set contains images from healthy subjects, which were acquired by different illumination conditions. The method was evaluated using four different criteria - tree objective and onesubjective. These criteria are also compared. The achieved registration accuracy of the landmarks position error is 1.13 and 0.93 pixels for respective image sets. Finally, the simple scheme for retinal pathology visualisation of register

  • Název v anglickém jazyce

    Hybrid retinal image registration using phase correlation

  • Popis výsledku anglicky

    This paper deals with registration of retinal images, which were taken by highresolution digital colour fundus cameras. The proposed method describes successful application of phase correlation method. It combines several basic steps - global correctionof shift, rotation and scaling, detection of landmarks, their correspondences and finally image registration using second-order polynomial model. The method is tested on two sets of images. The first set contains images from the diabetic patients where many retinal pathologies can disturb the registration process. The second set contains images from healthy subjects, which were acquired by different illumination conditions. The method was evaluated using four different criteria - tree objective and onesubjective. These criteria are also compared. The achieved registration accuracy of the landmarks position error is 1.13 and 0.93 pixels for respective image sets. Finally, the simple scheme for retinal pathology visualisation of register

Klasifikace

  • Druh

    J<sub>x</sub> - Nezařazeno - Článek v odborném periodiku (Jimp, Jsc a Jost)

  • CEP obor

    JA - Elektronika a optoelektronika, elektrotechnika

  • OECD FORD obor

Návaznosti výsledku

  • Projekt

  • Návaznosti

    S - Specificky vyzkum na vysokych skolach

Ostatní

  • Rok uplatnění

    2013

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů

Údaje specifické pro druh výsledku

  • Název periodika

    IMAGING SCIENCE JOURNAL

  • ISSN

    1368-2199

  • e-ISSN

  • Svazek periodika

    61

  • Číslo periodika v rámci svazku

    4

  • Stát vydavatele periodika

    GB - Spojené království Velké Británie a Severního Irska

  • Počet stran výsledku

    16

  • Strana od-do

    269-384

  • Kód UT WoS článku

  • EID výsledku v databázi Scopus