Vše

Co hledáte?

Vše
Projekty
Výsledky výzkumu
Subjekty

Rychlé hledání

  • Projekty podpořené TA ČR
  • Významné projekty
  • Projekty s nejvyšší státní podporou
  • Aktuálně běžící projekty

Chytré vyhledávání

  • Takto najdu konkrétní +slovo
  • Takto z výsledků -slovo zcela vynechám
  • “Takto můžu najít celou frázi”

Artificial moral experts?

Identifikátory výsledku

  • Kód výsledku v IS VaVaI

    <a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F00216224%3A14210%2F17%3A00098170" target="_blank" >RIV/00216224:14210/17:00098170 - isvavai.cz</a>

  • Výsledek na webu

  • DOI - Digital Object Identifier

Alternativní jazyky

  • Jazyk výsledku

    angličtina

  • Název v původním jazyce

    Artificial moral experts?

  • Popis výsledku v původním jazyce

    In his paper 'Artificial intelligence as a means to moral enhancement', Michał Klincewicz presents a form of human moral enhancement through proposed advisory systems based on artificial intelligence (AI). In this talk, I argue against potential usefulness of such systems. My argument is based on the principal difference in phenomenology of human mind and potential artificial mind. I claim that there might be no common ground for those two kinds of minds to agree upon when it comes to the new and complex moral decisions. Therefore, relying on such systems could lead to the solutions proposed by AI-based moral advisory systems that might not be acceptable or on a par with our preferences and/or values.

  • Název v anglickém jazyce

    Artificial moral experts?

  • Popis výsledku anglicky

    In his paper 'Artificial intelligence as a means to moral enhancement', Michał Klincewicz presents a form of human moral enhancement through proposed advisory systems based on artificial intelligence (AI). In this talk, I argue against potential usefulness of such systems. My argument is based on the principal difference in phenomenology of human mind and potential artificial mind. I claim that there might be no common ground for those two kinds of minds to agree upon when it comes to the new and complex moral decisions. Therefore, relying on such systems could lead to the solutions proposed by AI-based moral advisory systems that might not be acceptable or on a par with our preferences and/or values.

Klasifikace

  • Druh

    O - Ostatní výsledky

  • CEP obor

  • OECD FORD obor

    60300 - Philosophy, Ethics and Religion

Návaznosti výsledku

  • Projekt

  • Návaznosti

    S - Specificky vyzkum na vysokych skolach

Ostatní

  • Rok uplatnění

    2017

  • Kód důvěrnosti údajů

    S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů