Umělá inteligence aneb keňští anotátoři v čínské komnatě
Identifikátory výsledku
Kód výsledku v IS VaVaI
<a href="https://www.isvavai.cz/riv?ss=detail&h=RIV%2F49777513%3A23330%2F23%3A43969328" target="_blank" >RIV/49777513:23330/23:43969328 - isvavai.cz</a>
Výsledek na webu
—
DOI - Digital Object Identifier
—
Alternativní jazyky
Jazyk výsledku
čeština
Název v původním jazyce
Umělá inteligence aneb keňští anotátoři v čínské komnatě
Popis výsledku v původním jazyce
Přednáška popularizuje Searlův myšlenkový experiment „čínského pokoje“, který je klasickým filozofickým argumentem proti silné či obecné umělé inteligenci (UI): manipulace se znaky na základě syntaktických pravidel nezaručuje porozumění sémantice, resp. počítačový program není dostatečnou podmínkou pro intencionalitu. Současná UI, zejména v podobě neuronových jazykových modelů, je často prezentována tak, že rozumí přirozenému jazyku nebo že reprezentuje poznání světa. Blake Lemoine, vývojář z Googlu, dokonce tvrdí, že systém LaMDA pociťuje emoce a bojí se vypnutí jako smrti. Sam Altman, výkonný ředitel z OpenAI, jež provozuje ChatGPT a DALL-E, hlásá, že jejich posláním není tvorba generátorů obrázků, nýbrž obecné UI. Ačkoliv je aktuální vývoj generativní UI pozoruhodný a její výkony fascinující, nejen mezi filozofy přetrvávají pochybnosti o základních principech jejího fungování, totiž o možnosti zachytit významy slov prostřednictvím vektorů a nahradit lidskou komunikaci a porozumění statistickou predikcí tokenů. Cílem přednášky je nastínit širší historicko-filozofický kontext Searlova argumentu a podnítit diskuzi o jeho platnosti vzhledem k dnešní UI. Do čínského pokoje tak postupně zavřeme Johna Searla s několika jeho oponenty, keňské anotátory najaté OpenAI a chobotnici, abychom je posléze propustili na počátku moderní filozofické tradice z Leibnizova mlýna.
Název v anglickém jazyce
Artificial intelligence or Kenyan annotators in the Chinese room
Popis výsledku anglicky
The lecture popularizes Searle's "Chinese room" thought experiment, which is a classic philosophical argument against strong or general artificial intelligence (UI): manipulation of characters based on syntactic rules does not guarantee understanding of semantics, or a computer program is not a sufficient condition for intentionality. Current AI, especially in the form of neural language models, is often presented as understanding natural language or as representing knowledge of the world. Blake Lemoine, a developer from Google, even claims that the LaMDA system feels emotions and fears shutting down like death. Sam Altman, CEO of OpenAI, which runs ChatGPT and DALL-E, proclaims that their mission is not to create image generators, but general UI. Although the current development of generative UI is remarkable and its performance fascinating, doubts remain not only among philosophers about the basic principles of its operation, namely the possibility of capturing the meanings of words through vectors and replacing human communication and understanding with statistical prediction of tokens. The aim of the lecture is to outline the broader historical-philosophical context of Searle's argument and to stimulate a discussion about its validity in relation to today's UI. We will gradually lock John Searle with several of his opponents, Kenyan annotators hired by OpenAI and an octopus in the Chinese room, in order to release them at the beginning of the modern philosophical tradition from Leibniz's mill.
Klasifikace
Druh
O - Ostatní výsledky
CEP obor
—
OECD FORD obor
60301 - Philosophy, History and Philosophy of science and technology
Návaznosti výsledku
Projekt
—
Návaznosti
S - Specificky vyzkum na vysokych skolach
Ostatní
Rok uplatnění
2023
Kód důvěrnosti údajů
S - Úplné a pravdivé údaje o projektu nepodléhají ochraně podle zvláštních právních předpisů