Показать сокращенную информацию
| dc.rights.license | CC BY | cze |
| dc.contributor.author | Malík, Jaroslav | cze |
| dc.date.accessioned | 2025-12-05T10:45:25Z | |
| dc.date.available | 2025-12-05T10:45:25Z | |
| dc.date.issued | 2021 | cze |
| dc.identifier.issn | 1804-0969 | cze |
| dc.identifier.uri | http://hdl.handle.net/20.500.12603/1407 | |
| dc.description.abstract | V tomto článku se zabývám konceptem SI (superinteligence) a s ní spojeným problémem kontroly. Podle určité skupiny teoretiků umělé inteligence stojíme na prahu události, která může radikálně změnit povahu technologického pokroku a lidské společnosti obecně. Touto událostí má být takzvaná technologická singularita, která je často spojována se vznikem první větší než lidské inteligence. Lidé jako Nick Bostrom varují před nebezpečím, které pro nás vznik SI znamená a upozorňují, že musíme co nejdříve najít metody kontroly této inteligence. Podle Bostroma a dalších nebezpečí SI vyplývá z její povahy. Já na jedné straně posuzuji, jak SI může vzniknout, a na druhé straně soudím smysluplnost problému kontroly. Vznik SI vyplývá ze vzniku umělé inteligence. Proto soustřeďuji podstatnou část textu argumentům pro její vznik. Ukazují jak se Bostrom a další nechávají unést jedním problematickým argumentem. Dále podrobuji jejich pozici klasické kritice umělé inteligence. Prezentuji, jak stále lpí na problematických domněnkách svých předchůdců. Zejména soustřeďuji svoji kritiku na tvrzení, že SI bude mít jeden konečný cíl, který bude interpretovat. Toto tvrzení označuji jako antitetické, a to představě, že SI bude obecnou inteligencí. V závěru z mojí argumentace vyvozuji, že problém kontroly zaměňuje dva jiné různé problémy „kontroly.“ | cze |
| dc.format | p. 73-118 | cze |
| dc.language.iso | cze | cze |
| dc.publisher | Univerzita Hradec Králové | cze |
| dc.relation.ispartof | Filosofie dnes, volume 13, issue: 2 | cze |
| dc.subject | technologická singularita | cze |
| dc.subject | superinteligence | cze |
| dc.subject | umělá inteligence | cze |
| dc.subject | emulace celého mozku | cze |
| dc.subject | problém kontroly | cze |
| dc.subject | tělesnost | cze |
| dc.subject | technological singularity | eng |
| dc.subject | superintelligence | eng |
| dc.subject | artificial intelligence | eng |
| dc.subject | whole brain emulation | eng |
| dc.subject | control problem | eng |
| dc.subject | embodiment | eng |
| dc.title | Superinteligence a problém kontroly: Skutečný problém nebo pseudo-problém? | cze |
| dc.title.alternative | Superintelligence and the control problem: Real problem or pseudo-problem? | eng |
| dc.type | article | cze |
| dc.identifier.obd | 43878501 | cze |
| dc.identifier.doi | 10.26806/fd.v13i2.343 | cze |
| dc.description.abstract-translated | In this paper, I deal with the concept of SI (superintelligence) and the control problem. According to a group of AI theorists, we will soon experience an event that can change technological progress and human society. This event is the technological singularity associated with the emergence of the first greater than human intelligence. People like Nick Bostrom stress the SI’s dangers and urge us to find methods to control this intelligence. According to Bostrom and others, the threat of SI stems from its nature. This article considers how SI can be created and judges the logic of the control problem. SI is possible only if we can create AI. For this reason, a section of the text concentrates on the arguments for the creation of AI. It is shown how Bostrom and others base their thesis on one problematic argument and assumptions of their predecessors. Their position is subjected to the classical critique of artificial intelligence. I primarily focus my criticism on the claim that SI will have one final goal, which it will interpret. This statement is antithetical to the idea that SI will be a general intelligence. I conclude that the control problem confuses two other different “control” problems. | eng |
| dc.publicationstatus | postprint | cze |
| dc.peerreviewed | yes | cze |
| dc.source.url | https://filosofiednes.ff.uhk.cz/index.php/hen/article/view/343 | cze |
| dc.relation.publisherversion | https://filosofiednes.ff.uhk.cz/index.php/hen/article/view/343 | cze |
| dc.rights.access | Open Access | cze |