top of page

Čo sa vieme naučiť z histórie umelej inteligencie alebo prečo nie sú katastrofické scenáre správne


a portrait of a white robot


Odkiaľ pramení strach z umelej inteligencie


Keď sa objaví nová technológia, ktorá je natoľko výkonná, že môže zásadne ovplyvniť naše životy, prirodzene sa vynárajú obavy. V prípade umelej inteligencie ide často o predstavy strojov, ktoré sa vymknú kontrole, nastavia si vlastné ciele a rozhodnú sa, že ľudstvo už nepotrebujú.


Tieto scenáre sú známe z filmov ako Ex Machina či Matrix, no majú aj svoje filozofické korene. Už v roku 1950 sa Alan Turing zaoberal otázkou, či stroj môže myslieť. Navrhol tzv. Turingov test – ak stroj dokáže v rozhovore presvedčiť človeka, že je tiež človek, možno ho považovať za inteligentného. Neskôr filozof John Searle poukázal na to, že aj keď stroj dokáže odpovedať zmysluplne, nemusí to znamenať, že rozumie. Vo svojom myšlienkovom experimente s „čínskej izbou“ ukázal, že schopnosť manipulovať so symbolmi ešte neznamená porozumenie. V modernej dobe tieto úvahy rozvíja Nick Bostrom, ktorý varuje pred tzv. „superinteligenciou“. Tvrdí, že umelá inteligencia nemusí byť zlomyseľná – stačí, že bude slepo plniť svoj cieľ. Ak jej tento cieľ nenastavíme správne, môže neúmyselne spôsobiť katastrofu. Príklad: AI, ktorej úlohou je vyrábať spinky, by teoreticky mohla obetovať všetko – aj ľudí – v prospech maximalizácie ich výroby.


Enigma cipher machine

Nie je to prvýkrát, čo sa bojíme technológie


História nás učí, že podobné obavy sa opakujú vždy, keď sa na scéne objaví nová, silná technológia. V 19. storočí vyvolali parné stroje protesty robotníkov, ktorí sa báli, že ich stroje pripravia o prácu. Niektorí z nich – známi ako ludditi – dokonca nové zariadenia ničili. Keď sa objavili prvé počítače, mnohí sa obávali, že stroje budú rozhodovať za nás a nahradia ľudskú kreativitu. Priemyselné roboty v 80. rokoch boli zase spájané s koncom pracovných miest. V každom z týchto prípadov však technológia priniesla nielen výzvy, ale aj nové možnosti.


Dnes už vieme, že parné stroje neznamenali koniec práce, ale jej transformáciu. Počítače nám neubrali schopnosť myslieť – naopak, otvorili nové priestory pre poznávanie. A AI môže byť rovnakým prípadom – ak k nej budeme pristupovať s rešpektom, ale aj rozvahou. Umelá inteligencia môže automatizovať rutinné činnosti, pomôcť v zdravotníctve, školstve či výskume – ak ju využijeme ako nástroj, nie ako náhradu človeka. To, čo rozhodne o jej prínose alebo riziku, nie je samotná technológia, ale spôsob, akým s ňou narábame. Rovnako ako nôž môže byť nástroj na krájanie chleba aj zbraň, AI bude len taká „dobrá“ alebo „zlá“, ako ju nastavíme a použijeme.


Ako sa dá predchádzať rizikám: zákony, hodnoty a regulácie


Aj keď sú niektoré scenáre o „zlej AI“ prehnané, neznamená to, že by sme mali zostať nepozorní. Každá silná technológia si zaslúži pravidlá a kontrolu. Rovnako ako máme dopravné predpisy pre autá alebo etické kódexy pre medicínu, potrebujeme aj rámec pre to, ako AI navrhovať a používať.


Prvé pokusy o takéto pravidlá nájdeme už vo vedeckej fantastike. Spisovateľ Isaac Asimov vo svojich knihách o robotoch predstavil tri známe zákony robotiky:


  1. Robot nesmie ublížiť človeku, ani svojou nečinnosťou dopustiť, aby sa mu ublížilo.

  2. Robot musí poslúchať príkazy človeka, pokiaľ tieto príkazy neporušujú prvý zákon.

  3. Robot musí chrániť sám seba, pokiaľ tým neporuší prvé dva zákony.


Tieto zákony sú, samozrejme, fiktívne a zjednodušené, ale vyjadrujú dôležitú myšlienku: že technológia musí slúžiť človeku, nie naopak. Moderné prístupy na túto myšlienku nadväzujú – len v zložitejších a realistickejších rámcoch. Dnes sa odborníci aj inštitúcie zhodujú na niekoľkých základných princípoch, ktoré by mala AI rešpektovať, ak má byť bezpečná a dôveryhodná. Patrí medzi ne najmä transparentnosť, zodpovednosť, férovosť a bezpečnosť.


Transparentnosť


Umelá inteligencia dnes často funguje ako „čierna skrinka“ – vieme, čo zadáme a aký dostaneme výstup, ale netušíme, čo sa deje vo vnútri. Transparentnosť znamená, že by malo byť zrozumiteľne vysvetlené, na základe čoho AI rozhoduje. Najmä v citlivých oblastiach, ako je zdravotná diagnostika, prideľovanie sociálnych dávok či rozhodovanie o prijatí do zamestnania, je dôležité vedieť, prečo systém rozhodol tak, ako rozhodol. Inak hrozí strata dôvery – a práv.


Zodpovednosť


Ak AI urobí chybu – napríklad zamietne žiadosť neoprávnene, alebo navrhne liečbu, ktorá pacienta poškodí – musí byť jasné, kto za to zodpovedá. Vývojár? Firma, ktorá systém nasadila? Alebo samotný používateľ? Bez jasne určených zodpovedností môžu ľudia skončiť v situácii, kde sa „nikto necíti vinný“, ale následky nesie bežný človek. Zodpovednosť znamená, že vždy musí existovať ľudský článok reťazca, ktorý dohliada a nesie následky.


Férovosť


AI systémy sa učia na dátach – a tie môžu obsahovať predsudky. Ak v minulosti dostávali ženy menej úverov alebo boli uchádzači z menšín častejšie odmietaní, systém to môže „pochopiť“ ako normu. Výsledkom je diskriminácia, ktorú si možno nikto ani neuvedomuje. Férovosť znamená, že musíme kontrolovať, či a ako sú rozhodnutia AI ovplyvnené rodovou, etnickou, vekovou alebo inou zaujatostou – a tieto skreslenia aktívne odstraňovať.


woman working with six laptop screens

Bezpečnosť


A nakoniec: AI by mala fungovať spoľahlivo a bezpečne – inými slovami predvídateľne, s možnosťou kontroly a v súlade s úmyslami svojich tvorcov. To platí najmä pri systémoch, ktoré zasahujú do fyzického sveta: autonómne vozidlá, zdravotnícke roboty či systémy na rozhodovanie v armáde. Bezpečnosť v tomto kontexte neznamená len „nespôsobí výbuch“, ale aj „nebude konať nečakane, zmätočne alebo neeticky“. Tieto zásady tvoria základ tzv. etickej AI – takej, ktorá má nielen výkon, ale aj hodnoty. A hoci sa ich presné znenie môže líšiť, spoločným menovateľom je snaha o rovnováhu medzi inováciou a zodpovednosťou. Nestačí, že technológia dokáže niečo urobiť – musíme sa pýtať, či by mala a ako to urobiť správne.


Mnohé výskumné inštitúcie aj technologické firmy si vytvárajú vlastné etické kódexy, no bez právne záväzných pravidiel môžu zostať len na papieri. Aj preto vznikajú snahy o reguláciu na národnej aj medzinárodnej úrovni. Európska únia napríklad pripravila AI Act, ktorý má určovať, ktoré systémy sú rizikové (napr. tie, ktoré rozhodujú o ľudských právach) a ktoré sú menej problematické. Cieľom nie je brzdiť vývoj, ale zabezpečiť, aby bol bezpečný, etický a pod verejnou kontrolou. Samozrejme, regulácia nestačí, ak nemáme jasnú predstavu o tom, akú spoločnosť vlastne chceme budovať. Ak veríme v hodnoty ako dôstojnosť, spolupráca, spravodlivosť či rovnosť šancí, mali by sme ich premietnuť aj do technológií, ktoré vytvárame.


Budúcnosť AI: medzi rozumom a predstavivosťou


Umelá inteligencia nie je prvá technológia, ktorá v nás vyvolala obavy z budúcnosti – a určite nebude posledná. História ukazuje, že strach z neznámeho je prirodzený, ale zároveň nás nemusí paralyzovať. Parné stroje, počítače aj roboti priniesli zmeny, no nie koniec sveta. A rovnako aj AI – ak k nej pristúpime s rozvahou, môže byť nástrojom, ktorý nám pomôže riešiť problémy, nie ich vytvárať.


Filozofické diskusie od Alana Turinga po Nicka Bostroma nás privádzajú k základným, no stále otvoreným otázkam: Čo vlastne znamená myslieť? Môže stroj „rozumieť“ svetu ako človek, alebo iba napodobňuje naše správanie? Kedy je systém skutočne inteligentný – a kde je hranica medzi simuláciou a vedomím?


Už v roku 1950 navrhol Turing svoj známy test, ktorý skúmal, či sa dá rozlíšiť odpoveď človeka od odpovede stroja. Ak stroj dokáže viesť rozhovor tak, že si ho zameníme s človekom, je to dôkaz inteligencie? Podľa Turinga áno – preňho bola inteligencia skôr otázkou správania ako vnútra. No nie všetci s ním súhlasili. John Searle, filozof mysle, priniesol známy argument „Čínskej izby“, ktorý tvrdí, že aj keď stroj správne odpovedá na čínske znaky, ešte to neznamená, že im rozumie. Podobne ako človek, ktorý síce vie manipulovať so slovami pomocou návodu, ale nechápe ich význam. Tým ukázal, že medzi výkonom a pochopením môže byť zásadný rozdiel. Moderné debaty, ako tie od Nicka Bostroma, sa posúvajú ďalej – pýtajú sa, čo sa stane, ak by AI raz predbehla ľudskú inteligenciu. Bostrom hovorí o superinteligencii a možných rizikách, ak by sme stratili nad technológiou kontrolu. Ide však stále o hypotetické scenáre, ktoré stoja na množstve predpokladov. Zatiaľ nevieme, či je vedomie viazané výlučne na biologické procesy, alebo ho možno „vypočítať“.


Tieto diskusie nám však neponúkajú jednoznačné odpovede. Ich hodnota je v niečom inom – pomáhajú nám vnímať AI nie ako magickú čiernu skrinku, ale ako komplexný výtvor, ktorý odráža naše poznanie, predsudky, hodnoty a zámer. Učia nás pýtať sa nielen „čo dokáže“, ale aj „čo by mala dokázať“ a „čo to o nás hovorí“.


woman writing with a robotic hand

Zároveň však nemôžeme AI vnímať ako „len ďalší nástroj“. Je to technológia, ktorá sa učí, adaptuje a môže zasahovať do oblastí, ktoré boli donedávna výlučne ľudské. Práve preto potrebujeme jasné pravidlá, otvorené diskusie a zodpovedný vývoj. Regulácia ako AI Act nie je byrokratickou prekážkou, ale spôsobom, ako zabezpečiť, že vývoj napreduje bezpečne a férovo pre všetkých. Budúcnosť umelej inteligencie sa teda nepíše v laboratóriách ani v sci-fi románoch – ale v každodenných rozhodnutiach vývojárov, politikov, učiteľov, novinárov… a aj nás, bežných používateľov. AI nie je niečo, čo sa nám stane – je to niečo, čo spolu vytvárame. A práve to je dôvod, prečo sa jej netreba báť, ale nad ňou premýšľať.


Záver


Svet sa mení a s ním aj technológie, ktoré používame. Umelá inteligencia nie je čarovný prútik ani nezastaviteľná hrozba – je to výtvor ľudí, ktorý odráža to najlepšie, ale aj najrizikovejšie z nás. Či bude AI naším pomocníkom, alebo problémom, nezávisí od nej samej, ale od toho, ako sa k nej postavíme. Namiesto paniky či bezbrehej dôvery potrebujeme rozumný dialóg, etický rámec a ľudský pohľad. Budúcnosť AI ešte nie je napísaná – a práve preto máme šancu ju ovplyvniť.


Zdroje a odporúčaná literatúra:


  • Alan Turing (1950): Computing Machinery and Intelligence

  • John Searle (1980): Minds, Brains, and Programs (argument čínskej izby)

  • Nick Bostrom (2014): Superintelligence: Paths, Dangers, Strategies

  • Asimov, Isaac: Runaround (1942) – prvé formulovanie „Trojzákona robotiky“

  • The European AI Act – Oficiálna stránka Európskej komisie

  • Stuart Russell & Peter Norvig: Artificial Intelligence: A Modern Approach

  • Luciano Floridi: Ethics of Artificial Intelligence

  • Future of Life Institute – www.futureoflife.org

  • AI Now Institute – www.ainowinstitute.org

bottom of page