Zahlavi

Nástup umělé inteligence je milníkem, říká vítězka soutěže Centra Karla Čapka

30. 06. 2022

Mnoho literárních a filmových předloh umělou inteligenci zobrazuje jako hrozbu, která pravděpodobně zahubí celé lidstvo. Není ale tato představa přehnaná? Co je umělá inteligence? Jak velkou autonomii bychom jí měli přenechat? A jaké etické problémy se s ní pojí? Podobné otázky si klade ve své eseji Autonomie, roboti a umělá inteligence studentka Gymnázia Špitálská Lucie Soukalová, která s textem vyhrála soutěž Centra Karla Čapka pro studium hodnot ve vědě a technice.

Lucie Soukalová je studentkou sexty na Gymnáziu Špitálská v Praze Vysočanech a v letech 2020/21 byla stážistkou Otevřené vědyÚstavu státu a práva AV ČR, kde se věnovala tématu etika a autonomie umělé inteligence. Lucii jsme položili pár otázek:

Vaše esej začíná slovy – „Žijeme na přelomu dvou velkých kapitol lidské historie: před a po rozšíření umělé inteligence.” Vidíte v nástupu umělé inteligence opravdu takový milník v dějinách lidstva?

Určitě, je to opravdu technologie, která změní jak náš každodenní život, tak celou situaci lidstva. Nástup a rozšiřování umělé inteligence v různých oblastech bude mít za následek obří technologický „boom“.

Když mluvíme o umělé inteligenci, jak si ji máme představit? Jako chytrý počítač?   

Je to vlastně velmi komplikovaný počítačový program. Existují různé úrovně umělé inteligence podle schopností. Máme umělou inteligenci úzkou, to je ta, která se zaměřuje na konkrétní činnost a je v ní mnohem schopnější než člověk (například počítač Deep Blue, který je nejlepší na světě v šachách), pak máme obecnou umělou inteligenci, která je stejně dobrá jako člověk, a pak máme superinteligenci, která je schopnější než člověk ve všech oblastech. Omezování umělé inteligence pouze na chytrý počítač by mohlo mít za následek, že ji budeme podceňovat. I když je to technicky vzato správně, měli bychom o ní přemýšlet spíše jako o velmi schopném programu, který dokáže být skvělým nástrojem v dokazování spousty věcí. Musíme si ale uvědomit, že umělá inteligence má růžné stupně schopností a zároveň může být mnohem mocnější než jakýkoli superpočítač.

V eseji se zabýváte autonomií umělé inteligence. Využíváte k jejímu popisu systém „tří smyček“. Můžeme si nejdříve představit, co autonomií míníte a jak ji provázat k oněm smyčkám? Jak si mám představit samostatnost umělé inteligence?   

V oboru umělé inteligence o samostatnosti – tedy autonomii – mluvíme zejména u autonomních aut a zbraňových systémů. Pojem autonomie je hlavním předmětem eseje. Z mého pohledu je nejlepší přístup tří smyček. To je dělení autonomie podle toho, jestli na ni člověk dohlíží, je přímo ve smyčce, nebo vůbec do smyčky nezasahuje.

Lucie Soukalová soutěž vyhrála s esejí na téma autonomie umělé inteligence
Lucie Soukalová soutěž vyhrála s esejí na téma autonomie umělé inteligence.

To si vyžaduje detailnější pohled. Můžete uvést nějaký konkrétní příklad?  

Třeba u autonomních zbraní je to smyčka mezi zbraní, čidly, které detekují nepřítele, a pak třeba řídicí centrálou. V případě, že se jedná o systém ve smyčce, tedy in the loop, tak je tam lidský operátor, který musí potvrdit příkaz, aby systém vůbec mohl fungovat. Při systému on the loop člověk pouze dohlíží. Dostává zprávu o dalším kroku systému – má časový limit a může, ale nemusí zasáhnout. Rozdíl je, že po nějakou dobu bude systém pracovat i bez člověka. Do systémů out of the loop člověk vůbec nezasahuje, není potřeba je jakýmkoli způsobem kontrolovat. V etice a filozofii se autonomie obecně považuje za schopnost dávat si svá vlastní pravidla a rozhodovat sám za sebe – přesně toho ale z definice věci umělá inteligence není schopna. Jde tedy o mylnou definici a měli bychom ji významově posunout do praktického hlediska – kde slovo autonomie významově oslabíme.

Takže autonomii si můžeme představit jako akci a reakci, která probíhá bez účasti člověka?  

Spíše bych ji nazvala schopností systému jednat bez jakékoli intervence. Za autonomní systémy považuji takové, které jsou on the loop a out of the loop. To znamená, že lidský operátor nezasahuje vůbec a systém funguje autonomně, anebo člověk pouze monitoruje a může kdykoli zasáhnout, zastavit nebo zrušit příkaz.  

Můžeme vnímat dohled člověka jako brzdu, která zabrání například tomu, aby autonomní zbraňové systémy někoho zastřelily? Anebo jde o to, že se autonomní systémy potřebují spoustu věcí postupně naučit?  

Roli hraje více faktorů. Některé technologie se posouvají na žebříčku s tím, že začínají v systému in the loop, kde člověk musí každý krok schválit. V prvních fázích zavedení bývá riziko pochybení přístroje největší. Až s postupným zlepšováním technologie je potřeba stále menší a menší lidský dohled. Myslím, že u některých systémů dojde nakonec ke kompletnímu uvolnění a přejde se k autonomii. Například obecně u autonomních zbraňových systémů – lidé se stále bojí dát systému plnou kontrolu a opustit systémy in the loop. Jediné plně automatické systémy jsou mezi Severní a Jižní Koreou, chrání oblast demilitarizovaného pásma, kam by vlastně nikdo neměl vstoupit. Ve chvíli, kdy tam vojáci někoho detekují, automaticky střílí. Vina se tam vůbec neřeší. V jiných případech, kde situace není tak zcela jasná, je velký tlak na to, aby se používaly systémy in the loop nebo on the loop. Lidský faktor tak představuje často opodstatněnou pojistku.

Kdo by byl následně zodpovědný za smrt člověka v případě plně autonomního systému?   

Záleží, o jakou se jedná situaci. Na korejské hranici za smrt není zodpovědný nikdo, protože člověk vstupující na toto území není v právu. V situaci, kdy se jedná například o chybu systému a jakýsi autonomní dron zastřelí civilisty, se musíme podívat na konkrétní kroky, které vedly k rozhodnutí umělé inteligence. Vzhledem k tomu, že se umělá inteligence učí neuronovými sítěmi, tak je pro nás často velmi těžké zjistit, proč a jak se v danou chvíli rozhodla. Musíme vzít na vědomí konkrétní okolnosti, jestli to bylo kvůli nevhodným vstupním datům, technologie byla špatně naprogramovaná nebo došlo k chybě přístroje. Také mohlo dojít k chybě využití technologie. Systém například nebyl připravený na danou situaci. Je pak velmi komplikované zjišťovat, co se stalo špatně a čí je to chyba.   

Zmínila jste vstupní data, která obecně můžou být problémem. Například v roce 2016 se právě na základě vstupních dat stal z chatbotu Microsoftu rasista a misogyn. Něco podobného zažil i Facebook, když jeho umělá inteligence omylem klasifikovala černocha jako gorilu. Jak takovým problémům a nepřesnostem umělé inteligence předcházet? Má to nějaké řešení? Třeba v práci s daty?    

Je problém v praxi dosáhnout perfektního „datasetu“. Vámi zmíněné příklady ukazují situace, kdy se umělé inteligence učila na sadě nevhodných dat. Například u chatbota – byl vypuštěn na internet a měl se učit, jaké je to být člověkem. Jak všichni víme, na internetu se pohybuje spousta různých individuí, ne vždy s rozumnými názory. Jsou mezi nimi rasisti, misogyni, lidé sprostí i nepříjemní – internet není ideální vizitka lidstva, ale naše zrcadlo, jak lepších částí společnosti, tak těch horších. Když se podíváme na identifikaci černocha – data často vycházejí z výzkumných týmů ze Sillicon Valley a jiných velkých výzkumných center – v těchto typech týmů převažují bílí muži. Nemyslí to špatně, ale svým způsobem podvědomě sbírají data s tím, že mají svůj „bias“. Je tam jejich charakteristika. Často chybí diverzita názorů a pohledů na věc.

Lucie Soukalová věří, že technologie umělé inteligence v budoucnu přinesou řešení řady problémů života.
Lucie Soukalová věří, že technologie umělé inteligence v budoucnu přinese řešení řady současných problémů.

Takže na základě takového datasetu umělá inteligence bere jako normu, že člověk rovná se bílý muž? 

Přesně tak. Umělá inteligence je připravena rozeznat bílého muže, ale jakmile je tam černoch, nemá dostatek vstupních dat. U pojmu člověk si představí bílého muže. To je samozřejmě problém, ale není to chyba umělé inteligence. Často to není chyba ani programátorů. Jde o problémy naší společnosti, které si s sebou vezeme už hodně dlouho – sexismus, rasismus a podobně.    

Věděla byste ještě o nějakém podobném problému?  

Byla třeba kauza, kdy technologická firma natrénovala umělou inteligenci na posuzování kandidátů na jejich pracovní pozice. Ukázalo se, že se rozhodla vyřazovat všechny ženské životopisy. Ze statistik totiž umělá inteligence vyčetla, že většina přijatých kandidátů byli muži. Tím pádem si to spojila – přijatý kandidát, dobrý kandidát. Muž je dobrý kandidát, tím pádem vyřazovala ženy, nevnímala je jako relevantní. Právě proto bychom data měli balancovat. Měly by tam být nastavené kvóty, aby data byla co nejvyváženější a umělá inteligence rozlišovala data podle relevantních faktorů.   

Zmínili jsme negativní příklady. Existují ale už obory, kde začíná být umělá inteligence lepší než člověk nebo kde hodně výrazně pomáhá?  

Je jich spousta. V současnosti se jedná zejména o aplikace úzké umělé inteligence, která je vynikající v konkrétní činnosti, například ve hrách typu šachy a golf. Třeba v medicíně je umělá inteligence nepřekonatelná a opravdu zachraňuje lidské životy. Umělá inteligence je skvělá na rozpoznávání vzorců v datech. Taková schopnost se hodí při detekování zhoubných nádorů – například při rakovině plic. Nádory mohou být na začátku opravdu miniaturní a lékař je může přehlédnout. Jsou již vyvinuté umělé inteligence, které z plicního skenu zjistí, jestli má člověk malý nádor, nebo jestli je úplně v pořádku. Zvládnou rakovinu detekovat už o jeden nebo dva roky dříve. Často tím zachrání lidem život. Umělá inteligence exceluje i v obchodování na burze – dokáže dělat rozhodnutí během tisíciny vteřiny, ta jsou na burze rozhodující.   

Problém při zavádění (což můžeme vidět i u bankéřů a lékařů) může být jistá nedůvěra v systémy. Řešíte i to, jak s ní pracovat?  

Toto je podle mě zásadní problematika a měli bychom se jí více zabývat. Jde o zcela novou technologii a k ní bývají lidé obvykle skeptičtí. Bojí se, co technologie přinese. Podobné to bylo u prvních počítačů. Na druhou stranu bych nepodceňovala obavy – jsou zčásti opodstatněné. Každá nová technologie přichází se svými problémy, než se vyladí, a tím, že umělá inteligence je skutečně mnohem schopnější než jakýkoli počítač, jsou rizika s ní spojená o to větší. Chápu, proč se lidé obávají. Přispívá k tomu také velká řada sci-fi knížek a filmů, které často končí zkázou lidstva nebo ovládnutím světa roboty. Neznamená to ale, že takhle bude budoucnost vypadat. Všechny tyto filmy, seriály a knížky potřebují dramatickou zápletku, kterou hrdinové musí vyřešit. Kdyby se psalo o tom, jak umělá inteligence hledá zhoubné nádory nebo roztřiďuje životopisy, tak by to nikoho nebavilo. Science-fiction díla měla obecně na pole umělé inteligence velmi pozitivní vliv. Pomohla zvýšit povědomí o těchto technologiích a někteří autoři dokonce přišli prvně s nápady, kterými se etika umělé inteligence dnes zabývá.  

Zvítězila jste v soutěži Centra Karla Čapka pro studium hodnot ve vědě a technice. Jaká byla motivace se vůbec přihlásit? Proč zrovna tato soutěž a téma autonomie?  

Centrum Karla Čapka kdysi pořádalo workshop na téma Co je to robot. Řešili jsme, jaké vlastnosti robot musí mít, aby to byl opravdu robot. Hodně kontroverzní téma byla právě autonomie, vyvolala poměrně vášnivou diskuzi. Názory odborníků, včetně toho mého, se různily, a to mě zaujalo. Začala jsem nad tím přemýšlet a vypracovávat si svoji vlastní definici. Když jsem se dozvěděla o soutěži, řekla jsem si, že téma zpracuji jako esej.

Chtěla byste se tématu věnovat i na vysoké škole?   

Ještě nejsem úplně rozhodnutá, kterým směrem se vydat, protože jsem jak technicky, tak humanitně založená. Z tohoto důvodu mě nadchla stáž Otevřené vědy s názvem Etika, filosofie umělé inteligence, která mi dovolila podívat se na problematiku z obou pohledů. Umělá inteligence mě moc baví a ráda bych se jí v budoucnosti zabývala.


Lucie Soukalová
Studentka Gymnázia Špitálská v Praze Vysočanech. Je členkou studentské rady gymnázia. V současné době je na studijním pobytu v německém gymnáziu v Porýní-Falci. V letech 2020/21 byla stážistkou programu Otevřená vědaÚstavu státu a práva AV ČR. V roce 2021 zvítězila v soutěži, vyhlášené Centrem Karla Čapka pro studium hodnot ve vědě a technice se svou esejí nazvanou Autonomie, roboti a umělá inteligence.


Více jsme o tématech kybernetiky, autonomie a etiky a činnostech Centra Karla Čapka psali zde:

Mohou mít stroje vědomí a emoce? Ptá se studentka ve vítězné eseji
Intimita s roboty: veřejnost už blížící se robotizaci sexu nevnímá jako tabu
Odborníci se radí o etice samořiditelných aut
Centrum Karla Čapka, které zkoumá etiku robotů, slaví rok existence

Text: Anna Jaklová a Petr Cieslar, Divize vnějších vztahů SSČ AV ČR
Foto: Jana Plavec, Divize vnějších vztahů SSČ AV ČR

Licence Creative CommonsText a fotografie jsou uvolněny pod svobodnou licencí Creative Commons. 

 

Přečtěte si také