AI je skvělým sluhou. To jak s ní komunikujeme je ale stěžejní, říká Barbora Brabcová

Barbora Brabcová

Barbora Brabcová Zdroj: Foto: Jan Malý

Barbora Brabcová
Barbora Brabcová
Barbora Brabcová
Používáte umělou inteligenci?
4 Fotogalerie
Brigita Zemen
Rozhovory

S AI mluvme slušně. Pak bude odpovídat profesionálněji a lépe. Expertka na umělou inteligenci a zakladatelka iniciativy AI eticky Barbora Brabcová upozorňuje, že děti dnes chápou bezpečnostní rizika lépe než mnozí dospělí.

Stává se AI v nesprávných rukou nástrojem ďábla?

Nástrojem ďábla bych úplně neřekla, ale samozřejmě platí, že umělá inteligence je dobrý sluha, ale může být zlý pán. Slovo „může“ bych přitom zdůraznila, protože všechno závisí na tom, jak ji kdo používá. Už se objevilo několik případů, kde k takovému zneužití došlo, takže je to určitě něco, čím bychom se měli zabývat, protože nejenže se to rozhodně může stávat, ale myslím si, že se to bude stávat čím dál častěji.

Umělá inteligence tedy sama o sobě problematická není, ale problematické je to, jakým způsobem ji používáme?

Ano, ale problematické může být i to, jakým způsobem byla natrénovaná nebo jaká data má k dispozici. Známý je případ chatbota Tay od Microsoftu, který byl spuštěn v březnu 2016, takže dávno předtím, než se objevila obrovská vlna kolem umělé inteligence, kterou zažíváme teď. Tay byl navržen tak, aby se učil z interakcí s uživateli na Twitteru. Někteří mu psali dost nenávistné a diskriminační názory a chatbot rychle převzal jejich styl komunikace a začal publikovat urážlivé a rasistické příspěvky, například vysloveně rasistická hesla a podobně. Takže je velmi důležité i to, jaká data má AI vlastně k dispozici.

Můžeme vůbec předpokládat, že lidé budou AI využívat eticky, když vidíme, jak se chovají k sobě navzájem, třeba v komentářích na Twitteru?

Upřímně z toho mám velké obavy. Neříkám, že tímhle způsobem bude s umělou inteligencí mluvit většina lidí, ale rozhodně jich nebude málo. A právě to, jak se k nástrojům umělé inteligence chováme dnes, bude mít strašně velký vliv na to, jaká bude situace v budoucnu.

Jak bychom tedy měli, nebo naopak neměli AI využívat? Jde o to, na co se jí ptáme, jak s ní mluvíme?

To samozřejmě také, ale vliv má hlavně to, na jakých datech se umělá inteligence trénuje, takže to není ani tak otázka uživatelů, jako spíš tvůrců. To ale neznamená, že by na uživatelích neležela vůbec žádná odpovědnost, protože nástroje umělé inteligence se dále trénují na našich konverzacích, a proto způsob, jak s nimi mluvíme, hraje svou roli. Je prokázané, že pokud konverzace probíhá na profesionální úrovni, slušně, pokud používáte slova jako „prosím“ a „děkuji“, tak i ty nástroje mají tendenci odpovídat daleko profesionálněji a lépe, než když se s nimi bavíme hovorovými nebo nedejbože nějakými vulgárními výrazy.

Je tohle důvod, proč jste založila iniciativu AI eticky? Co je jejím záměrem?

Je to jeden z důvodů. AI eticky jsem na jedné straně založila právě proto, abychom si uvědomili, jak nástroje umělé inteligence používat správně. Na druhé straně pak proto, aby firmy věděly, jak komunikovat se svými zaměstnanci ohledně využívání umělé inteligence, jak ji zavádět a podobně. Při mých školeních se mi několikrát stalo, že mě firmy vyloženě vybízely k tomu, abych jejich zaměstnancům lhala a tvrdila jim, že některé nástroje nefungují, aby do nich nic nepsali a vůbec je nevyužívali. Takové školení je pak samozřejmě úplně k ničemu.

Správná cesta za mě není něco zakazovat, protože zaměstnanci si cestu k nástrojům umělé inteligence vždycky najdou, je to veřejná věc, do které se může přihlásit úplně každý. Ale abych se vrátila zpátky k otázce, iniciativa AI eticky vznikla proto, abychom se my jako uživatelé chovali správně, využívali dané nástroje tak, aby nám pomáhaly, abychom s nimi například nevytvářeli diskriminační fotografie a podobně. A také proto, aby firmy věděly, jak komunikovat se zaměstnanci, a zaváděly umělou inteligenci ve firemním prostředí správně, aby je jejich zaměstnanci neměli tendenci nějak obcházet nebo AI zneužívat.

Proč kolem umělé inteligence panuje tolik obav? Není to podobné jako s nástupem internetu, kdy jsme zpočátku také měli dojem, že je to něco, co nepotřebujeme, ale dnes už se bez něj obejdeme jen těžko?

Je to trochu podobné. Obavy mohou pramenit z toho, že do využívání nástrojů umělé inteligence spousta lidí ještě nepronikla, anebo ji dokonce ani nevyzkoušela, takže čerpají informace jenom ze svého okolí nebo třeba z internetu. Tam jsou často informace vytržené z kontextu, případně dost přehnané, takže lidé, kteří si AI ještě neosahali, mají přirozeně obavy, nevědí, co od toho můžou čekat. Je to pro ně taková černá skříňka, která jim sebere data a bude za ně dělat nějaká rozhodnutí. Další věc je, že hodně lidí si pořád ještě neuvědomuje, jak nástroje AI fungují.

Jak tedy fungují?

Pokud se budeme bavit o těch nejvyužívanějších, jako jsou jazykové modely typu ChatGPT, Claude a podobně, spousta lidí si myslí, že nějakým způsobem přemýšlejí nebo analyzují to, co jim uživatelé říkají, a že to chápou. To je omyl. Někde jsem četla hezké přirovnání, že to je, jako kdybyste seděla za zdí, měla v ruce příručku japonštiny, ale japonsky neuměla ani slovo. A když se vás někdo na něco zeptá, vy víte, že odpověď je tahle konkrétní pasáž z příručky, ale současně nerozumíte otázce, nerozumíte ani odpovědi, jen víte, že když se řekne A, máte přečíst a odpovědět B. Takhle přesně fungují modely umělé inteligence, prostě jenom napíšou to, co je nejpravděpodobnější odpověď na vaši otázku. Bohužel to spousta lidí nechápe, takže často dochází k tomu, že chatbot jim odpoví sice pravděpodobně, ale chybně, a ti lidé to nedokážou poznat, protože si odpověď neověří.

Mám ve svém okruhu lidi, kteří využívají chatboty například místo vyhledávače anebo si od nich nechávají recenzovat, co napsali. Je to dobré využití?

To druhé ano, to první úplně ne. Proč nenapsat něco a nenechat si to zrecenzovat nebo zkritizovat od umělé inteligence? To je za mě dobré využití a sama ho velmi často používám – jestli jsem třeba na něco nezapomněla nebo jestli jsem něco nenapsala moc složitě. Používání chatbota jako primárního vyhledávače může být problematické, protože modely generativní AI někdy vytvářejí halucinace – informace, které vypadají věrohodně, ale nejsou pravdivé. Proto je vždy dobré ověřit si fakta z více zdrojů. Teď už je třeba na ChatGPT spuštěná nová funkce Search, která zlepšila vyhledávání na internetu, což je určitě fajn, ale pořád to ještě chce všechno ověřovat.

Na svých školeních dávám vždy svým účastníkům jako první úkol, aby si nechali pomocí ChatGPT vypsat deset nejvyšších vrcholů v České republice. Ještě nikdy to nebylo správně. Dělám to na všech svých školeních a školím čtyřikrát týdně, takže si dokážete představit, kolikrát jsme to už zkoušeli. Je to právě proto, že modely AI sestavují odpověď s největší pravděpodobností, a i když umějí třeba i vyhledávat na internetu a uvádějí zdroje, stejně to není záruka toho, že to bude fakticky stoprocentně správně.

Měli by zaměstnanci o tom, že používají nástroje umělé inteligence v práci, informovat svého zaměstnavatele?

Rozhodně ano, ale bohužel se to často neděje. Z jednoho průzkumu z loňského roku dokonce vyplynulo, že okolo sedmdesáti procent zaměstnanců vůbec nepřizná, že použili nějaký nástroj AI, když šli prezentovat například nějaký nový projekt nebo službu, které je napadly. Za mě to není dobře. A tím nemyslím to, že použili AI, to je naopak dobrý nápad, ale dobře není to, že to nepřiznají.

Na druhou stranu, když to zaměstnanci přiznají, nemůže si pak zaměstnavatel říct, že tady Frantu už nepotřebuje a že mu stačí AI, protože tu na rozdíl od Franty nemusí platit?

Nemyslím si, že by to bylo až tak reálné. Samozřejmě spousta lidí má teď strach o práci, bojí se, jak to bude dál. A také spousta zaměstnavatelů prohlašuje, že už nepotřebuje tým lidí, protože si to všechno udělají s ChatGPT, ale tak to není. Naopak budou čím dál více potřeba lidé, kteří umějí s nástroji umělé inteligence pracovat, umějí kriticky zhodnotit to, co jim AI připraví, a upravit to tak, aby to skutečně pasovalo na jejich firmu, aby to bylo srozumitelné a použitelné.

Zároveň budou neustále potřeba lidé, kteří jsou schopni odprezentovat výsledky, které jim třeba připravila AI. Ale je jasné, že se pracovní trh trochu přetransformuje a že některé pozice možná úplně zaniknou. Nicméně ti lidé, kteří je vykonávali, se budou moct využít na jiný typ práce, například tam, kde je potřeba osobní kontakt se zákazníkem.

Jak mohou umělou inteligenci využívat děti? Jsme blízko toho, že budou tyto nástroje využívané i jako pomůcka ve škole?

Určitě.

I když vidíme, že chytré telefony máme v kapse patnáct let a školy se stále nebyly schopny adaptovat na fakt, že si děti odpovědi najdou do pár vteřin, a pořád je učí memorovat se například historická data?

Je pravda, že spousta škol se k tomu, aby se přizpůsobila moderním technologiím, ještě nedostala, ale spousta jiných škol je v tomto ohledu zase hodně vepředu. Existuje iniciativa AI dětem, která je skvělá a snaží se právě o to, aby se informace o AI dostávaly k pedagogům, aby věděli, jak o ní s dětmi mluvit. Za mě je využití umělé inteligence pro děti výborné třeba v tom, že mohou porovnávat její odpovědi, používat kritické myšlení, aby si třeba právě něco, co samy vytvoří, nechaly zkritizovat nebo aby si nechaly vysvětlit nějakou slovní úlohu nebo matematický příklad. Některé školy dokonce dětem zadávají domácí úkoly tak, aby například nějaký krok toho úkolu udělaly pomocí AI, a myslím si, že je to jednoznačně správně, že by školy děti v tomto ohledu měly podporovat, ale současně jim ukazovat i tu druhou stránku a učit je si informace ověřovat.

Barbora BrabcováBarbora Brabcová | Zdroj: Foto: Jan Malý

Od jakého věku by podle vás měly být tyto technologie dětem dostupné? Kdy už jsou schopny kriticky přemýšlet a ověřovat si informace?

Nejsem ani pedagožka, ani dětská psycholožka, takže si netroufám tvrdit, od jakého konkrétního roku už je to v pořádku, ale zkusím se na to podívat z jiného úhlu. Většina těchto nástrojů má v pravidlech, že by je neměly samostatně používat děti do 13 let, a myslím si, že by se tato pravidla měla dodržovat. Samozřejmě to neznamená, že by se to dvanáctiletým dětem mělo zakazovat nebo že by se jim mělo tvrdit, že něco takového nefunguje.

Naopak jsem toho názoru, že děti by se měly postupně vést právě ke správnému využívání. Ne k tomu, aby jim AI napsala slohovku a dělala za ně věci, ale aby jim s nimi pomáhala, rozvíjela jejich dovednosti. Na druhou stranu ale musím říct, že děti mají mnohem lepší povědomí o nástrojích umělé inteligence než většina dospělých a že k ní také přistupují mnohem kritičtěji.

Jak to?

Vidím to na svých školeních. Pravidelně jejich účastníkům pokládám otázku, jaké mají obavy z používání nástrojů umělé inteligence. A protože se mi spousta odpovědí opakovala, rozhodla jsem se udělat z toho analýzu. Měla jsem vzorek asi 1200 dospělých a 750 dětí a zjistila jsem, že u dospělých se opakují hrozné extrémy. Často odpovídají, že nemají žádné obavy a nejradši by do těch nástrojů nahráli třeba i finanční výsledky firmy, aby jim poradily, co s tím, nebo naopak píšou věci jako apokalypsa, vzpoura robotů a Terminátor. U dětí pozoruji, že se jejich obavy soustředí na konkrétní rizika, jako je bezpečnost dat nebo rozpoznávání nepravdivých informací. Na rozdíl od dospělých, kteří se někdy obávají extrémních scénářů, děti často přistupují k AI s pragmatičtějším pohledem.

Děti měly ale obavu například ze šikany, která by mohla nastat právě kvůli špatnému používání těchto nástrojů, ze vzniku neetických aplikací. Takže za mě je kritické myšlení u dětí naprosto v pořádku a myslím si, že je to i tím, že nástroje AI používají víc, nebojí se zkoušet různé věci a samy už přišly do styku s tím, že jim chatbot odpověděl špatně, takže pochopily, že si na to musí dávat pozor. Dospělí se naopak často bojí něco vyzkoušet, takže s tím tolik zkušeností nemají, a proto ani nevědí, čeho by se vlastně v souvislosti s AI měli obávat.

Existuje nějaké téma nebo typ informací, které bychom s AI sdílet neměli? A co se s těmi informacemi vůbec děje?

Některé nástroje na našich konverzacích trénují, většina z nich vás na tuto skutečnost upozorňuje Stále více budou potřeba lidé, kteří umějí kriticky zhodnotit a upravit, co jim AI připraví. a u mnoha z nich to jde také uživatelsky zakázat. U většiny nástrojů je také možné předplatit si nějakou vyšší verzi, kde data zůstávají ve vašem prostředí, nikam se neposílají, takže v případě, že se jedná o firmu, která chce AI využívat, rozhodně bych doporučovala tuto variantu. Nicméně obecně bych nedoporučovala sdílet s umělou inteligencí osobní citlivé údaje, cokoli, co souvisí s GDPR, finanční výsledky například konkrétních zákazníků a podobně.

Už jste zmiňovala, že nástroje AI ne vždy odpovídají správně. Jsou ale některé typy nástrojů navržené přímo tak, aby záměrně mystifikovaly nebo dezinformovaly?

To nevím, ale možné to samozřejmě je. Teď je aktuální situace s čínským nástrojem DeepSeek. Já osobně jsem ho ještě neměla možnost dostatečně otestovat, abych kvalifikovaně potvrdila, že je to pravda, ale viděla jsem několik porovnání, kdy se uživatelé zeptali na nějakou konkrétní událost z čínských dějin, která byla diskutabilní. Nástroje jako ChatGPT nebo Copilot vám odpovědí tak, jak to opravdu bylo, zatímco nástroj jako DeepSeek odpoví tak, aby to bylo přijatelné pro čínskou vládu. Jak říkám, osobně jsem to netestovala, takže to nemohu potvrdit, ale současně si dokážu představit, že nástroje AI z podobných zemí budou podobně nastavené.

Budeme mít za deset let schopnost poznat, jestli text, který čteme, napsal člověk sedící za klávesnicí, nebo ho vygenerovala AI?

Do velké míry máme dost problém to poznat už teď. U některých věcí je to samozřejmě zjevné, zvlášť když si člověk nedá žádnou práci s tím, aby vygenerovaný text nějak upravil. Otázka ale je, jestli je vůbec nutné, abychom to poznali. Například u newsletterů mi využívání nástrojů umělé inteligence nepřijde špatné, pokud si s tím dáme práci, připravíme podklady, které chceme, aby tam byly, a AI nástroj už to potom jen dá dohromady. Horší by ale bylo nasazovat nástroje umělé inteligence bez jakékoli další kontroly například na výběr zaměstnanců, to považuji za opravdu velký problém.

Kam si myslíte, že může využívání umělé inteligence dojít? Dokážeme si to vůbec představit?

Myslím si, že nedokážeme. Samozřejmě známe spoustu prognóz, viděli jsme nespočet filmů, které jsou většinou apokalyptické, a existují předpovědi, které říkají, že je možné, že to dospěje ke konci, který se nám líbit nebude, ale myslím si, že se ještě pořád nacházíme v situaci, kdy máme možnost toho hodně ovlivnit. Takže se musíme velmi vážně zamyslet nad tím, jaké nástroje budeme používat a na co, a současně je nutné, aby se k tomu firmy, které tyto nástroje vyvíjejí, postavily způsobem, jenž může zabránit tomu, aby tu opravdu nedošlo k nějaké autonomní AI, která bude mít za cíl třeba ovládnout lidstvo, nebo ho rovnou vyhubit. 

To se může stát?

Samozřejmě. Trochu to přeženu, ale když si představíte, že bychom chtěli například AI využít k tomu, aby zabránila pokračování globálního oteplování, co myslíte, že by vyhodnotila jako největší hrozbu pro planetu? Samozřejmě že lidi. Takže by teoreticky mohla začít vymýšlet cesty, jak to omezit, třeba formou redukce plodnosti nebo jakýmikoli jinými kroky, které by snížily počet lidí na planetě. Proto je nezbytné, aby AI modely měly bezpečnostní mechanismy, které zabrání neetickým rozhodnutím. Zatím neexistuje takzvaná obecná umělá inteligence (AGI), tedy model, který by dokázal autonomně přemýšlet, učit se a rozhodovat podobně jako člověk. Pokud by k jejímu vzniku došlo v blízké době, vyvstává řada etických i bezpečnostních otázek.

Co bychom tedy měli jako lidstvo dělat, abychom jednou nežili ve filmu, kde potřebujeme Bruce Willise?

To hlavní je teď opravdu na tvůrcích nástrojů AI, kteří je vyvíjejí. Nestačí ale spoléhat jen na vývojáře – je třeba, aby státy a organizace stanovily jasná pravidla pro bezpečné využití AI. I my, jako jednotlivci, můžeme udělat hodně. Hlavně v tom, jak s těmi nástroji budeme komunikovat, protože jak už jsem na začátku zmiňovala případ chatbota Tay, který od uživatelů převzal jejich způsob komunikace, stejně tak se mohou učit i jiné nástroje. To, jak umělou inteligenci používáme, jaké otázky jí klademe a jak na ni reagujeme, může ovlivnit její budoucí vývoj a směr, kterým se bude ubírat. A je potřeba na to myslet.