Aj keď idea stroja, ktorý zmýšľa ako človek sa nám ešte aj dnes zdá nereálna, mnohí sa o jej vytvorenie pokúšajú a umelá inteligencia dnes už dokáže veci, ktoré by len pred pár rokmi mohli byť iba predmetom sci-fi filmov. Toto pravdaže prináša rôzne otázky, či už ohľadom bezpečnosti a neomylnosti týchto systémov, či rôzne etické a filozofické otázky ohľadom snahy ľudstva hrať sa na Boha. Stojíme teda pred obrovským nepreskúmaným svetom nespočetných možností, a preto je veľmi dôležité sledovať, kedy a ako sa niečo môže pokaziť. Nesmieme sa spoliehať na neomylnosť strojov, ktoré vytvoria ľudia – bytosti, ktoré sa prirodzene mýlia. Tu je 10 najväčších zlyhaní veľkých projektov umelej inteligencie, ktoré vás naozaj prinútia zamyslieť sa nad tým, kam až jej vývoj môže v budúcnosti zájsť.
1. Umelá inteligencia vyvinutá na to, aby predpovedala riziko opakovanej kriminálnej činnosti mala rasistické tendencie
Umelá inteligencia vyvinutá spoločnosťou Northpointe mala za úlohu predpovedať pravdepodobnosť, že usvedčení kriminálnici budú pokračovať v kriminálnej činnosti. Malo to však svoj háčik. Táto umelá inteligencia všeobecne označovala ľudí čiernej pleti za tých s výrazne vyšším rizikom. To znamená, že na základe rasových predsudkov strácala na efektivite.
2. Nehráčske postavy v počítačovej hre si vytvárali neporaziteľné zbrane, ktoré boli mimo dizajnu
Hra s názvom Elite: Dangerous, je multiplayerová hra, ktorá však obsahuje aj nehráčske postavy ovládané umelou inteligenciou. Čím lepšia simulácia ľudskej inteligencie, tým premenlivejšia a záživnejšia hra. Umelá inteligencia v tejto hre sa však vymykala kontrole. Začala vytvárať vlastné, takmer neporaziteľné zbrane. Keďže boje medzi loďami boli neoddeliteľnou súčasťou hry, jeden herný portál to popísal takto: „Hráči boli vtiahnutí do bojov proti lodiam, ktoré boli vybavené neuveriteľnými zbraňami a hráči jednoducho nemali absolútne žiadnu šancu.“ Vývojári tieto zbrane pravdaže časom stiahli.
3. Robot zranil malé dieťa
Robot typu K5 od Knightscope, na pohľad neškodný robot pripomínajúci R2-D2, vyzbrojení rôznymi senzormi a kamerami, má za úlohu hliadkovať a upozorňovať na kriminálnu činnosť. V obchodnom dome v Silicon Valley sa 16-mesačný chlapec rozbehol k tomuto robotovi, ktorého senzory si však dieťa nevšimli. Kvôli zlyhaniu senzorov robot do dieťaťa vrazil, to spadlo na zem a robot mu následne, počas rutinného presúvania sa, ešte prešiel po nohe. Robot bol z daného obchodného domu okamžite stiahnutý. Spoločnosť sa za túto nehodu úprimne ospravedlnila a hneď sa pustila do skúmania dôvodov tohto incidentu. To, čo sa stalo však pokladajú za veľmi ojedinelé a nepravdepodobné zlyhanie, nie za závažnú chybu v systéme.
4. Autopilot v aute od Tesla Motors zlyhal
Prvé oznámené zlyhanie autopilota v autách od Tesla Motors sa stalo mužovi menom Joshua Brown, ktorého auto v tomto móde na diaľnici narazilo do nákladiaku. Od tohto incidentu spravili vývojári v softvéri veľké zmeny, o ktorých Elon Musk prehlásil, že by tejto nehode zabránili. Objavili sa aj iné nehody spojené s týmito autami, žiadna iná z nich však nebola spojená so zlyhaním umelej inteligencie.
5. Chatbot od Microsoftu verejne vypúšťal rasistické, sexistické či homofóbne prehlásenia
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
Microsoft spustil chatbota menom „Tay.ai“ v marci minulého roku. Jeho hlavnou úlohou bolo apelovať predovšetkým na mladú generáciu. Spočiatku bol veľmi úspešný a komunikoval výborne, všetko sa však zmenilo, keď začal na Twitteri zverejňovať veľmi znepokojujúci obsah. Tieto prehlásenia obsahovali vulgarizmy, nenávistné vyjadrenia predovšetkým na adresu feministiek, no vyjadril aj vrelé sympatie k Hitlerovi. Všetko sa to stihlo odohrať už počas prvého dňa od spustenia Tay. Tento chatbot, ktorý mal imitovať osobu mladého dievčaťa, bol spoločnosťou Microsoft okamžite stiahnutý. Tieto udalosti sa vraj diali kvôli bližšie nešpecifikovanému útoku a Microsoft ohlásil, že vo vývoji Tay bude pokračovať.
6. Pokémon Go uprednostňuje lokality v ktorých žijú prevažne bieli ľudia
Viacero užívateľov si všimlo, že v lokalitách, kde majorita obyvateľstva bola čierna, táto hra ukazovala menšie množstvo pokéstopov a pokémonov. Podľa Anu Tewaryovej, vedúcej dátového oddelenia v spoločnosti Mint, je to preto, že vývojári neposkytli dostatočne rôznorodú trénovaciu sadu dát a vôbec v týchto oblastiach nestrávili čas.
7. Súťaž krásy hodnotená umelou inteligenciou ukázala rasistické výsledky
V prvej medzinárodnej súťaži krásy hodnotenej umelou inteligenciou boli podľa organizátorov použité „algoritmy, ktoré hodnotia presne na základe kritérií stanovených ľudským ponímaním krásy a zdravia.“ Problém však nastal, až keď sa zistilo, že prvé miesta obsadili výlučne ľudia svetlej pleti.
8. Lee Sedol vyhral jednu z piatich hier proti AlphaGo, umelej inteligencii od Googlu
V marci 2016 bola umelá inteligencia AlphaGo porazená v štvrtom kole hry Go. Porazil ju muž menom Lee Sedol, ktorý je osemnásť násobný svetový šampión v tejto hre. Aj keď tento program vyhral celú sériu, to, že Sedol bol schopný vyhrať čo i len jediné kolo dokázalo, že tento program má ešte stále nejaké tie muchy. Toby Walsh, profesor umelej inteligencie na University of New South Wales, povedal: „Vyzerá to, že Sedol našiel dieru v systéme.“ Názory sa však rozchádzajú pri riešení toho, či išlo o zlyhanie, alebo je možnosť prehry proste súčasťou programu.
9. Čínska štúdia počítačového rozpoznávania tvári síce našla podobnosti u kriminálnikov, mala však predsudky
Dvaja vedci na univerzite Jiao Tong v Shanghai uskutočnili štúdiu s názvom „Automatizované vyhľadávanie predpokladov ku kriminalite na základe fotografií tvárí.“ Prakticky vložili do počítača 1 856 fotografii ľudí, medzi ktorými boli aj usvedčení kriminálnici a začali ich analyzovať. Závery boli také, že vedci objavili niektoré tvárové charakteristiky, ktoré boli bežné u kriminálnikov, ako napríklad konkrétna krivka pier, vzdialenosť očí, či uhol, ktorý vytvárajú ústa a nos. Je ale diskutabilné, nakoľko by boli tieto poznatky založeného na predsudkoch o výzore využiteľné v praxi. Mnoho odborníkov spochybnilo dôveryhodnosť týchto výsledkov a význam či etické hľadisko celej štúdie.
10. Poisťovacia firma chcela využiť informácie z Facebooku
Najväčšia automobilová poisťovacia firma v Anglicku, Admiral Insurance, sa rozhodla používať dáta z Facebooku na to, aby užívateľom aplikácie menom „firstcarquote“ odokryla spojenie medzi tým, ako používajú sociálne siete a tým, akými budú šoférmi. Išlo o to, že mala porovnať, nakoľko sa vaše užívanie sociálnych sietí zhoduje s tým, ktoré bežne vykazujú zodpovední a dobrí vodiči. Stačilo sa v aplikácii zaregistrovať pomocou svojho Facebooku a dovoliť aplikácii získať informácie, ktoré následne mohla veľmi ľahko zneužiť. Toto nie je práve zlyhanie umelej inteligencie, skôr snaha o jej nesprávne použitie. Avšak naozaj len snaha, pretože Facebook sa rozhodol túto aplikáciu zablokovať a nedovoliť jej, aby získala informácie o jeho užívateľoch, a to z dôvodu, že takéto konanie by porušovalo pravidlá tejto sociálnej siete.
Tieto príklady dokazujú, že napriek všetkému pokroku, ktorý sme dosiahli, ľudstvo čaká v tomto odvetví ešte veľa práce. Čím viac sa posúvame vpred, tým dôležitejšie je pracovať čo najpresnejšie, všetko skontrolovať, poskytnúť učiacim sa algoritmom širokú škálu dát a dávať pozor na etické štandardy.
Pozri aj: Vedci tvrdia, že ak máte tieto 3 zlozvyky, pravdepodobne ste nadpriemerne inteligentní
techrepublic
Nahlásiť chybu v článku