Umelá inteligencia ako neonacista? Len nasáva naše predsudky

Ak sa umelá inteligencia premenila za 24 hodín na sexom posadnutý neonacistický stroj, je to tým, že do seba nasala predsudky, ktoré majú ľudia.

16.02.2019 21:00
debata (40)

Keď si Amazon uvedomil, že jeho program na vyhľadávanie nových zamestnancov vybavený umelou inteligenciou (AI) dáva prednosť mužom, rýchlo ho odložil. V roku 2016 sa chatovací robot z dielne Microsoftu zmenil počas iba 24 hodín na sexom posadnutý neonacistický stroj.

Tieto incidenty – spoločne s ďalšími – hrali priamo do karát tým, ktorí tvrdia, že v našom každodennom živote je príliš veľa AI, napísal v denníku Les Echos Charles Cuvelliez, ktorý prednáša na Bruselskej slobodnej univerzite a je riaditeľom Bruselskej inžinierskej školy.

Ale niektorí vedci sa na veci pozerajú z inej perspektívy: Ak robí AI také chyby, je to preto, že ju to naučili. To znamená, že ju tiež môžeme naučiť, aby sa týmto chybám vyhla. Ako? Tým, že nájdeme všetky predsudky obsiahnuté v údajoch, ktoré AI dostáva pri svojom učení.

Tieto údaje vyplývajú z našich vlastných predsudkov, ktoré existujú už veľmi dlhú dobu. Je ľahké ich nájsť. Skúsme sa zamyslieť napríklad nad tým, ako často sa v textoch vyskytujú ošetrovateľky a zdravotné sestry v porovnaní s ich mužskými náprotivkami. Ako často sa o lekároch hovorí ako o mužoch? Je ľahké odhadnúť, že o počítačových vedcoch sa bude často hovoriť v mužskom rode.

Ale to nie je všetko. Vie napríklad niekto, že pomer chýb pri rozpoznávaní tvárí dosahuje až 35 percent u žien tmavej pleti, zatiaľ čo u mužov bielej pleti je to len 0,8 percenta?

To všetko je spôsobené objemom vstupných dát, ktoré sú k dispozícii pre „učenie“ AI algoritmov. Práve dostupné dáta sú Achillovou pätou umelej inteligencie. Napríklad sociálne siete poskytujú hojný a lacný zdroj údajov. Pre prítomnosť falošných správ, nenávistných výlevov a vo všeobecnosti zaujatých postojov voči menšinám a ženám, nie sú pre AI vhodné.

Experiment, ktorý na twitteri vykonal istý výskumník zo Swinburneskej univerzity, odhalil, že ľudia vyjadrujú negatívne pocity podstatne častejšie voči ženám vo vysokých pozíciách, než proti porovnateľne vysoko postaveným mužom.

Predsudky sa však nájdu aj na iných miestach. Napadlo vám niekedy, prečo ktorákoľvek hlasová služba alebo zákaznícka linka v call centre využívajúca robotické služby má upokojujúci ženský hlas?

Štúdie preukázali, že muži aj ženy dávajú prednosť tomu, aby na ne hovorili ženské hlasy. Dodávajú im viac istoty, hrajú na materskú strunu. Avšak tieto preferencie majú svoje výnimky – mužské hlasy počujeme radšej, keď potrebujeme poradiť pri automobiloch alebo počítačoch, a ženské vo všetkých medziľudských záležitostiach.

Pred časom výrobcovia inteligentných automatizovaných osobných asistentov s pripojenými reproduktormi upravili algoritmy tak, aby títo roboti boli menej vľúdni a zhovievaví voči hrubým a urážlivým výpadom používateľov, ktorí si na nich občas vybijú svoju frustráciu. Zmyslom tohto kroku bolo zabrániť výpadom ľudí proti ženám na ulici, pretože ich vďaka svojim skúsenostiam s automatizovanými asistentmi príliš „zbavili ľudskosti“.

Umelá inteligencia ako taká nemá rovnaké predsudky ako my. To my učíme stroje, aby boli neobjektívne, ovplyvnené, predpojaté. Svetové ekonomické fórum odhaduje, že potrvá do budúceho storočia, než dosiahneme skutočnú rodovú rovnosť. A je možné, že v prípade umelej inteligencie budeme musieť na rovnosť pohlaví čakať ešte dlhšie.

.....

VIDEO: Slovensko môže mať kľúčovú rolu v rozšírení umelej inteligencie.

Video
40 debata chyba
Viac na túto tému: #umelá inteligencia #AI