Zbrane ako roboty? Od ich zákazu závisí osud ľudstva

, 25.08.2017 12:00
programator Marek Rosa
Marek Rosa varuje pred robotickými zbraňami, ktoré môžu kompletne zmeniť dynamiku terorizmu. Autor: ,

Skupina expertov z 26 krajín sveta zverejnila otvorený list so žiadosťou o zákaz vývoja technológií umelej inteligencie v zbrojárskom odvetví. List adresovaný Organizácii Spojených národov podpísal aj šéf Tesly Elon Musk a ďalšie známe tváre robotiky. Medzi prominentnými výskumníkmi a podnikateľmi je aj Slovák Marek Rosa, ktorý sa vo svojej firme venuje pokroku umelej inteligencie, tak, aby pomáhala ľudstvu. Rosa varuje, že zbrane tohto typu môžu kompletne zmeniť dynamiku terorizmu.

Čo viedlo vedcov k napísaniu listu?

Možnosti umelej inteligencie a robotiky sa zlepšujú veľmi rýchlo a skokovo. Aj keď sú stále ďaleko od možnosti všeobecnej ľudskej inteligencie, určite sa nájdu skupiny, ktoré sa pokúsia použit umelú inteligenciu na vojenské účely. Budúcnosť ľudstva závisí len od toho, na čom sa my ľudia dohodneme. My si musíme nastaviť pravidlá. Pravidlá militarizácie umelej inteligencie treba začať riešiť už teraz a nečakať, kým sa veci vyvinú zlým smerom a budú nezvratné.

Ako si má laik predstaviť zbraň, ktorá využíva umelú inteligenciu?

Predstavte si, že už dnes sa používajú drony, ktoré stoja okolo tisíc eur a stále lacnejú. Keby mal každý v sebe umelú inteligenciu a taká letka dronov by dostala pokyn niekam letieť a zabíjať tam ľudí, tak vznikne relatívne lacná armáda. Taká armáda niekde nad nami lieta, pomocou kamerového záznamu rozpozná ľudí a sama si vyberá cieľ, ktorý zabije. Vycvičiť milión vojakov je náročné a nákladné, ale vyrobiť takéto stroje nestojí veľa. Bolo by strašidelné, keby sa takáto technológia dostala do rúk teroristom.

V čom by bola takáto technika, okrem jej zneužitia teroristami, nebezpečná?

Hrozieb je tam viac. Prvou je, že ak by sa rozšírilo využitie autonómnych smrtiacich zbraní a boli by spoločensky prijateľné, významne by to prispelo k protireakcii a k ďalšej eskalácii. Začali by vznikať ešte silnejšie autonómne zbrane a už by sa to nepodarilo zastaviť. Druhá hrozba spočíva v tom, že tieto autonómne systémy by boli schopné rozhodovať aj bez ľudského zásahu, tzn. samotný stroj by rozhodoval, koho zabije. Ak ako inžinieri nevieme garantovať správne fungovanie týchto systémov vo všetkých situáciách, je možné, že by robot zabil nevinného civilistu, alebo by ho niekto zmanipuloval alebo preprogramoval (hackol) a možno použil aj proti samotným autorom. Tretia hrozba, ako som už naznačil, je, že tieto zbrane budú dostupné a ľahko použiteľné kýmkoľvek, a môžu kompletne zmeniť dynamiku terorizmu – dávajúc ešte viac výhod útočníkom, pretože riziko sa prenesie na robota. Obrana by bola exponenciálne drahšia než útočenie. Dá sa argmentovať, že aj samoriadiace auto sa dá preprogramovať tak, aby zrážalo ľudí. Rozdiel je však v tom, že primárny cieľ auta nie je ubližovať ľuďom, ale bezpečne ich prepravovať.

Pravidlá militarizácie numelej inteligencie treba riešiť už teraz a nečakať, kým sa veci vyvinú zlým smerom a budú nezvratné.

V liste píšete, že nezostáva veľa času. Čo ste tým mysleli?

V niektorych smeroch výskum napreduje až prekvapivo rýchlo a hlavne spôsobom, ktorý ťažko predpovedať. Dá sa očakávať, že za rok budú k dispozícii nové algoritmy, ktoré by som dnes ani vo sne nečakal. Na druhej strane, vývoj tzv. všeobecnej umelej inteligencie je beh na dlhú trať, možno až dekády. Avšak možno stačí niekoľko revolučných prielomov a aj to bude otázka rokov. Prečo si myslíme, že nemáme veľa času? Kým sa pohnú ľady, prejde nejaká doba. Je treba začať čo najskôr. Ideálne s veľkým predstihom pred príchodom naozaj schopných umelých inteligencií.

Situáciu prirovnávate k Pandorinej skrinke. Je to až také vážne?

Dnes to určite nie je vážne. Nie je dôvod na paniku. Nechceme strašiť. Je však treba konať a je dobré využiť pozornosť, ktorá v súčasnosti okolo umelej inteligencie je, aj na doriešenie výziev, ktoré nás čakajú až za niekoľko rokov.

Vyrábajú sa už dnes nejaké zbrane s využitím technológií umelej inteligencie? Kto je lídrom v tejto oblasti?

Áno. Napríklad Južná Kórea má na hranici so Severnou Kóreou inštalované automatické guľomety Samsung SGR-A1, ktoré strieľajú autonómne. Ďalši príklad je protiraketový guľomet Phalanx používaný americkým námorníctvom. V oboch prípadoch sa dá povedať, že sú to obranné zbrane, nasmerované tam, kde sa nedá očakávať civilné obyvateľstvo. Z pohľadu zákazu autonómnych zbraní je dôležité si uvedomiť, že sa určite nepodarí absolútny zákaz. Vždy budú krajiny, ktoré sa rozhodnú zákaz ignorovať. Avšak to neznamená, že aj ostatné demokratické krajiny musia reagovať podobne a musia začať vyvíjať vlastné smrteľné roboty.

Ako sa môžu demokratické krajiny brániť v prípade, že sa niektoré štáty vyzbroja robotmi?

Ako príklad uvediem mafiu a políciu. Sú špinavé metódy, ktoré používa mafia, ako únosy či vydieranie. Polícia musí proti nim zasahovať, ale sama tieto metódy nesmie používať. Aj keď by niekto mohol argumentovať, že sa tým policajná práca stáva menej efektívnou. Nie je to pravda. Demokratické štáty majú nad kriminálnymi živlami výhodu v tom, že majú viac zdrojov, a teda si môžu dovoliť iné riešenia. Ak sa aj nájde krajina, ktorá prípadný zákaz OSN nedodrží, v dnešnom ekonomicky prepojenom svete sa môže dostať do nepriazne ďalších demokratických krajín.

Čo si myslíte, aký dosah môže mať váš list?

Tento list môže vyvinúť morálny tlak na zástupcov krajín, čo môže prispieť k menšej, snáď až nulovej militarizácii umelej inteligencie. Ak sa aj nepodarí kompletný zákaz, aspoň sa upozorní na problém a armády sa budú môcť zamerať na protiopatrenia pred cudzími smrtiacimi autonómnymi zbraňami. A ešte raz zdôrazním, demokratické krajiny na svoju obranu nemusia používať špinavé zbrane ako nedemokratické krajiny. Ľudia, ktorí prišli s iniciatívou tohoto otvoreného listu, sú v kontakte so zástupcami z OSN a jednajú s nimi. V minulosti už nejaké stretnutia prebehli, niektoré krajiny boli úplne proti zákazu a argumentovali tým, že existujúce humanitárne dohody sú dostatočné. Boli aj krajiny, ktoré súhlasili so 100-percentným zákazom. Uvidíme, ako to dopadne. Rozhodne mám pocit, že môžeme len získať a stratiť týmto krokom nie je čo.

Venujete sa vývoju v oblasti umelej inteligencie. Na čo sa zameriavate?

Vývoju umelej inteligencii sa venujem osobne – študujem, navrhujem tzv. roadmapy, míľniky, ktoré musíme vyriešiť, navrhujem architektúry našich inteligentných robotov alebo ak mi zvýši čas, tak programujem. Okrem toho vediem tím u nás v GoodAI ( výskumná a vývojová spoločnosť všeobecnej umelej inteligencie, pozn. red.), kde sú ďalší vedci, výskumníci a programátori. Naša roadmapa má dve časti. V prvej chceme vyvinúť algoritmy, ktoré sa budú učiť zo vstupov z okolia tak, že budú postupne nabaľovať schopnosti. V druhej časti navrhneme tzv "školu pre umelé inteligencie”, ktorá bude zložená z tisíciek úloh, v ktorých sa naši roboti naučia potrebné schopnosti a vedomosti, podobne ako deti v škole. Takto zabezpečíme, že umelá inteligencia bude svet chápať podobne ako my ľudia a zároveň bude konať akcie, ktoré sú pre nás užitočné.

© AUTORSKÉ PRÁVA VYHRADENÉ

#zbrane #vývoj #umelá intelignecia #terorizmus #Martin Rosa #Elon Musk
Sleduj najnovšie články na našom Facebooku
29,99
Sweet Rose Camomile Red

Sweet Rose Camomile Red

13,99
Buxus

Buxus

Ponuky zo Zľavy.Pravda.sk