Vypustili sme démona? Skeptici sa obávajú, že umelá inteligencia na dostatočne vysokom stupni vývoja bude považovať svojich tvorcov za zbytočnú príťaž a „odstrihne sa“ od ľudskej civilizácie. V tom horšom prípade ju môže aj zničiť.
Iní zas hovoria, že celý „folklór“, v ktorom sa počítače s umelou inteligenciou porážajú majstrov v šachu a iných logických hrách, je len cirkusové číslo. Umelá inteligencia (UI) nás v komplexnom myslení údajne ešte celé desaťročia neprekoná. Zneužiť ju však môže práve človek.
Aliancia proti zneužitiu
Hoci si pod vplyvom sci-fi filmov a literatúry pod umelou inteligenciou často predstavujeme roboty na nerozoznanie od ľudí, ktoré sú vybavené vysokým intelektom a diabolskou motiváciou škodiť, pravda je zatiaľ podstatne prozaickejšia.
Ide o hardvér a softvér, ktorý pokojne môže fungovať kdesi v ďalekom cloude, rovnako ako v palubnom počítači autonómneho auta, alebo balistickej rakety. Problém je, že takýto softvér sa môže zneužiť a umelú inteligenciu obrátiť neželaným spôsobom.
Aj preto sa výskumníci zo spoločností Google, Microsoft a IBM spojili pri tvorbe koncepcie „zodpovedných licencií umelej inteligencie“ (Responsible AI Licenses, RAIL).
V čom je problém? Tisícky vývojárov a inžinierov pracuje na softvéri pre strojové učenie a umelú inteligenciu. Vývojári však majú často obmedzenú, či nulovú kontrolu nad tým, ako sa tento softvér po jeho uverejnení používa. Prípadne zneužíva.
Príkladom môže byť softvér na rozpoznávanie tvári v kamerových systémoch. Užitočná záležitosť pri identifikácii hľadaných kriminálnikov, alebo chuligánskych fanúšikov, ktorí majú zakázaný prístup na športové podujatia. Rovnako účinne však môže fungovať v nedemokratických režimoch pri identifikácii demonštrantov a politických oponentov.
Tento nedostatok kontroly je dôležitý, keď vývojár pracuje na softvérových balíkoch s otvoreným zdrojovým kódom strojového učenia, alebo UI. Uvoľňovanie algoritmov, kódov alebo dát v procese výskumu môže spôsobiť, že výskumníci sa musia vzdať svojej kontroly nad ich aplikáciou. Vzniká tak morálna dilema, ktorá môže potenciálne uškodiť vedeckého výskumu, uvádza konzorcium RAIL.
Preto by sa v rámci RAIL mali udeľovať licencie na poskytovanie SW súvisiaho s umelou inteligenciou. RAIL zatiaľ navrhuje licenčné zmluvy pre koncového užívateľa a licenčné zmluvy na zdrojový kód, ktoré môžu poskytovatelia softvéru, výskumníci a vývojári viazať so svojím softvérom, aby zabránili nežiadúcemu používaniu svojich technológií.
Na oboch licenčných zmluvách sa podieľal patentový právnik Christopher Hines.
Nebezpečná otvorenosť
Cieľom licencií je umožniť vývojárom, aby zabránili použitiu svojho softvéru v škodlivých aplikáciách. Licencia pre koncového používateľa upravuje spôsob, akým zákazníci používajú softvérový balík. Licencia na zdrojový kód umožní vývojárom získať väčšinu výhod open-source a zároveň zmierňovať riziko uvoľnenia dôležitého kódu do voľného obehu, kde by ho mohol získať ktokoľvek.
Použitím licencií RAIL získajú tvorcovia softvéru a vývojári UI a strojového učenia právo zabrániť nežiaducim aplikáciám svojho kódu, alebo softvéru. Pravda, ak sa tak udeje v krajine s vymožiteľnosťou práva.
Počiatočnou cieľovou skupinou RAIL sú výskumní pracovníci UI, ktorí uverejňujú dokumenty a zdrojový kód na populárnych konferenciách o strojovom učení, ako sú NeurIPS (predtým NIPS), nedávno založené Združenie pre rozvoj umelej inteligencie (AAAI) alebo Medzinárodná spoločnosť strojového učenia (International Machine Learning Society / IMLS).
Podľa profesora Brenta Hechta z Northwestern University predstavuje open source softvér nespochybniteľné dobro, ale v posledných rokoch mnohí pochopili, že existujú spôsoby, ako táto otvorenosť môže spôsobiť ujmu.
Licencovanie bude zrejme kontroverzné a jeho autori očakávajú, že podnieti aj odbornú diskusiu, ktorá pomôže nájsť optimálny spôsob ochrany.