Určite ste to postrehli. Umelá inteligencia (AI) od Facebooku označila video, na ktorom boli černosi ako “primáty”. V tomto článku vám vysvetlím možné dôvody, prečo k tomuto incidentu došlo.

AI sama o sebe rasistická nie je. Problém ale je, že sa učí z dát, ktoré jej dodajú ľudia. Tie môžu obsahovať naše predsudky (angl. bias) a tieto predsudky sú problém. Z tohto dôvodu môžu nastávať podobné incidenty. 

Podľa môjho názoru je však za problémom niečo iné, oveľa menej bulvárne či zlovestné. Učenie z dát si totižto AI snaží všemožne uľahčiť (angl. shortcut). Vysvetlím na dvoch príkladoch zo života.

Jeden výskumný tím sa snažil AI naučiť rozoznávať benígne a malígne materské znamienka. Zásobil ju obrovským množstvom obrázkov znamienok, pri ktorých bolo uvedené, či sú zlé či neškodné. Avšak akonáhle bola táto AI nasadená do života, vôbec nefungovala. Spätným skúmaním problému sa zistila príčina. Vo vstupných dátach bolo vždy pri malígnom znamienku odfotené aj pravítko, ktoré meralo jeho veľkosť. Pri benígnych nie. AI to zbadala, a keďže si to nesprávne zasociovala, vždy keď uvidela pravítko, udala znamienko ako malígne. 

V ďalšom výskume sa iný tím snažil naučiť rozoznať psa od vlka. Výsledok bol výborný. Všetky obrázky z reálneho života boli identifované AI správne. Až na jeden. Bol na ňom jasne pes, dokonca malej rasy, žiadny vlk. Výskumníci si znovu lámali hlavu až zistili príčinu. Ten malý psík bol odfotené v lese v snehu. A les so snehom si zasociovala AI s vlkom, na psa ani nepozrela.

Takže aj v prípade AI of Facebook to pravdepodobne bude tak, že vznikla z dát mylná asociácia. Tipujem na “džunglu”. Jednoducho, že bol černoch na obrázku v džungli a tú mala AI zasociovanú s “primátmi”. Bohužial súčasná AI je ešte veľmi hlúpučká a na skutočnú inteligenciu si ešte musíme počkať.