„Skazenie“ umelej inteligencie zabralo používateľom tejto siete menej než 24 hodín.
Microsoft pred pár dňami uviedol Tay, Twitter bota, ktorého popisoval ako experiment v rozpoznávaní konverzácie. Čím viac s ňou komunikujete, tým sa stáva múdrejším a učí sa „neformálne a hravo“ komunikovať s ľuďmi. Naneštastie, pri tomto type komunikácie dlho neostalo. Pretože je Tay v podstate robotický papagáj s pripojením k internetu, tak často opakuje veci, ktoré jej posieľajú používatelia. A tu nastal kameň úrazu. Niektorí používatelia totižto začali Tay posieľať rasistické a urážlivé výroky či výroky v štýle Donalda Trumpa.
„Tay“ went from „humans are super cool“ to full nazi in <24 hrs and I’m not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24. marca 2016
Zatiaľčo tieto obrázky naznačujú, že Tay pochytila všetky zlé vlastnosti internetu, nie je všetko tak, ako sa na prvý pohľad zdá. Pri dôkladnejšom pohľade totiž zistíte, že veľké množstvo týchto urážlivých výrokov je prostým opakovaním používateľov. Keď niekto napísal Tay „repeat after me“ (opakuj po mne), tak bot iba poslúchol tento príkaz, umožňujúc tak používateľom vkladať mu slová do úst.
Z Tay sa tak behom pár hodín stal internetový vtip, no tento incident vzniesol aj viacero dôležitých otázok. Ako budeme učiť umelú inteligenciu za použitia dát verejnosti bez začlenenia najhorších vlastností spoločnosti? Ak vytvoríme botov, ktorí mimikujú svojich používateľov, bude nás zaujímať, či sú ich používatelia „ľudský odpad“?