Mokslininkai išrado būdą atpratinti AI prieš rasizmą

Sausio pabaigoje, "Amazon" vėl buvo ne iš skandalas jai dirbtinį intelektą veido pripažinimo centre. Paaiškėjo, kad jos Rekognition sistema negali atskirti juodaodžių grindų, ir tiek daug prastesnės pajėgumus kolegomis iš "Microsoft" ir kitų kompanijų. Logiškas būdas išspręsti problemą būtų naudoti aukštos kokybės mokymo duomenis, tačiau mokslininkai iš dirbtinio intelekto laboratorijos Masačiusetso universiteto sugalvoti efektyviau.

Mokslininkai išrado būdą atpratinti AI prieš rasizmą

Tai žinoma, kad jie kurti algoritmą, kuris automatiškai išsaugo keletą mokymo duomenų iš nuotraukų, kurios gali sukelti klaidų atpažinti žmones su tamsiai odai rinkinį. Mokslininkai nežada, kad šis metodas suteikia 100% rezultatą, tačiau klaidų skaičius bus aiškiai mažesnis. Tai liudija vidaus testus Mokslininkai: PG tapo 60% mažiau šališkas ir nepraranda atpažinimo tikslumą. Technologija taip pat sumažinti mokymo laiką - didelių sumų duomenų naudojimas sulėtina šį procesą. Nebuvimas šališkumo - labai svarbus bruožas dirbtinio intelekto. Jis vis dažniau naudojamas policijos, kad net ir maža klaida gali sukelti algoritmą, kad kalėjimas gali būti sodinami visiškai nekaltą žmogų. Daugelis žmonių nemėgsta plačiai naudoti veido atpažinimo sistemų, tačiau, jei jie turi būti naudojami - svarbu, kad jie taip glaudžiai, kaip įmanoma.

Jie jau naudojami, net Rusijoje. Pavyzdžiui, per Pasaulio taurės 2018 asmenų pripažinimo algoritmas buvo įgyvendinta Maskvos metro stoties "Frunzenskaya". Jos dėka, policija galėjo greitai nustatyti asmenį, kuris yra ieškomas dėl plėšimo. Jis tapo pirmuoju nusikaltėlis, kuris buvo pagautas naudojant veido atpažinimo sistemą. Jo kaina, beje, yra maždaug 4 milijardų rublių.

Jūs norite kalbėti veido atpažinimo sistemas? Sveiki atvykę į komentarus arba į mūsų pokalbių-telegrama, kur šimtai dalyvių visada mielai pasikalbėti apie mokslo ir technologijų tema!