Instrument AI reconstruieste imagine Barack Obama barbat alb vede un dispozitiv AI care a recreat o imagine pixelată cu Barack Obama să pară ca și cum un bărbat alb reprezintă impecabil înclinația rasială în calcule
Un alt aparat de raționament creat de om pentru clarificarea fotografiilor cu privire la înțelegerile indivizilor din imaginile pixelate a obținut un caz primar, dacă este accidental, al inclinării rasiale algoritmice.
Dispozitivul, numit Face Depixelizer, a fost lucrat de un coder și pus pe Twitter. Este lucrat pentru a realiza fotografii pixelate ale indivizilor și pentru a reda cu precizie o imagine ascuțită și exactă a feței lor folosind AI, un fel de AI.
Oricum, clienții au început să observe că cadrul nu era tocmai precis atunci când era vorba de gestionarea numărului negru. Unul a împărtășit o imagine cu cele întâmplate după ce au introdus o imagine pixelată cu Barack Obama - Face Depixelizer l-a transformat într-un bărbat alb.
Blogul AI, Robert Osazuwa Ness, la acel moment, a difuzat diferite imagini cu persoane care nu erau albe prin cadru, inclusiv el însuși, Rep. Alexandria-Ocasio Cortez și personajul de pe ecran, Lucy Liu. Face Depixelizer și-a reprodus în mod fiabil aparițiile pentru a arăta alb.
Instrument AI reconstruieste imagine Barack Obama barbat alb
O clarificare a motivului pentru care Depixeliserul face acest lucru ar putea fi legată de colecția informațională.
Calculele AI sunt pregătite pe indici informaționali uriași, din care recunosc exemple și se încurajează ceea ce ar trebui să caute. Absența unei varietăți decente în seturi de date utilizate pe scară largă implică faptul că aceste cadre sunt pregătite în mod regulat transcendent pe imaginile cu bărbați albi, ceea ce înseamnă că acestea reprezintă caracteristicile implicite ale calității masculine albe.
În ciuda faptului că Face Depixelizer este o prezentare a modului în care aceste cadre pot să cadă la distanță pentru a distinge fețele indivizilor negri, ramificările inclinării rasiale algoritmice depășesc mult timp de la o verificare depixelantă a dispozitivului de idei care circulă pe Twitter.
Un caz al modului în care predispoziția algoritmică ar putea ajunge să rănească persoanele negre în realitate este prin recunoașterea facială. Înainte de această lună, IBM, Amazon și Microsoft au consimțit să suspende oferte de programare a recunoașterii faciale la poliție, după o perioadă destul de îndrăgită de către analiștii AI și adunările libertăților sociale.
Foarte despărțite de realitatea poliției sunt obligate să utilizeze recunoașterea facială pentru rețelele țintă de umbrire, examinările au demonstrat că programarea de recunoaștere facială accesibilă industrial este legată fără îndoială de a identifica greșit doamnele și persoanele cu tonuri de piele mai închise.
O altă clarificare a motivului pentru care s-ar putea face acest lucru este un rezultat direct al a ceea ce mulți se referă la „defalcarea modului”.
Acest lucru influențează genul de AI care a fost utilizat pentru fabricarea Depixeliserului, numită Generative Adversarial Network sau GAN. GAN-urile funcționează prin stabilirea a două calcule în opoziție unul cu celălalt, cu un calcul care produce imagini contrafăcute și celălalt încercând să detecteze falsurile. Defalcarea modului implică în mod adecvat faptul că, indiferent dacă există doar o mică predispoziție în informații, aceasta va fi exacerbată de GAN-uri, deoarece calculul principal va merge pentru cea mai simplă abordare pentru a păcăli pe cea ulterioară.
Instrument AI reconstruieste imagine Barack Obama barbat alb