Habang patuloy ang mabilis na pag-unlad ng artificial intelligence (AI), tila ba hindi lamang kaalaman at teknolohiya ang mabilis na kumakalat—kasama rin ang mga lumang stereotype. Ayon kay Margaret Mitchell, isang kilalang eksperto sa AI ethics na ngayon ay nasa Hugging Face, maraming AI systems ang hindi lamang nagpapalaganap ng mga bias sa wikang Ingles kundi pinapalawak pa ito sa iba't ibang wika at kultura.
SHADES: Panibagong Paraan ng Pagkilatis
Kasama sa kanyang mga proyekto ang SHADES, isang bagong dataset na nilikha para masusing suriin kung paano kumikilos ang bias sa mga AI model kapag isinasaalang-alang ang maraming wika. Sa halip na gumamit ng machine translation, kinonsulta nila ang mga taong may malalim na pang-unawa sa kani-kanilang kultura upang tiyaking may konteksto at sensibilidad ang bawat pagsasalin.
Kung noon ay iniisip natin na ang bias sa AI ay problema lang ng mga bansang Ingles ang pangunahing wika, ngayon ay malinaw na hindi ito totoo. Sa pagkalat ng AI sa buong mundo, napapalawak din ang posibilidad ng maling representasyon—na kadalasan ay hindi naman bahagi ng kultura ngunit nadadala ng modelo mula sa ibang pinanggalingang data.
Hindi lang pagkakaiba ng wika—Kultura rin
Halimbawa, ang stereotype na "ang mga blondina ay hindi matalino" ay hindi likas sa maraming kultura, ngunit lumilitaw ito sa outputs ng AI sa ibang wika. Ibig sabihin, habang naglalakbay ang teknolohiya, kasama nitong dala ang mga pananaw na maaaring dayuhan o nakasasakit sa mga lokal na kultura.
Pinalalala pa ito ng kakayahan ng ilang AI system na mag-imbento ng paliwanag, gaya ng pagbanggit ng mga huwad na siyentipikong pag-aaral upang bigyang-katwiran ang mga bias. Dito nagiging mapanganib ang AI—hindi lang ito nagpaparating ng maling impormasyon, kundi ginagawa pa nitong parang totoo at "may ebidensya."
Teknolohiya na hindi lang teknikal
Isa rin sa mga natukoy na hamon sa proyekto ang pagbuo ng template para sa iba't ibang wika, lalo na sa mga wikang sensitibo sa gramatika gaya ng kasarian, bilang, at uri ng pangngalan. Kinailangan nilang bumuo ng bagong paraan upang masukat ang bias nang patas at may sintaktikong pagkakaangkop sa bawat wika.
Ngunit higit pa sa teknikal na isyu, isa itong kultural na problema. Sa maraming tech company, hindi pa rin lubos na pinahahalagahan ang lalim ng epekto ng bias. Ang mga solusyon ay madalas panlabas lamang—mga simpleng pagtutuwid sa malinaw na stereotype, pero hindi tinutumbok ang mas malalim na ugat.
Ang bias ay global na problema
Habang patuloy ang pagpapalawak ng AI sa iba't ibang bahagi ng mundo, dapat ding palawakin ang pananaw sa kung paano natin ito sinusuri. Hindi sapat ang pagsusuri sa Ingles lamang, at hindi rin sapat ang solusyong mababaw.
Kailangan natin ng mas bukas, mas sensitibo, at mas kultura-angkop na pag-unawa sa bias—sapagkat kung hindi, ang teknolohiya na dapat ay nagpapalaya sa atin ay maaaring maging tagapagdala ng diskriminasyon sa bagong anyo.
0 Mga Komento