T:
Bakit ang problema sa makina ay isang problema sa pag-aaral ng makina?
A:Ang tanong na ito ay masasagot sa dalawang magkakaibang paraan. Una, bakit ang problema sa bias ng makina, tulad ng sa, bakit ito umiiral sa mga proseso ng pag-aaral ng makina?
Ang pag-aaral ng makina, kahit na sopistikado at kumplikado, ay sa isang limitadong limitado batay sa mga set ng data na ginagamit nito. Ang pagtatayo ng mga set ng data ay nagsasangkot ng likas na bias. Tulad ng sa media, kung saan ang mga pagtanggi at sinasadya na mga pagpipilian ng pagsasama ay maaaring magpakita ng isang partikular na bias, sa pag-aaral ng makina, ang mga set ng data na ginamit ay dapat suriin upang matukoy kung anong uri ng bias ang umiiral.
Libreng Pag-download: Pag- aaral ng Machine at Bakit Mahalaga ito |
Halimbawa, ito ay isang pangkaraniwang problema para sa pagsubok sa teknolohiya at mga proseso ng disenyo upang ipakita ang isang kagustuhan para sa isang uri ng gumagamit kaysa sa isa pa. Isang malaking halimbawa ay ang pagkakaiba ng kasarian sa mundo ng tech.
Bakit ito nagkakaiba, at bakit nalalapat ito sa pag-aaral ng makina?
Dahil ang isang kakulangan ng umiiral na mga kababaihan sa isang kapaligiran sa pagsubok ay maaaring humantong sa isang gawaing teknolohiya na hindi gaanong user-friendly sa isang babaeng madla. Ang paraan ng paglalarawan ng ilang mga eksperto ay na kung wala ang umiiral na pagsubok sa kababaihan, ang produkto ng pagtatapos ay maaaring hindi makilala ang input ng mga babaeng gumagamit - maaaring hindi ito magkaroon ng mga tool upang makilala ang mga babaeng pagkakakilanlan o upang makitungo nang sapat sa input mula sa mga kababaihan.
Ang parehong ay totoo para sa iba't ibang etniko, mga tao na may iba't ibang relihiyon, o anumang iba pang uri ng demograpiko. Nang walang tamang data, ang algorithm ng pag-aaral ng machine ay hindi gagana nang tama para sa isang naibigay na set ng gumagamit, upang ang data ng pagsasama ay dapat na sadyang maidagdag sa teknolohiya. Sa halip na kumuha lamang ng mga pangunahing set ng data at pagpapatibay ng likas na bias, ang mga tagahawak ng tao ay kailangang talagang tumingin sa isyu.
Ang isa pang halimbawa ay isang makina sa pag-aaral ng makina na kumukuha ng impormasyon sa trabaho at suweldo at naglabas ng mga resulta. Kung ang likas na set ng data ay hindi nasuri, ang makina ay magpapalakas ng bias. Kung napagtanto na hawak ng mga kalalakihan ang karamihan ng mga trabaho sa ehekutibo, at ang proseso ng pag-aaral ng makina ay nagsasangkot ng pag-filter sa pamamagitan ng hilaw na set ng data at pagbabalik ng kaukulang mga resulta, babalik ito sa mga resulta na nagpapakita ng isang lalaki bias.
Ang pangalawang bahagi ng tanong ay nagsasangkot kung bakit nakakasama ang bias na ito. Nang walang sapat na pangangasiwa at pagsubok, ang mga bagong teknolohiya ay maaaring makapinsala, hindi makakatulong, ang aming pakiramdam ng pagsasama at pagkakapantay-pantay. Kung ang isang bagong produkto ng tech ay gumulong na kinikilala ang mga mukha na may mas magaan na balat, ngunit hindi mas madidilim ang balat, maaari itong humantong sa tumaas na pag-igting sa etniko at ang pakiramdam na ang kumpanya na pinag-uusapan ay hindi sensitibo sa pagkakaiba-iba. Kung ang algorithm ng pag-aaral ng machine ay nagpapalaki at nagpapataas ng bias sa mga set ng data, ang artipisyal na katalinuhan ay pupunta sa pagdaragdag ng boses nito sa mga tinig ng tao at mga tendensya ng tao na mayroon na sa sistemang panlipunan na pumapabor sa isang pangkat ng mga tao sa iba pa.
Ang pinakamahusay na paraan upang harapin ito ay upang tumingin nang malapit sa mga pinagbabatayan na mga set ng data, gumamit ng pagpili ng tampok, magdagdag ng variable na pag-input at manipulahin ang mga hilaw na data na nagtatakda ng kanilang sarili, at pinalaki ang tunay na kapangyarihan ng pag-aaral ng makina sa sinasadyang paggawa ng data ng tao, upang makakuha ng resulta na naghahatid ng mahusay na kapangyarihan ng analitikal, ngunit din ang ilan sa mga pananaw ng tao na ang mga computer ay hindi pa maaaring magtiklop.