Bahay Audio Bakit ang pagsasaliksik ng darpa ay maaaring maipaliwanag?

Bakit ang pagsasaliksik ng darpa ay maaaring maipaliwanag?

Anonim

T:

Bakit ang pagsasaliksik ng DARPA ay "explainable AI"?

A:

Sa pangkalahatan, ang nalantad na artipisyal na katalinuhan ay nagiging isang mas heralded na bahagi ng gawaing pagputol sa mga agham ng data. Tumutulong ito upang gabayan ang kontrol ng tao ng isang likas na pabagu-bago at pabago-bagong uri ng teknolohiya - ang napapaliwanag na AI ay tumutulong na sagutin ang maraming mga kolektibong tanong tungkol sa kung paano gagana ang artipisyal na katalinuhan.

Upang maunawaan ang nalalantad na AI, nakakatulong upang maunawaan kung ano ang hitsura ng "regular AI". Ayon sa kaugalian, habang nagsisimula nang bumuo ang AI, ang karaniwang proyekto ay binubuo ng isang magarbong bagong kakayahan sa software, na nakatago sa mga algorithm at mga set ng pagsasanay at linear code, iyon ang uri ng isang "block box" sa mga gumagamit. Alam nila na ito ay gumagana - hindi nila alam kung eksakto kung paano.

Maaari itong humantong sa "mga isyu sa tiwala" kung saan maaaring tanungin ng mga gumagamit ang batayan kung saan nagpapasya ang isang teknolohiya. Iyon ang maaaring maipaliwanag na AI ay dapat matugunan: Ang mga nalalantad na proyekto ng AI ay may karagdagang imprastraktura upang ipakita ang mga gumagamit ng end end ang hangarin at ang istraktura ng AI - kung bakit ginagawa nito ang ginagawa nito.

Sa isang edad kung saan ang mga nangungunang mga innovator tulad ng Bill Gates at Elon Musk ay nagpapahayag ng pag-aalala tungkol sa kung paano gagana ang artipisyal na katalinuhan, napapansin ang AI ay tila kaakit-akit. Nagtalo ang mga eksperto na ang mahusay na maipaliwanag na AI ay makakatulong sa mga gumagamit ng pag-unawa kung bakit ginagawa ng mga teknolohiya ang kanilang ginagawa, dagdagan ang tiwala, at din dagdagan ang kadalian ng paggamit at paggamit ng mga teknolohiyang ito.

Partikular, bagaman, ipinapaliwanag mismo ng DARPA sa sarili nitong dahilan kung bakit ito ay interesado sa mga bagong proyekto. Ipinapakita ng isang pahina sa DARPA na inaasahan ng Kagawaran ng Depensa ang isang "ilog" ng mga artipisyal na aplikasyon ng intelihente, at ilang mga kaguluhan sa pag-unlad nito.

"Ang patuloy na pagsulong ay nangangako na makagawa ng mga awtonomikong sistema na malalaman, alamin, magpasya, at kumilos sa kanilang sarili, " ang isinulat ni David Gunning. "Gayunpaman, ang pagiging epektibo ng mga sistemang ito ay limitado sa kasalukuyang kawalan ng kakayahan ng makina upang maipaliwanag ang kanilang mga desisyon at kilos sa mga gumagamit ng tao. … Malinaw na AI - lalo na ang maliwanag na pag-aaral ng makina - ay mahalaga kung ang mga darating na mandidigma ay upang maunawaan, naaangkop na tiwala, at epektibong pamahalaan ang isang umuusbong na henerasyon ng mga kasosyo sa intelihente na mga kasosyo sa makina. "

Ang online na sanaysay ng Gunning ay nagmumungkahi na ang nalalantad na mga sistema ng AI ay makakatulong upang "magbigay ng katwiran" para sa mga teknolohiya, ipakita ang kanilang mga lakas at kahinaan, at gawing mas malinaw ang mga kaso ng paggamit. Ang isang graphic sa pahina ay nagpapakita kung paano ang isang deretsong pipeline ng artipisyal na pag-andar ng intelektwal mula sa data ng pagsasanay ay mapalaki ng isang bagay na tinatawag na isang explainable model at isang explainable interface na makakatulong sa sagot ng gumagamit. Ipinapahiwatig pa ni Gunning na ang isang nalalantad na programa ng AI ay magkakaroon ng dalawang pangunahing mga lugar na nakatuon - ang isa ay magbabago sa pamamagitan ng multimedia data upang malaman kung ano ang kapaki-pakinabang sa mga gumagamit, at isang pangalawang pokus ay ang pag-simulate ng mga proseso ng desisyon para sa suporta sa desisyon.

Inaasahan ng DARPA na magbigay ng isang "toolkit" na makakatulong upang mabuo ang mga nalalantad na sistema ng AI.

Bakit ang pagsasaliksik ng darpa ay maaaring maipaliwanag?