T:
Bakit maaaring isara ng isang kumpanya ang isang proyekto ng chatbot AI?
A:Maaaring isara ng mga kumpanya ang mga artipisyal na proyekto ng intelligence chatbot para sa maraming mga kadahilanan, ngunit ang pinaka-malamang na maaaring maipangkat sa isang kategorya ng mag-asawa. Una, maaaring i-shut down ng mga kumpanya ang mga teknolohiya ng chatbot kung kumilos sila sa mga paraan na maaaring hindi komportable ang kumpanya, tulad ng pagtaguyod ng hindi kanais-nais na pagsasalita. Bilang kahalili, maaaring isara ng mga kumpanya ang isang proyekto ng chatbot kung nagsisimula itong ipakita ang sentimental at kakayahan na alinman ay hindi madaling kontrolado, o maaaring magdulot ng ilang uri ng banta sa kalaunan sa kalusugan at kaligtasan ng publiko.
Mayroon kaming pareho sa mga sitwasyong ito na naitala sa kamakailang kasaysayan. Ang eksperimento ng Microsoft sa Tay chatbot ay natapos nang simulan ni Tay na gawin ang ilan sa mga pinakamasamang katangian ng mga katapat nitong tao - rasista at agresibo na mga puna, at sa pangkalahatan ay hindi kanais-nais na aktibidad, na karamihan sa mga ito ay malinaw na natutunan o kahit na parroted nang direkta mula sa mga gumagamit.
Sa ibang kakaibang pag-aaral sa kaso, isang pag-setup ng chatbot na pinasimunuan ng Facebook ay isinara kapag naobserbahan ng mga siyentipiko ang dalawang chatbots na nakikipag-usap sa isa't isa sa paraang medyo eksklusibo sa pagmamasid ng tao. Mayroong pagtatalo na ang mga entidad ng chatbot ay nagsimulang "makipag-usap sa isang uri ng code" na mas maginhawa para sa kanila at hindi gaanong malinaw sa kanilang mga pantao. Ito ay isang halimbawa ng napaka tunay na pag-aalala sa paligid ng artipisyal na katalinuhan sa pangkalahatan - na habang gumagawa kami ng mahusay na mga hakbang sa pag-unlad ng malakas na artipisyal na intelihensiya, ang mga tao ay dapat kumilos upang maglaman at kontrolin ang anumang mga halimbawa ng pagpapatupad ng AI upang matiyak na hindi nila natawid hangganan. Mayroong isang malaking bilang ng mga alalahanin sa etikal at mga isyu sa kaligtasan na kailangang tugunan ng malakas na artipisyal na katalinuhan, at ito ang isa sa mga pangunahing dahilan na ang ilang mga chatbots o iba pang mga artipisyal na proyekto ng intelektwal ay maaaring isara sa hinaharap ng mga stakeholder na nagtayo at suportado ang mga ito sa pamamagitan ng isang tiyak na proseso.