Talaan ng mga Nilalaman:
Kahulugan - Ano ang ibig sabihin ng Markov Chain?
Ang isang chain Markov ay isang proseso ng matematika na paglilipat mula sa isang estado patungo sa isa pang sa loob ng isang tiyak na bilang ng mga posibleng estado. Ito ay isang koleksyon ng iba't ibang mga estado at mga probabilidad ng isang variable, kung saan ang hinaharap na kondisyon o estado nito ay lubos na nakasalalay sa kaagad nitong nakaraang estado.
Ang isang chain Markov ay kilala rin bilang isang discrete oras Markov chain (DTMC) o proseso ng Markov.
Ipinaliwanag ng Techopedia ang Markov Chain
Ang mga kadena ng Markov ay pangunahing ginagamit upang mahulaan ang hinaharap na estado ng isang variable o anumang bagay batay sa nakaraang estado. Nag-aaplay ito ng mga pamamaraang probabilistik sa paghula sa susunod na estado. Ang mga tanikala ng Markov ay ipinapakita gamit ang mga direktang mga graph, na tumutukoy sa kasalukuyan at nakaraang estado at ang posibilidad ng paglipat mula sa isang estado patungo sa isa pa.
Ang mga tanikala ng Markov ay may ilang mga pagpapatupad sa mga teknolohiya sa computing at Internet. Halimbawa, ang formula ng PageRank (r) na ginagamit ng paghahanap sa Google ay gumagamit ng isang chain na Markov upang makalkula ang PageRank ng isang partikular na pahina ng Web. Ginagamit din ito upang mahulaan ang pag-uugali ng gumagamit sa isang website batay sa naunang mga kagustuhan ng mga gumagamit o pakikipag-ugnay dito.