Bahay Mga Uso Paano makakaya ang umiiral na mga data sa bodega ng data upang matugunan ang mga pangangailangan ng malaking data analytics?

Paano makakaya ang umiiral na mga data sa bodega ng data upang matugunan ang mga pangangailangan ng malaking data analytics?

Anonim

T:

Paano makakaya ang umiiral na mga data sa bodega ng data upang matugunan ang mga pangangailangan ng malaking data analytics?

A:

Ang mga indibidwal na mga bodega ng bodega ng data ay kailangang suriin nang batay sa kaso. Karaniwan, sa pagsusumikap upang maiunat ang isang umiiral na disenyo ng bodega ng data upang mas mahusay na mahawakan ang malaking analytics ng data, mayroong isang pangunahing proseso para malaman kung ano ang kailangang gawin. Ang mga propesyonal sa IT ay maaaring tawaging "scaling up" o "scaling out."

Webinar: Big Iron, Kilalanin ang Big Data: Liberating Mainframe Data with Hadoop & Spark

Magrehistro dito

Ang pag-scale up sa pangkalahatan ay nagsasangkot sa pagtingin sa pagkuha ng sapat na kapangyarihan sa pagproseso, pagkuha ng isang sapat na dami ng memorya, at pag-akomod ng mas malakas na mga aktibidad ng server upang mahawakan ang lahat ng mga mas malaking set ng data na iproseso ng negosyo. Sa kabaligtaran, ang pag-scale out ay maaaring nangangahulugang pagkolekta ng mga kumpol ng hardware ng server at magkasama silang magkasama upang i-corral ang malaking data.

Ang ilang mga eksperto sa IT ay iminungkahi na ang mas karaniwang pamamaraan sa Apache Hadoop at iba pang mga sikat na malaking tool at platform ay ang masukat at kumpol ng hardware upang makamit ang nais na mga epekto. Gayunpaman, itinuturo ng iba na sa teknolohiya ngayon, ang isang bodega ng data ay maaaring masukat gamit ang isang diskarte sa pagkuha na nagdaragdag ng mga mapagkukunan sa isang server, tulad ng pagkuha ng isang mas mataas na bilang ng mga pagpoproseso ng mga cores kasama ang isang mas malaking halaga ng RAM.

Kahit na sila ay mag-scale o mag-scale out, ang mga bodega ng data ay nangangailangan ng karagdagang mga pisikal na mga assets ng hardware upang ma-hawakan ang mas malaking mga workload ng data. Kailangan din nila ng karagdagang pangangasiwa ng tao, na nangangahulugang maraming pagsasanay para sa mga panloob na koponan. Ang isang pulutong ng pagpaplano ay kailangang pumunta sa proyekto upang matukoy kung anong uri ng stress at presyur ang mas malaking mga data sa pag-andar ng data sa isang umiiral na sistema ng legacy upang mabuo ito para sa isang bagong malaking data ecosystem. Ang isang malaking isyu ay ang mga bottlenecks ng imbakan, na nangangailangan ng mga pag-upgrade sa mga sentro ng imbakan, at iba pang mga uri ng mga bottlenecks ng pagganap na maaaring magdulot ng isang nascent system kung hindi sila ay tinugunan.

Paano makakaya ang umiiral na mga data sa bodega ng data upang matugunan ang mga pangangailangan ng malaking data analytics?