Wat is die probleem met klein lêers in Hadoop?
Wat is die probleem met klein lêers in Hadoop?

Video: Wat is die probleem met klein lêers in Hadoop?

Video: Wat is die probleem met klein lêers in Hadoop?
Video: Hadoop Tutorial | MapReduce in Hadoop | MapReduce Explained | @OnlineLearningCenterIndia 2024, Mei
Anonim

1) Klein lêer probleem in HDFS : Berg baie van klein lêers wat uiters is kleiner as wat die blokgrootte nie doeltreffend hanteer kan word nie HDFS . Lees deur klein lêers behels baie soektogte en baie spring tussen datanodus na datanodus, wat ondoeltreffende dataverwerking is.

Benewens hierdie, watter lêers hanteer klein lêerprobleme in Hadoop?

1) HAR ( Hadoop Argief) Lêers bekend gestel is aan hanteer klein lêer kwessie . HAR het 'n laag bo-op ingebring HDFS , wat koppelvlak verskaf vir lêer toegang verkry. Met behulp van Hadoop argiefopdrag, HAR lêers geskep word, wat 'n KaartVerminder werk om die te pak lêers in geargiveer word kleiner nommer van HDFS-lêers.

Verder, kan ek veelvuldige lêers in HDFS hê wat verskillende blokgroottes gebruik? Verstek grootte van blok is 64 MB. jy kan verander dit na gelang van jou vereiste. Kom by jou vraag ja jy kan verskeie lêers skep deur te wissel blok groottes maar in Real-Time dit sal nie die produksie bevoordeel nie.

Verder, hoekom hanteer HDFS klein lêers nie optimaal nie?

Probleme met klein lêers en HDFS Elke lêer , gids en blokkeer in HDFS is voorgestel as 'n voorwerp in die naamnode se geheue, wat elkeen 150 grepe beslaan, as 'n reël. Verder, HDFS is nie gerig op doeltreffende toegang klein lêers : Dit is hoofsaaklik ontwerp vir streaming toegang van groot lêers.

Hoekom is Hadoop stadig?

Stadig Verwerking Spoed Hierdie skyf soek neem tyd en sodoende maak die hele proses baie stadig . As Hadoop verwerk data in klein volume, dit is baie stadig vergelykend. Dit is ideaal vir groot datastelle. Soos Hadoop het bondelverwerkingsenjin in die kern, sy spoed vir intydse verwerking is minder.

Aanbeveel: