国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

java - 對gzip文件進行流式解壓時,如何解壓出其中某些單獨的數(shù)據(jù)塊中的數(shù)據(jù)?
PHP中文網(wǎng)
PHP中文網(wǎng) 2017-06-12 09:25:31
0
2
1362

場景描述:

現(xiàn)有許多行日志文本,按天壓縮成一個個TB級的gzip文件。
使用流對每個壓縮文件的數(shù)據(jù)段進行傳輸然后解壓,對解壓出的文本分詞并索引
以后查到這個詞時,定位到這個詞所在的文件和段,再用流傳輸并解壓
(實際上是想利用已有的壓縮文件構(gòu)造一個類似ES的搜索引擎)

現(xiàn)在的問題是,因為接收到的不是完整的壓縮文件而是塊狀二進制數(shù)據(jù),所以接收的數(shù)據(jù)由于信息不完全而無法解壓

現(xiàn)在想實現(xiàn)這樣的功能:首先將接收到的流數(shù)據(jù)解壓還原為完整的數(shù)據(jù)(原始日志數(shù)據(jù)以換行符分隔,能得到每段流數(shù)據(jù)壓縮前的文本和對應文件的偏移量就好),然后考慮到傳輸和存儲等過程可能使數(shù)據(jù)出錯,所以針對每段數(shù)據(jù)流,在出錯的情況下解壓出盡可能多的數(shù)據(jù)。

部分相關代碼如下:(改自https://stackoverflow.com/que...)

import zlib
import traceback

CHUNKSIZE=30

d = zlib.decompressobj(16 + zlib.MAX_WBITS)

f = open('test.py.gz','rb')
buffer = f.read(CHUNKSIZE)

i = 0
while buffer :
    i += 1
    try:
        #skip two chunk 
        if i < 3 or i > 4:
            outstr = d.decompress(buffer)
            print('*'*10 + outstr + '#'*10)
    except Exception, e:
        print(traceback.print_exc())
    finally:
        buffer = f.read(CHUNKSIZE)


outstr = d.flush()
print(outstr)

f.close()

當i>=3以后,每次循環(huán)均報錯
我的結(jié)論是 若流不連續(xù)(跳過接收部分數(shù)據(jù)),則之后的數(shù)據(jù)都無法解壓。
問題1:如果做到能正確的解壓出收到的每部分數(shù)據(jù)?(因為可能牽涉到gzip壓縮的算法和數(shù)據(jù)結(jié)構(gòu),我正在看相關代碼。如果可以通過追加傳輸頭部的某一chuck或者需要解壓的數(shù)據(jù)的前后某些chuck能解決問題也算可以)
問題2:
如果不能正確的解壓接收到的每部分數(shù)據(jù),那么如何做到解壓出盡可能多的數(shù)據(jù)?

PHP中文網(wǎng)
PHP中文網(wǎng)

認證高級PHP講師

全部回復(2)
女神的閨蜜愛上我

我覺得可以做一個出錯重新續(xù)傳的功能,傳輸前備份當前這一段數(shù)據(jù)流,你得判斷出當前傳輸?shù)倪@一段數(shù)據(jù)流是否傳輸完整了。這就要求傳送端和接收端之間的傳輸協(xié)議是你能改動的,出現(xiàn)錯誤就立刻反饋fail給傳輸端,從剛才這段重新續(xù)傳,沒有錯誤就反饋OK,繼續(xù)傳輸下一段。這樣就能保證數(shù)據(jù)的完整性。如果文件太大,可以在內(nèi)存中備份多些數(shù)據(jù)段,做些細節(jié)性的判斷。

某草草

不太確定你描述的問題,不過在stackoverflow 有些問答或許有幫助。

  • How can I decompress a gzip stream with zlib?

  • Python decompressing gzip chunk-by-chunk

最新下載
更多>
網(wǎng)站特效
網(wǎng)站源碼
網(wǎng)站素材
前端模板