国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

首頁(yè) 後端開發(fā) Python教學(xué) 量化的力量:縮小 GPT 釋放速度

量化的力量:縮小 GPT 釋放速度

Jan 27, 2025 am 02:16 AM

想像一下,採(cǎi)用像 GPT-2 這樣強(qiáng)大的語(yǔ)言模型(能夠編寫故事、回答問(wèn)題和模仿人類文本)並將其壓縮為更精簡(jiǎn)、更快的版本,而不會(huì)削弱其功能。

這就是量化的承諾:一種降低模型計(jì)算精度的技術(shù),以犧牲邊際精度來(lái)?yè)Q取顯著的效率提升。

第 0 階段:技術(shù)設(shè)置

    !pip install torch transformers accelerate bitsandbytes psutil

    from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
    import torch
    import time
    import gc

    def get_memory_usage():
        return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0


    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model_name = "gpt2"
    input_text = "Once upon a time"

第 1 階段:基線 – 全精度 (FP32)

實(shí)驗(yàn)從處?kù)蹲匀粻顟B(tài)的 GPT-2 開始:32 位元浮點(diǎn)精度 (FP32)。這是模型的「全功率」模式——高精度但資源密集。

  • 記憶體:載入 FP32 模型會(huì)消耗 511 MB GPU 記憶體。
  • 速度:依照提示「Once Upon a time」產(chǎn)生50個(gè)代幣需要1.76秒。
  • 清理後佔(zhàn)用空間: 即使刪除模型後,458 MB 記憶體仍然被佔(zhàn)用。

FP32 可以工作,但體積龐大。

    # Load tokenizer and base model
    tokenizer = AutoTokenizer.from_pretrained(model_name)
    print(f"Pre-load memory: {get_memory_usage()} MB")

    # Full precision model
    model_fp32 = AutoModelForCausalLM.from_pretrained(model_name).to(device)
    print(f"Post-load memory: {get_memory_usage()} MB")  # 511.15 MB

    # Inference measurement
    inputs = tokenizer(input_text, return_tensors="pt").to(device)
    start_time = time.time()
    output = model_fp32.generate(**inputs, max_length=50)
    inference_time = time.time() - start_time  # 1.76s

    # Cleanup protocol
    del model_fp32, inputs
    gc.collect()
    torch.cuda.empty_cache()

第 2 階段:精簡(jiǎn)-8 位元量化 (INT8)

輸入 8 位元量化,其中權(quán)重和活化儲(chǔ)存為整數(shù)而不是浮點(diǎn)數(shù)。轉(zhuǎn)變是立竿見(jiàn)影的:

  • 記憶體: INT8 模型載入時(shí)僅 187 MB比 FP32 小 63%。
  • 速度: 推理加速至 1.38 秒提升 22%。
  • 清理後佔(zhàn)用空間:刪除後記憶體降至139 MB。

該車型更輕、更快且仍然有效。明顯的升級(jí)。

    # 8-bit configuration
    quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True)

    print(f"Pre-load memory: {get_memory_usage()} MB")  # 9.18 MB
    model_int8 = AutoModelForCausalLM.from_pretrained(
        model_name, 
        quantization_config=quant_config_8bit
    )

    # Dynamic input handling
    inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device)
    start_time = time.time()
    output = model_int8.generate(**inputs_int8, max_length=50)  # 1.38s

第 3 階段:效率邊緣 - 4 位元量化 (INT4)

現(xiàn)在我們更進(jìn)一步。透過(guò) 4 位元量化,權(quán)重被壓縮到接近最小的精度,並且計(jì)算使用 16 位元浮點(diǎn)來(lái)確保穩(wěn)定性。

  • 記憶體: INT4 型號(hào)的重量為 149 MB比 FP32 輕71%。
  • 速度: 推理時(shí)間降至 1.08 秒,比 FP32 增加了 39%。
  • 清理後佔(zhàn)用空間: 記憶體驟降至 58 MB — 原始記憶體的一小部分。

這不僅僅是最佳化;這不僅僅是最佳化。這是重塑。

    # 8-bit configuration
    quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True)

    print(f"Pre-load memory: {get_memory_usage()} MB")  # 9.18 MB
    model_int8 = AutoModelForCausalLM.from_pretrained(
        model_name, 
        quantization_config=quant_config_8bit
    )

    # Dynamic input handling
    inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device)
    start_time = time.time()
    output = model_int8.generate(**inputs_int8, max_length=50)  # 1.38s

權(quán)衡:精確性與實(shí)用性

量化不是免費(fèi)的。降低精度可能會(huì)微妙地降低模型的準(zhǔn)確性,但對(duì)於許多任務(wù)(例如臨時(shí)文本生成)來(lái)說(shuō),差異是難以察覺(jué)的。我們的收穫遠(yuǎn)大於成本:

  • 內(nèi)存效率: fp32:511 MB→INT8:187 MB→INT4:149 MB。

>結(jié)果:>模型適合更嚴(yán)格的內(nèi)存約束,在消費(fèi)者GPU或邊緣設(shè)備上啟用部署。 >

  • 推理速度: fp32:1.76S→INT8:1.38S→INT4:1.08S。
  • 從聊天機(jī)器人到自動(dòng)化的內(nèi)容生成的實(shí)時(shí)應(yīng)用程序的
>

結(jié)果:更快的響應(yīng)。 >


它的工作原理:壓縮的機(jī)制

在其核心上,量化高精度值(例如32位浮點(diǎn))將其映射到較低精確的格式(8位或4位整數(shù))。例如:

  • > fp32>使用32位,捕獲細(xì)節(jié),但要求大量資源。
  • int8/int4使用較少的位,近似值,損失最小的值。
bitsandbytes庫(kù)會(huì)自動(dòng)處理此操作,重新包裝重量並調(diào)整計(jì)算以保持穩(wěn)定性。

視覺(jué)證明

The Visual Proof並排比較密封了:

    >內(nèi)存用法(條形圖):
  • fp32塔在int8和int4上,展示了資源需求的明顯減少。
  • >推理時(shí)間(線圖):
  • >從fp32到int4的向下斜率突出顯示速度的增長(zhǎng)。
  • 外賣?量化不僅是技術(shù)腳註 - 它是使AI民主化的實(shí)用工具。


最後一句話
    !pip install torch transformers accelerate bitsandbytes psutil

    from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
    import torch
    import time
    import gc

    def get_memory_usage():
        return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0


    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    model_name = "gpt2"
    input_text = "Once upon a time"
通過(guò)量化,我們將GPT-2從資源豐富的龐然大物轉(zhuǎn)變?yōu)殪`活,高效的工具 - 通過(guò)正確的技術(shù),即使是巨人也可以學(xué)會(huì)輕輕地移動(dòng)。
該實(shí)現(xiàn)通過(guò)具體代碼和測(cè)量來(lái)揭示量化的功能。通過(guò)僅修改10-15行配置並部署量化,我們實(shí)現(xiàn)了:>

> 71%記憶足蹟?shù)臏p少

39%的推理速度

    如果您很好奇並且希望有實(shí)驗(yàn)的完整筆記本 - 前往Google Colab。

以上是量化的力量:縮小 GPT 釋放速度的詳細(xì)內(nèi)容。更多資訊請(qǐng)關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

本網(wǎng)站聲明
本文內(nèi)容由網(wǎng)友自願(yuàn)投稿,版權(quán)歸原作者所有。本站不承擔(dān)相應(yīng)的法律責(zé)任。如發(fā)現(xiàn)涉嫌抄襲或侵權(quán)的內(nèi)容,請(qǐng)聯(lián)絡(luò)admin@php.cn

熱AI工具

Undress AI Tool

Undress AI Tool

免費(fèi)脫衣圖片

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅(qū)動(dòng)的應(yīng)用程序,用於創(chuàng)建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費(fèi)的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費(fèi)的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強(qiáng)大的PHP整合開發(fā)環(huán)境

Dreamweaver CS6

Dreamweaver CS6

視覺(jué)化網(wǎng)頁(yè)開發(fā)工具

SublimeText3 Mac版

SublimeText3 Mac版

神級(jí)程式碼編輯軟體(SublimeText3)

Python的UNITDEST或PYTEST框架如何促進(jìn)自動(dòng)測(cè)試? Python的UNITDEST或PYTEST框架如何促進(jìn)自動(dòng)測(cè)試? Jun 19, 2025 am 01:10 AM

Python的unittest和pytest是兩種廣泛使用的測(cè)試框架,它們都簡(jiǎn)化了自動(dòng)化測(cè)試的編寫、組織和運(yùn)行。 1.二者均支持自動(dòng)發(fā)現(xiàn)測(cè)試用例並提供清晰的測(cè)試結(jié)構(gòu):unittest通過(guò)繼承TestCase類並以test\_開頭的方法定義測(cè)試;pytest則更為簡(jiǎn)潔,只需以test\_開頭的函數(shù)即可。 2.它們都內(nèi)置斷言支持:unittest提供assertEqual、assertTrue等方法,而pytest使用增強(qiáng)版的assert語(yǔ)句,能自動(dòng)顯示失敗詳情。 3.均具備處理測(cè)試準(zhǔn)備與清理的機(jī)制:un

如何將Python用於數(shù)據(jù)分析和與Numpy和Pandas等文庫(kù)進(jìn)行操作? 如何將Python用於數(shù)據(jù)分析和與Numpy和Pandas等文庫(kù)進(jìn)行操作? Jun 19, 2025 am 01:04 AM

pythonisidealfordataanalysisionduetonumpyandpandas.1)numpyExccelSatnumericalComputationswithFast,多dimensionalArraysAndRaysAndOrsAndOrsAndOffectorizedOperationsLikenp.sqrt()

什麼是動(dòng)態(tài)編程技術(shù),如何在Python中使用它們? 什麼是動(dòng)態(tài)編程技術(shù),如何在Python中使用它們? Jun 20, 2025 am 12:57 AM

動(dòng)態(tài)規(guī)劃(DP)通過(guò)將復(fù)雜問(wèn)題分解為更簡(jiǎn)單的子問(wèn)題並存儲(chǔ)其結(jié)果以避免重複計(jì)算,來(lái)優(yōu)化求解過(guò)程。主要方法有兩種:1.自頂向下(記憶化):遞歸分解問(wèn)題,使用緩存存儲(chǔ)中間結(jié)果;2.自底向上(表格化):從基礎(chǔ)情況開始迭代構(gòu)建解決方案。適用於需要最大/最小值、最優(yōu)解或存在重疊子問(wèn)題的場(chǎng)景,如斐波那契數(shù)列、背包問(wèn)題等。在Python中,可通過(guò)裝飾器或數(shù)組實(shí)現(xiàn),並應(yīng)注意識(shí)別遞推關(guān)係、定義基準(zhǔn)情況及優(yōu)化空間複雜度。

如何使用__ITER__和__NEXT __在Python中實(shí)現(xiàn)自定義迭代器? 如何使用__ITER__和__NEXT __在Python中實(shí)現(xiàn)自定義迭代器? Jun 19, 2025 am 01:12 AM

要實(shí)現(xiàn)自定義迭代器,需在類中定義__iter__和__next__方法。 ①__iter__方法返回迭代器對(duì)象自身,通常為self,以兼容for循環(huán)等迭代環(huán)境;②__next__方法控制每次迭代的值,返回序列中的下一個(gè)元素,當(dāng)無(wú)更多項(xiàng)時(shí)應(yīng)拋出StopIteration異常;③需正確跟蹤狀態(tài)並設(shè)置終止條件,避免無(wú)限循環(huán);④可封裝複雜邏輯如文件行過(guò)濾,同時(shí)注意資源清理與內(nèi)存管理;⑤對(duì)簡(jiǎn)單邏輯可考慮使用生成器函數(shù)yield替代,但需結(jié)合具體場(chǎng)景選擇合適方式。

Python編程語(yǔ)言及其生態(tài)系統(tǒng)的新興趨勢(shì)或未來(lái)方向是什麼? Python編程語(yǔ)言及其生態(tài)系統(tǒng)的新興趨勢(shì)或未來(lái)方向是什麼? Jun 19, 2025 am 01:09 AM

Python的未來(lái)趨勢(shì)包括性能優(yōu)化、更強(qiáng)的類型提示、替代運(yùn)行時(shí)的興起及AI/ML領(lǐng)域的持續(xù)增長(zhǎng)。首先,CPython持續(xù)優(yōu)化,通過(guò)更快的啟動(dòng)時(shí)間、函數(shù)調(diào)用優(yōu)化及擬議中的整數(shù)操作改進(jìn)提升性能;其次,類型提示深度集成至語(yǔ)言與工具鏈,增強(qiáng)代碼安全性與開發(fā)體驗(yàn);第三,PyScript、Nuitka等替代運(yùn)行時(shí)提供新功能與性能優(yōu)勢(shì);最後,AI與數(shù)據(jù)科學(xué)領(lǐng)域持續(xù)擴(kuò)張,新興庫(kù)推動(dòng)更高效的開發(fā)與集成。這些趨勢(shì)表明Python正不斷適應(yīng)技術(shù)變化,保持其領(lǐng)先地位。

如何使用插座在Python中執(zhí)行網(wǎng)絡(luò)編程? 如何使用插座在Python中執(zhí)行網(wǎng)絡(luò)編程? Jun 20, 2025 am 12:56 AM

Python的socket模塊是網(wǎng)絡(luò)編程的基礎(chǔ),提供低級(jí)網(wǎng)絡(luò)通信功能,適用於構(gòu)建客戶端和服務(wù)器應(yīng)用。要設(shè)置基本TCP服務(wù)器,需使用socket.socket()創(chuàng)建對(duì)象,綁定地址和端口,調(diào)用.listen()監(jiān)聽(tīng)連接,並通過(guò).accept()接受客戶端連接。構(gòu)建TCP客戶端需創(chuàng)建socket對(duì)像後調(diào)用.connect()連接服務(wù)器,再使用.sendall()發(fā)送數(shù)據(jù)和??.recv()接收響應(yīng)。處理多個(gè)客戶端可通過(guò)1.線程:每次連接啟動(dòng)新線程;2.異步I/O:如asyncio庫(kù)實(shí)現(xiàn)無(wú)阻塞通信。注意事

Python類中的多態(tài)性 Python類中的多態(tài)性 Jul 05, 2025 am 02:58 AM

多態(tài)是Python面向?qū)ο缶幊讨械暮诵母拍?,指“一種接口,多種實(shí)現(xiàn)”,允許統(tǒng)一處理不同類型的對(duì)象。 1.多態(tài)通過(guò)方法重寫實(shí)現(xiàn),子類可重新定義父類方法,如Animal類的speak()方法在Dog和Cat子類中有不同實(shí)現(xiàn)。 2.多態(tài)的實(shí)際用途包括簡(jiǎn)化代碼結(jié)構(gòu)、增強(qiáng)可擴(kuò)展性,例如圖形繪製程序中統(tǒng)一調(diào)用draw()方法,或遊戲開發(fā)中處理不同角色的共同行為。 3.Python實(shí)現(xiàn)多態(tài)需滿足:父類定義方法,子類重寫該方法,但不要求繼承同一父類,只要對(duì)象實(shí)現(xiàn)相同方法即可,這稱為“鴨子類型”。 4.注意事項(xiàng)包括保持方

如何在Python中切片列表? 如何在Python中切片列表? Jun 20, 2025 am 12:51 AM

Python列表切片的核心答案是掌握[start:end:step]語(yǔ)法並理解其行為。 1.列表切片的基本格式為list[start:end:step],其中start是起始索引(包含)、end是結(jié)束索引(不包含)、step是步長(zhǎng);2.省略start默認(rèn)從0開始,省略end默認(rèn)到末尾,省略step默認(rèn)為1;3.獲取前n項(xiàng)用my_list[:n],獲取後n項(xiàng)用my_list[-n:];4.使用step可跳過(guò)元素,如my_list[::2]取偶數(shù)位,負(fù)step值可反轉(zhuǎn)列表;5.常見(jiàn)誤區(qū)包括end索引不

See all articles