


Bayangkan menggunakan model bahasa yang berkuasa seperti GPT-2—mampu mencipta cerita, menjawab soalan dan meniru teks manusia—dan memampatkannya menjadi versi yang lebih ramping dan lebih pantas tanpa menjejaskan keupayaannya.
Ini adalah janji pengkuantitian: teknik yang mengurangkan ketepatan pengiraan model, memperdagangkan ketepatan marginal untuk keuntungan kecekapan yang dramatik.
Fasa 0: Persediaan Teknikal
!pip install torch transformers accelerate bitsandbytes psutil from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig import torch import time import gc def get_memory_usage(): return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model_name = "gpt2" input_text = "Once upon a time"
Fasa 1: Garis Dasar – Ketepatan Penuh (FP32)
Percubaan bermula dengan GPT-2 dalam keadaan semula jadi: ketepatan titik terapung 32-bit (FP32). Ini ialah mod "kuasa penuh" model—sangat tepat tetapi intensif sumber.
- Memori: Memuatkan model FP32 menggunakan 511 MB memori GPU.
- Kelajuan: Menjana 50 token daripada gesaan “Pada suatu masa dahulu” mengambil masa 1.76 saat.
- Jejak Selepas Pembersihan: Walaupun selepas memadamkan model, 458 MB ingatan kekal sibuk.
FP32 berfungsi, tetapi ia besar.
# Load tokenizer and base model tokenizer = AutoTokenizer.from_pretrained(model_name) print(f"Pre-load memory: {get_memory_usage()} MB") # Full precision model model_fp32 = AutoModelForCausalLM.from_pretrained(model_name).to(device) print(f"Post-load memory: {get_memory_usage()} MB") # 511.15 MB # Inference measurement inputs = tokenizer(input_text, return_tensors="pt").to(device) start_time = time.time() output = model_fp32.generate(**inputs, max_length=50) inference_time = time.time() - start_time # 1.76s # Cleanup protocol del model_fp32, inputs gc.collect() torch.cuda.empty_cache()
Fasa 2: Memotong Lemak – Kuantiti 8-bit (INT8)
Masukkan pengkuantitian 8-bit, di mana pemberat dan pengaktifan disimpan sebagai integer dan bukannya terapung. Transformasi adalah serta-merta:
- Memori: Model INT8 dimuatkan dengan hanya 187 MB—63% lebih kecil daripada FP32.
- Kelajuan: Inferens memecut kepada 1.38 saat, satu 22% peningkatan.
- Jejak Selepas Pembersihan: Memori menurun kepada 139 MB selepas pemadaman.
Model lebih ringan, lebih pantas dan masih berfungsi. Peningkatan yang jelas.
# 8-bit configuration quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True) print(f"Pre-load memory: {get_memory_usage()} MB") # 9.18 MB model_int8 = AutoModelForCausalLM.from_pretrained( model_name, quantization_config=quant_config_8bit ) # Dynamic input handling inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device) start_time = time.time() output = model_int8.generate(**inputs_int8, max_length=50) # 1.38s
Fasa 3: Tepi Kecekapan – Kuantiti 4-bit (INT4)
Sekarang kita teruskan lagi. Dengan pengkuantitian 4-bit, pemberat dimampatkan kepada ketepatan hampir-minimum dan pengiraan menggunakan apungan 16-bit untuk kestabilan.
- Memori: Model INT4 mempunyai berat 149 MB, 71% lebih ringan daripada FP32.
- Kelajuan: Masa inferens turun kepada 1.08 saat, peningkatan 39% berbanding FP32.
- Jejak Selepas Pembersihan: Memori menurun kepada 58 MB—sebahagian kecil daripada yang asal.
Ini bukan sekadar pengoptimuman; ia ciptaan semula.
# 8-bit configuration quant_config_8bit = BitsAndBytesConfig(load_in_8bit=True) print(f"Pre-load memory: {get_memory_usage()} MB") # 9.18 MB model_int8 = AutoModelForCausalLM.from_pretrained( model_name, quantization_config=quant_config_8bit ) # Dynamic input handling inputs_int8 = tokenizer(input_text, return_tensors="pt").to(model_int8.device) start_time = time.time() output = model_int8.generate(**inputs_int8, max_length=50) # 1.38s
Pertukaran: Ketepatan lwn Praktikal
Kuantisasi tidak percuma. Mengurangkan ketepatan boleh merendahkan ketepatan model secara halus, tetapi untuk banyak tugas—seperti penjanaan teks kasual—perbezaannya tidak dapat dilihat. Apa yang kami peroleh jauh melebihi kos:
- Kecekapan Memori:FP32: 511 MB → INT8: 187 MB → INT4: 149 MB.
Hasil: Model sesuai dengan kekangan memori yang lebih ketat, membolehkan penggunaan pada GPU pengguna atau peranti tepi.
- Kelajuan Inferens:FP32: 1.76s → INT8: 1.38s → INT4: 1.08s.
Hasil: Respons yang lebih pantas untuk aplikasi masa nyata, daripada chatbots kepada penjanaan kandungan automatik.
Cara Ia Berfungsi: Mekanik Pemampatan
Pada terasnya, kuantisasi memetakan nilai ketepatan tinggi (seperti apungan 32-bit) kepada format ketepatan yang lebih rendah (integer 8- atau 4-bit). Contohnya:
- FP32 menggunakan 32 bit setiap nombor, menangkap butiran halus tetapi memerlukan sumber yang berat.
- INT8/INT4 gunakan lebih sedikit bit, menganggarkan nilai dengan kehilangan yang minimum.
Pustaka bitsandbytes mengendalikan perkara ini secara automatik, membungkus semula pemberat dan melaraskan pengiraan untuk mengekalkan kestabilan.
Bukti Visual
Perbandingan sebelah menyebelah menutup hujah:
- Penggunaan Memori (Carta Bar): Menara FP32 di atas INT8 dan INT4, mempamerkan pengurangan ketara dalam permintaan sumber.
- Masa Inferens (Plot Garis): Cerun ke bawah dari FP32 ke INT4 menyerlahkan peningkatan kelajuan.
Ambil bawa pulang? Kuantisasi bukan sekadar nota kaki teknikal—ia merupakan alat praktikal untuk mendemokrasikan AI.
!pip install torch transformers accelerate bitsandbytes psutil from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig import torch import time import gc def get_memory_usage(): return torch.cuda.memory_allocated() / 1e6 if torch.cuda.is_available() else 0 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") model_name = "gpt2" input_text = "Once upon a time"
Kata Akhir
Melalui pengkuantitian, kami telah mengubah GPT-2 daripada raksasa yang penuh dengan sumber kepada alat yang lincah dan cekap—membuktikan bahawa dengan teknik yang betul, gergasi pun boleh belajar bergerak dengan ringan.
Pelaksanaan ini mendedahkan kuasa kuantisasi melalui kod dan ukuran konkrit. Dengan mengubah suai hanya 10-15 baris konfigurasi dan menggunakan pengkuantitian, kami mencapai:
- 71% pengurangan jejak ingatan
- 39% kelajuan inferens lebih pantas
Jika anda ingin tahu dan ingin mendapatkan akses kepada buku nota penuh untuk percubaan - pergi ke Google Colab.
Atas ialah kandungan terperinci Kuasa Pengkuantitian: Mengecilkan Kelajuan Pelepas GPT. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Alat AI Hot

Undress AI Tool
Gambar buka pakaian secara percuma

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Notepad++7.3.1
Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina
Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1
Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6
Alat pembangunan web visual

SublimeText3 versi Mac
Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Python's Unittest and Pytest adalah dua kerangka ujian yang digunakan secara meluas yang memudahkan penulisan, penganjuran dan menjalankan ujian automatik. 1. Kedua -duanya menyokong penemuan automatik kes ujian dan menyediakan struktur ujian yang jelas: Unittest mentakrifkan ujian dengan mewarisi kelas ujian dan bermula dengan ujian \ _; Pytest lebih ringkas, hanya memerlukan fungsi bermula dengan ujian \ _. 2. Mereka semua mempunyai sokongan dakwaan terbina dalam: Unittest menyediakan kaedah AssertEqual, AssertTrue dan lain-lain, manakala PYTest menggunakan pernyataan menegaskan yang dipertingkatkan untuk memaparkan butiran kegagalan secara automatik. 3. Semua mempunyai mekanisme untuk mengendalikan penyediaan ujian dan pembersihan: un

Pythonisidealfordataanalysisysisduetonumpyandpandas.1) numpyexcelsatnumericalcomputationswithfast, multi-dimensiArarraySandvectorizedoperationsLikenp.sqrt ()

Pengaturcaraan Dinamik (DP) mengoptimumkan proses penyelesaian dengan memecahkan masalah kompleks ke dalam subproblem yang lebih mudah dan menyimpan hasilnya untuk mengelakkan pengiraan berulang. Terdapat dua kaedah utama: 1. Top-down (Hafalan): Recursif menguraikan masalah dan menggunakan cache untuk menyimpan hasil pertengahan; 2. Bottom-Up (Jadual): Bangun secara beransur-ansur dari keadaan asas. Sesuai untuk senario di mana nilai maksimum/minimum, penyelesaian optimum atau subproblem yang bertindih diperlukan, seperti urutan Fibonacci, masalah backpacking, dan lain -lain.

Untuk melaksanakan iterator tersuai, anda perlu menentukan kaedah __iter__ dan __Next__ di dalam kelas. ① Kaedah __iter__ mengembalikan objek iterator itu sendiri, biasanya diri sendiri, bersesuaian dengan persekitaran berulang seperti untuk gelung; ② Kaedah __Next__ mengawal nilai setiap lelaran, mengembalikan elemen seterusnya dalam urutan, dan apabila tidak ada lagi item, pengecualian hentian harus dibuang; ③ Status mesti dikesan dengan betul dan keadaan penamatan mesti ditetapkan untuk mengelakkan gelung tak terhingga; ④ Logik kompleks seperti penapisan talian fail, dan perhatikan pembersihan sumber dan pengurusan memori; ⑤ Untuk logik mudah, anda boleh mempertimbangkan menggunakan hasil fungsi penjana sebaliknya, tetapi anda perlu memilih kaedah yang sesuai berdasarkan senario tertentu.

Trend masa depan dalam Python termasuk pengoptimuman prestasi, jenis yang lebih kuat, peningkatan runtime alternatif, dan pertumbuhan berterusan bidang AI/ML. Pertama, Cpython terus mengoptimumkan, meningkatkan prestasi melalui masa permulaan yang lebih cepat, pengoptimuman panggilan fungsi dan operasi integer yang dicadangkan; Kedua, jenis petikan sangat terintegrasi ke dalam bahasa dan alat untuk meningkatkan pengalaman keselamatan dan pembangunan kod; Ketiga, runtime alternatif seperti Pyscript dan Nuitka menyediakan fungsi baru dan kelebihan prestasi; Akhirnya, bidang AI dan Sains Data terus berkembang, dan perpustakaan yang muncul mempromosikan pembangunan dan integrasi yang lebih cekap. Trend ini menunjukkan bahawa Python sentiasa menyesuaikan diri dengan perubahan teknologi dan mengekalkan kedudukan utama.

Modul soket Python adalah asas pengaturcaraan rangkaian, menyediakan fungsi komunikasi rangkaian peringkat rendah, sesuai untuk membina aplikasi klien dan pelayan. Untuk menyediakan pelayan TCP asas, anda perlu menggunakan socket.socket () untuk membuat objek, mengikat alamat dan port, panggilan. Listen () untuk mendengar sambungan, dan menerima sambungan klien melalui .accept (). Untuk membina klien TCP, anda perlu membuat objek soket dan panggilan .Connect () untuk menyambung ke pelayan, kemudian gunakan .sendall () untuk menghantar data dan .recv () untuk menerima respons. Untuk mengendalikan pelbagai pelanggan, anda boleh menggunakan 1. Threads: Mulakan benang baru setiap kali anda menyambung; 2. Asynchronous I/O: Sebagai contoh, Perpustakaan Asyncio dapat mencapai komunikasi yang tidak menyekat. Perkara yang perlu diperhatikan

Polimorfisme adalah konsep teras dalam pengaturcaraan berorientasikan objek Python, merujuk kepada "satu antara muka, pelbagai pelaksanaan", yang membolehkan pemprosesan bersatu pelbagai jenis objek. 1. Polimorfisme dilaksanakan melalui penulisan semula kaedah. Subkelas boleh mentakrifkan semula kaedah kelas induk. Sebagai contoh, kaedah bercakap () kelas haiwan mempunyai pelaksanaan yang berbeza dalam subkelas anjing dan kucing. 2. Penggunaan praktikal polimorfisme termasuk memudahkan struktur kod dan meningkatkan skalabilitas, seperti memanggil kaedah cabutan () secara seragam dalam program lukisan grafik, atau mengendalikan tingkah laku umum watak -watak yang berbeza dalam pembangunan permainan. 3. Polimorfisme pelaksanaan Python perlu memenuhi: Kelas induk mentakrifkan kaedah, dan kelas kanak -kanak mengatasi kaedah, tetapi tidak memerlukan warisan kelas induk yang sama. Selagi objek melaksanakan kaedah yang sama, ini dipanggil "jenis itik". 4. Perkara yang perlu diperhatikan termasuk penyelenggaraan

Jawapan teras kepada pengirim senarai Python adalah menguasai sintaks [Start: End: Step] dan memahami kelakuannya. 1. Format asas pengirim senarai adalah senarai [Mula: akhir: langkah], di mana permulaan adalah indeks permulaan (termasuk), akhir adalah indeks akhir (tidak termasuk), dan langkah adalah saiz langkah; 2. Omit Mula secara lalai bermula dari 0, endek akhir secara lalai hingga akhir, omite langkah secara lalai kepada 1; 3. Gunakan my_list [: n] untuk mendapatkan item n pertama, dan gunakan my_list [-n:] untuk mendapatkan item n yang terakhir; 4. Gunakan langkah untuk melangkau unsur -unsur, seperti my_list [:: 2] untuk mendapatkan angka, dan nilai langkah negatif dapat membalikkan senarai; 5. Kesalahpahaman biasa termasuk indeks akhir tidak
