国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

Jadual Kandungan
使用 PyTorch FSDP、Q-Lora 和 SDPA 來微調(diào) LLM
可選步驟:將 LoRA 的適配器融入原始模型
Rumah Peranti teknologi AI Dengan hanya $250, pengarah teknikal Hugging Face mengajar anda cara memperhalusi Llama 3

Dengan hanya $250, pengarah teknikal Hugging Face mengajar anda cara memperhalusi Llama 3

May 06, 2024 pm 03:52 PM
python ai kereta api Penggunaan memori

僅用250美元,Hugging Face技術(shù)主管手把手教你微調(diào)Llama 3

Kami sudah biasa dengan model bahasa besar sumber terbuka seperti Llama 3 yang dilancarkan oleh model Meta, Mistral dan Mixtral yang dilancarkan oleh Mistral AI, dan Jamba yang dilancarkan oleh AI21 Lab, yang telah menjadi pesaing OpenAI.

Dalam kebanyakan kes, pengguna perlu memperhalusi model sumber terbuka ini berdasarkan data mereka sendiri untuk menyerlahkan potensi model sepenuhnya.

Tidak sukar untuk memperhalusi model bahasa besar (seperti Mistral) berbanding model kecil menggunakan Q-Learning pada satu GPU, tetapi penalaan halus yang cekap bagi model besar seperti Llama 370b atau Mixtral kekal sebagai cabaran sehingga kini.

Jadi Philipp Schmid, Pengarah Teknikal Hugging Face, menerangkan cara memperhalusi Llama 3 menggunakan PyTorch FSDP dan Q-Lora, dengan bantuan pustaka TRL, Transformers, peft dan set data Hugging Face. Selain FSDP, penulis juga mengadaptasi Flash Attention v2 selepas kemas kini PyTorch 2.2.

Langkah utama penalaan halus adalah seperti berikut:

  • Sediakan persekitaran pembangunan
  • Buat dan muatkan set data
  • Gunakan PyTorch FSDP, Q-Lora dan SDPA untuk memperhalusi model bahasa yang paling besar
  • T model dan melakukan inferens
Sila ambil perhatian: Artikel ini sedang dijalankan Percubaan telah dibuat dan disahkan pada GPU NVIDIA H100 dan NVIDIA A10G. Profil dan kod dioptimumkan untuk GPU 4xA10G, masing-masing dengan memori 24GB. Jika pengguna mempunyai lebih kuasa pengkomputeran, fail konfigurasi (fail yaml) yang dinyatakan dalam langkah 3 perlu diubah suai dengan sewajarnya.

Pengetahuan Latar Belakang FSDP+Q-Lora

Berdasarkan projek kerjasama yang disertai bersama Answer.AI, pengasas Q-Lora Tim Dettmers dan Hugging Face, penulis mempunyai pemahaman tentang apa yang Q-Lora dan PyTorch FSDP (Data Dikongsi Penuh Selari) boleh menyediakan sokongan teknikal diringkaskan.

Gabungan FSDP dan Q-Lora membolehkan pengguna memperhalusi Llama 270b atau Mixtral 8x7B pada 2 GPU gred pengguna (24GB Untuk butiran, sila rujuk artikel di bawah). Antaranya, perpustakaan PEFT Hugging Face memainkan peranan penting dalam hal ini.

Alamat artikel: https://www.answer.ai/posts/2024-03-06-fsdp-qlora.html

PyTorch FSDP ialah teknologi selari data/model yang boleh memisahkan model merentas GPU dan mengurangkan keperluan memori dan dapat melatih model yang lebih besar dengan lebih cekap. Q-LoRA ialah kaedah penalaan halus yang memanfaatkan kuantisasi dan penyesuai peringkat rendah untuk mengurangkan keperluan pengiraan dan jejak memori dengan cekap.

Sediakan persekitaran pembangunan

Langkah pertama ialah memasang Perpustakaan Wajah Memeluk dan Pyroch, termasuk perpustakaan seperti trl, transformer dan set data. trl ialah perpustakaan baharu yang dibina pada transformer dan set data yang memudahkan penalaan halus, RLHF dan penjajaran model bahasa besar sumber terbuka.

# Install Pytorch for FSDP and FA/SDPA%pip install "torch==2.2.2" tensorboard# Install Hugging Face libraries%pip install--upgrade "transformers==4.40.0" "datasets==2.18.0" "accelerate==0.29.3" "evaluate==0.4.1" "bitsandbytes==0.43.1" "huggingface_hub==0.22.2" "trl==0.8.6" "peft==0.10.0"
Seterusnya, log masuk ke Hugging Face untuk mendapatkan model Llama 3 70b.

Buat dan muatkan set data

Selepas persediaan persekitaran selesai, kita boleh mula mencipta dan menyediakan set data. Set data microinvocation harus mengandungi sampel sampel tugasan yang ingin diselesaikan oleh pengguna. Baca Cara memperhalusi LLM dengan Memeluk Wajah pada tahun 2024 untuk mengetahui lebih lanjut tentang membuat set data.

Alamat artikel: https://www.philschmid.de/fine-tune-llms-in-2024-with-trl#3-create-and-prepare-the-dataset

Pengarang menggunakan dataset HuggingFaceH4/no_robots , yang merupakan set data berkualiti tinggi yang mengandungi 10,000 arahan dan sampel, dan telah dianotasi dengan data berkualiti tinggi. Data ini boleh digunakan untuk penyeliaan penalaan halus (SFT) untuk menjadikan model bahasa mengikut arahan manusia dengan lebih baik. Set data no_robots dimodelkan selepas set data arahan manusia yang diterangkan dalam kertas InstructGPT yang diterbitkan oleh OpenAI, dan terdiri terutamanya daripada arahan ayat tunggal.

{"messages": [{"role": "system", "content": "You are..."}, {"role": "user", "content": "..."}, {"role": "assistant", "content": "..."}]}{"messages": [{"role": "system", "content": "You are..."}, {"role": "user", "content": "..."}, {"role": "assistant", "content": "..."}]}{"messages": [{"role": "system", "content": "You are..."}, {"role": "user", "content": "..."}, {"role": "assistant", "content": "..."}]}
no_robots 10,000 sampel dalam set data dibahagikan kepada 9,500 sampel latihan dan 500 sampel ujian, beberapa daripadanya tidak mengandungi maklumat sistem. Pengarang menggunakan perpustakaan set data untuk memuatkan set data, menambah maklumat sistem yang hilang dan menyimpannya ke dalam fail json yang berasingan. Kod sampel kelihatan seperti ini:

from datasets import load_dataset# Convert dataset to OAI messagessystem_message = """You are Llama, an AI assistant created by Philipp to be helpful and honest. Your knowledge spans a wide range of topics, allowing you to engage in substantive conversations and provide analysis on complex subjects."""def create_conversation(sample):if sample["messages"][0]["role"] == "system":return sampleelse:sample["messages"] = [{"role": "system", "content": system_message}] + sample["messages"]return sample# Load dataset from the hubdataset = load_dataset("HuggingFaceH4/no_robots")# Add system message to each conversationcolumns_to_remove = list(dataset["train"].features)columns_to_remove.remove("messages")dataset = dataset.map(create_conversation, remove_columns=columns_to_remove,batched=False)# Filter out conversations which are corrupted with wrong turns, keep which have even number of turns after adding system messagedataset["train"] = dataset["train"].filter(lambda x: len(x["messages"][1:]) % 2 == 0)dataset["test"] = dataset["test"].filter(lambda x: len(x["messages"][1:]) % 2 == 0)# save datasets to diskdataset["train"].to_json("train_dataset.json", orient="records", force_ascii=False)dataset["test"].to_json("test_dataset.json", orient="records", force_ascii=False)

使用 PyTorch FSDP、Q-Lora 和 SDPA 來微調(diào) LLM

接下來使用 PyTorch FSDP、Q-Lora 和 SDPA 對大語言模型進行微調(diào)。作者是在分布式設(shè)備中運行模型,因此需要使用 torchrun 和 python 腳本啟動訓(xùn)練。

作者編寫了 run_fsdp_qlora.py 腳本,其作用是從磁盤加載數(shù)據(jù)集、初始化模型和分詞器并開始模型訓(xùn)練。腳本使用 trl 庫中的 SFTTrainer 來對模型進行微調(diào)。

SFTTrainer 能夠讓對開源大語言模型的有監(jiān)督微調(diào)更加容易上手,具體來說有以下幾點:

格式化的數(shù)據(jù)集,包括格式化的多輪會話和指令(已使用)只對完整的內(nèi)容進行訓(xùn)練,忽略只有 prompts 的情況(未使用)打包數(shù)據(jù)集,提高訓(xùn)練效率(已使用)支持參數(shù)高效微調(diào)技術(shù),包括 Q-LoRA(已使用)為會話級任務(wù)微調(diào)初始化模型和分詞器(未使用,見下文)

注意:作者使用的是類似于 Anthropic/Vicuna 的聊天模板,設(shè)置了「用戶」和「助手」角色。這樣做是因為基礎(chǔ) Llama 3 中的特殊分詞器(<|begin_of_text|> 及 <|reserved_special_token_XX|>)沒有經(jīng)過訓(xùn)練。

這意味著如果要在模板中使用這些分詞器,還需要對它們進行訓(xùn)練,并更新嵌入層和 lm_head,對內(nèi)存會產(chǎn)生額外的需求。如果使用者有更多的算力,可以修改 run_fsdp_qlora.py 腳本中的 LLAMA_3_CHAT_TEMPLATE 環(huán)境變量。

在配置參數(shù)方面,作者使用了新的 TrlParser 變量,它允許我們在 yaml 文件中提供超參數(shù),或者通過明確地將參數(shù)傳遞給 CLI 來覆蓋配置文件中的參數(shù),例如 —num_epochs 10。以下是在 4x A10G GPU 或 4x24GB GPU 上微調(diào) Llama 3 70B 的配置文件。

%%writefile llama_3_70b_fsdp_qlora.yaml# script parametersmodel_id: "meta-llama/Meta-Llama-3-70b" # Hugging Face model iddataset_path: "."# path to datasetmax_seq_len:3072 # 2048# max sequence length for model and packing of the dataset# training parametersoutput_dir: "./llama-3-70b-hf-no-robot" # Temporary output directory for model checkpointsreport_to: "tensorboard" # report metrics to tensorboardlearning_rate: 0.0002# learning rate 2e-4lr_scheduler_type: "constant"# learning rate schedulernum_train_epochs: 3# number of training epochsper_device_train_batch_size: 1 # batch size per device during trainingper_device_eval_batch_size: 1# batch size for evaluationgradient_accumulation_steps: 2 # number of steps before performing a backward/update passoptim: adamw_torch # use torch adamw optimizerlogging_steps: 10# log every 10 stepssave_strategy: epoch # save checkpoint every epochevaluation_strategy: epoch # evaluate every epochmax_grad_norm: 0.3 # max gradient normwarmup_ratio: 0.03 # warmup ratiobf16: true # use bfloat16 precisiontf32: true # use tf32 precisiongradient_checkpointing: true # use gradient checkpointing to save memory# FSDP parameters: https://huggingface.co/docs/transformers/main/en/fsdpfsdp: "full_shard auto_wrap offload" # remove offload if enough GPU memoryfsdp_config:backward_prefetch: "backward_pre"forward_prefetch: "false"use_orig_params: "false"

注意:訓(xùn)練結(jié)束時,GPU 內(nèi)存使用量會略有增加(約 10%),這是因為模型保存所帶來的開銷。所以使用時,請確保 GPU 上有足夠的內(nèi)存來保存模型。

在啟動模型訓(xùn)練階段,作者使用 torchrun 來更加靈活地運用樣本,并且易于被調(diào)整,就像 Amazon SageMaker 及 Google Cloud Vertex AI 一樣。

對于 torchrun 和 FSDP,作者需要對環(huán)境變量 ACCELERATE_USE_FSDP 和 FSDP_CPU_RAM_EFFICIENT_LOADING 進行設(shè)置,來告訴 transformers/accelerate 使用 FSDP 并以節(jié)省內(nèi)存的方式加載模型。

注意:如果想不使用 CPU offloading 功能,需要更改 fsdp 的設(shè)置。這種操作只適用于內(nèi)存大于 40GB 的 GPU。

本文使用以下命令啟動訓(xùn)練:

!ACCELERATE_USE_FSDP=1 FSDP_CPU_RAM_EFFICIENT_LOADING=1 torchrun --nproc_per_node=4 ./scripts/run_fsdp_qlora.py --config llama_3_70b_fsdp_qlora.yaml

預(yù)期內(nèi)存使用情況:

  • 使用 FSDP 進行全微調(diào)需要約 16 塊 80GB 內(nèi)存的 GPU
  • FSDP+LoRA 需要約 8 塊 80GB 內(nèi)存的 GPU
  • FSDP+Q-Lora 需要約 2 塊 40GB 內(nèi)存的 GPU
  • FSDP+Q-Lora+CPU offloading 技術(shù)需要 4 塊 24GB 內(nèi)存的 GPU,以及一塊具備 22 GB 內(nèi)存的 GPU 和 127 GB 的 CPU RAM,序列長度為 3072、batch 大小為 1。

在 g5.12xlarge 服務(wù)器上,基于包含 1 萬個樣本的數(shù)據(jù)集,作者使用 Flash Attention 對 Llama 3 70B 進行 3 個 epoch 的訓(xùn)練,總共需要 45 小時。每小時成本為 5.67 美元,總成本為 255.15 美元。這聽起來很貴,但可以讓你在較小的 GPU 資源上對 Llama 3 70B 進行微調(diào)。

如果我們將訓(xùn)練擴展到 4x H100 GPU,訓(xùn)練時間將縮短至大約 125 小時。如果假設(shè) 1 臺 H100 的成本為 5-10 美元 / 小時,那么總成本將在 25-50 美元之間。

我們需要在易用性和性能之間做出權(quán)衡。如果能獲得更多更好的計算資源,就能減少訓(xùn)練時間和成本,但即使只有少量資源,也能對 Llama 3 70B 進行微調(diào)。對于 4x A10G GPU 而言,需要將模型加載到 CPU 上,這就降低了總體 flops,因此成本和性能會有所不同。

注意:在作者進行的評估和測試過程中,他注意到大約 40 個最大步長(將 80 個樣本堆疊為長度為三千的序列)就足以獲得初步結(jié)果。40 個步長的訓(xùn)練時間約為 1 小時,成本約合 5 美元。

可選步驟:將 LoRA 的適配器融入原始模型

使用 QLoRA 時,作者只訓(xùn)練適配器而不對整個模型做出修改。這意味著在訓(xùn)練過程中保存模型時,只保存適配器權(quán)重,而不保存完整模型。

如果使用者想保存完整的模型,使其更容易與文本生成推理器一起使用,則可以使用 merge_and_unload 方法將適配器權(quán)重合并到模型權(quán)重中,然后使用 save_pretrained 方法保存模型。這將保存一個默認(rèn)模型,可用于推理。

注意:CPU 內(nèi)存需要大于 192GB。

#### COMMENT IN TO MERGE PEFT AND BASE MODEL ##### from peft import AutoPeftModelForCausalLM# # Load PEFT model on CPU# model = AutoPeftModelForCausalLM.from_pretrained(# args.output_dir,# torch_dtype=torch.float16,# low_cpu_mem_usage=True,# )# # Merge LoRA and base model and save# merged_model = model.merge_and_unload()# merged_model.save_pretrained(args.output_dir,safe_serialization=True, max_shard_size="2GB")

模型測試和推理

訓(xùn)練完成后,我們要對模型進行評估和測試。作者從原始數(shù)據(jù)集中加載不同的樣本,并手動評估模型。評估生成式人工智能模型并非易事,因為一個輸入可能有多個正確的輸出。閱讀《評估 LLMs 和 RAG,一個使用 Langchain 和 Hugging Face 的實用案例》可以了解到關(guān)于評估生成模型的相關(guān)內(nèi)容。

文章地址:https://www.philschmid.de/evaluate-llm

import torchfrom peft import AutoPeftModelForCausalLMfrom transformers import AutoTokenizerpeft_model_id = "./llama-3-70b-hf-no-robot"# Load Model with PEFT adaptermodel = AutoPeftModelForCausalLM.from_pretrained(peft_model_id,torch_dtype=torch.float16,quantization_config= {"load_in_4bit": True},device_map="auto")tokenizer = AutoTokenizer.from_pretrained(peft_model_id)

接下來加載測試數(shù)據(jù)集,嘗試生成指令。

from datasets import load_datasetfrom random import randint# Load our test dataseteval_dataset = load_dataset("json", data_files="test_dataset.json", split="train")rand_idx = randint(0, len(eval_dataset))messages = eval_dataset[rand_idx]["messages"][:2]# Test on sampleinput_ids = tokenizer.apply_chat_template(messages,add_generation_prompt=True,return_tensors="pt").to(model.device)outputs = model.generate(input_ids,max_new_tokens=512,eos_token_id= tokenizer.eos_token_id,do_sample=True,temperature=0.6,top_p=0.9,)response = outputs[0][input_ids.shape[-1]:]print(f"**Query:**\n{eval_dataset[rand_idx]['messages'][1]['content']}\n")print(f"**Original Answer:**\n{eval_dataset[rand_idx]['messages'][2]['content']}\n")print(f"**Generated Answer:**\n{tokenizer.decode(response,skip_special_tokens=True)}")# **Query:**# How long was the Revolutionary War?# **Original Answer:**# The American Revolutionary War lasted just over seven years. The war started on April 19, 1775, and ended on September 3, 1783.# **Generated Answer:**# The Revolutionary War, also known as the American Revolution, was an 18th-century war fought between the Kingdom of Great Britain and the Thirteen Colonies. The war lasted from 1775 to 1783.

至此,主要流程就介紹完了,心動不如行動,趕緊從第一步開始操作吧。

Atas ialah kandungan terperinci Dengan hanya $250, pengarah teknikal Hugging Face mengajar anda cara memperhalusi Llama 3. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan Laman Web ini
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn

Alat AI Hot

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

Video Face Swap

Video Face Swap

Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Alat panas

Notepad++7.3.1

Notepad++7.3.1

Editor kod yang mudah digunakan dan percuma

SublimeText3 versi Cina

SublimeText3 versi Cina

Versi Cina, sangat mudah digunakan

Hantar Studio 13.0.1

Hantar Studio 13.0.1

Persekitaran pembangunan bersepadu PHP yang berkuasa

Dreamweaver CS6

Dreamweaver CS6

Alat pembangunan web visual

SublimeText3 versi Mac

SublimeText3 versi Mac

Perisian penyuntingan kod peringkat Tuhan (SublimeText3)

Topik panas

Tutorial PHP
1502
276
Bagaimana untuk melaksanakan pertanyaan SQL di Python? Bagaimana untuk melaksanakan pertanyaan SQL di Python? Aug 02, 2025 am 01:56 AM

Pasang pemacu pangkalan data yang sepadan; 2. Gunakan Connect () untuk menyambung ke pangkalan data; 3. Buat objek kursor; 4. Gunakan melaksanakan () atau executemany () untuk melaksanakan SQL dan menggunakan pertanyaan parameter untuk mengelakkan suntikan; 5. Gunakan Fetchall (), dan sebagainya untuk mendapatkan hasil; 6. komit () diperlukan selepas pengubahsuaian; 7. Akhirnya, tutup sambungan atau gunakan pengurus konteks untuk mengendalikannya secara automatik; Proses lengkap memastikan operasi SQL selamat dan cekap.

Mengapa safari menggunakan memori yang begitu banyak? Mengapa safari menggunakan memori yang begitu banyak? Aug 03, 2025 am 03:13 AM

Sebab -sebab utama mengapa Safari menggunakan banyak memori termasuk membuka terlalu banyak tab pada masa yang sama, proses latar belakang dan sambungan, pengumpulan data cache, dan versi sistem atau pelayar yang lebih lama. Pertama, membuka terlalu banyak tag akan meningkatkan penggunaan memori dengan ketara, disyorkan untuk menyimpan hanya tag yang diperlukan, menggunakan penanda halaman atau "senarai bacaan" untuk menyimpan kandungan yang anda lihat kemudian, dan secara berkala menutup tag lama yang anda tidak lagi gunakan. Kedua, sambungan latar belakang dan kandungan yang dimuatkan juga akan memori. Anda harus pergi ke Keutamaan> Sambungan untuk melumpuhkan plugin yang tidak perlu dan mematikan preload terbaik perlawanan dalam pilihan laman web. Ketiga, kerap membersihkan sejarah dan data cache dapat mengurangkan beban ingatan. Anda boleh mengklik "All" dalam "Privasi" untuk membersihkannya dan memulakan semula Safari. Akhirnya, pastikan Safa

Bagaimana untuk berkongsi data antara pelbagai proses dalam Python? Bagaimana untuk berkongsi data antara pelbagai proses dalam Python? Aug 02, 2025 pm 01:15 PM

Gunakan multiprocessing.queue untuk selamat lulus data antara pelbagai proses, sesuai untuk senario pelbagai pengeluar dan pengguna; 2. Gunakan multiprocessing.pipe untuk mencapai komunikasi berkelajuan tinggi dua arah antara dua proses, tetapi hanya untuk sambungan dua mata; 3. Gunakan nilai dan array untuk menyimpan jenis data mudah dalam memori bersama, dan perlu digunakan dengan kunci untuk mengelakkan keadaan persaingan; 4. Pengurus Gunakan untuk berkongsi struktur data yang kompleks seperti senarai dan kamus, yang sangat fleksibel tetapi mempunyai prestasi yang rendah, dan sesuai untuk senario dengan keadaan kongsi yang kompleks; Kaedah yang sesuai harus dipilih berdasarkan saiz data, keperluan prestasi dan kerumitan. Baris dan pengurus paling sesuai untuk pemula.

Contoh muat naik Python Boto3 S3 Contoh muat naik Python Boto3 S3 Aug 02, 2025 pm 01:08 PM

Gunakan BOTO3 untuk memuat naik fail ke S3 untuk memasang BOTO3 terlebih dahulu dan mengkonfigurasi kelayakan AWS; 2. Buat pelanggan melalui boto3.client ('s3') dan hubungi kaedah upload_file () untuk memuat naik fail tempatan; 3. Anda boleh menentukan S3_Key sebagai laluan sasaran, dan menggunakan nama fail tempatan jika tidak ditentukan; 4. Pengecualian seperti FileNotFoundError, Nocredentialserror dan ClientError harus dikendalikan; 5. ACL, ContentType, StorageClass dan Metadata boleh ditetapkan melalui parameter extraargs; 6. Untuk data memori, anda boleh menggunakan Bytesio untuk membuat perkataan

Bagaimana untuk melaksanakan struktur data stack menggunakan senarai di Python? Bagaimana untuk melaksanakan struktur data stack menggunakan senarai di Python? Aug 03, 2025 am 06:45 AM

PythonListScani pelaksanaan tambahan () penouspop () popopoperations.1.useappend () dua -belief stotetopofthestack.2.usep op () toremoveandreturnthetop elemen, memastikantocheckifthestackisnoteptoavoidindexerror.3.pesensteHatoTeHateSerror.3.pasarceHatoTePelement.

Ethereum Shines: Bank of America Memulakan Penjejakan Aset Digital, ETH menjadi tumpuan lagi Ethereum Shines: Bank of America Memulakan Penjejakan Aset Digital, ETH menjadi tumpuan lagi Aug 01, 2025 pm 08:09 PM

Bank of America memulakan penjejakan aset digital untuk menandakan peningkatan pengiktirafan Ethereum dalam kewangan arus perdana. 1. Peningkatan pengiktirafan kesahihan; 2. Ia boleh menarik institusi untuk memperuntukkan aset digital; 3. Menggalakkan proses pematuhan; 4. Sahkan prospek aplikasi dan nilai berpotensi ETH sebagai "minyak digital"; Ethereum telah menjadi tumpuan kerana ekosistem Dapp yang besar, 1. Meningkatkan teknologi kepada PO untuk meningkatkan skalabiliti, keselamatan dan kemampanan; 2. Pinjaman sokongan, perdagangan dan perkhidmatan kewangan lain sebagai teras DEFI; 3. Menyokong kemakmuran NFT dan menyatukan permintaan ekologi; 4. Memperluas aplikasi peringkat perusahaan seperti pengurusan rantaian bekalan; 5. EIP-1559 memperkenalkan mekanisme deflasi untuk meningkatkan kekurangan; Platform perdagangan teratas termasuk: 1. Binance (Volume Trading)

Cara mewujudkan persekitaran maya di python Cara mewujudkan persekitaran maya di python Aug 05, 2025 pm 01:05 PM

Untuk mewujudkan persekitaran maya Python, anda boleh menggunakan modul VENV. Langkah-langkahnya adalah: 1. Masukkan direktori projek untuk melaksanakan persekitaran python-mvenvenv untuk mewujudkan persekitaran; 2. Gunakan Sourceenv/Bin/Aktifkan ke Mac/Linux dan Env \ Scripts \ Aktifkan ke Windows; 3. Gunakan Pakej Pemasangan Pipinstall, PipFreeze> Keperluan.txt untuk mengeksport kebergantungan; 4. Berhati -hati untuk mengelakkan menyerahkan persekitaran maya ke Git, dan mengesahkan bahawa ia berada dalam persekitaran yang betul semasa pemasangan. Persekitaran maya boleh mengasingkan kebergantungan projek untuk mencegah konflik, terutamanya sesuai untuk pembangunan pelbagai projek, dan editor seperti pycharm atau vscode juga

App Exchange OUYI Versi Android V6.132.0 OUYI App Rasmi Laman Web Muat turun dan Panduan Pemasangan 2025 App Exchange OUYI Versi Android V6.132.0 OUYI App Rasmi Laman Web Muat turun dan Panduan Pemasangan 2025 Aug 04, 2025 pm 11:18 PM

OKX adalah platform perkhidmatan aset digital yang terkenal di dunia, menyediakan pengguna dengan produk dan perkhidmatan yang pelbagai termasuk tempat, kontrak, pilihan, dan lain-lain. Dengan pengalaman operasi yang lancar dan integrasi fungsi yang kuat, aplikasi rasminya telah menjadi alat yang sama untuk banyak pengguna aset digital.

See all articles