JiunYi Yang
- NLP , Python , PyTorch , 資料科學
- 7 1 月, 2023
- 1098 views
[PyTorch] 使用 torch.distributed 在單機多 GPU 上進行分散式訓練
Finetune 語言模型所需要的 GPU memory 比較多,往往會需要我們能夠利用到多顆 GPU 的資源。今天這篇文章會說明 DataParallel 和 DistributedDataParallel + DistributedSampler 兩種進行模型分散式訓練的方式。
You Missed
【AI Agent 實戰系列】讓 AI 幫你逛街、挑選、結帳:Shopify Storefront MCP 這樣做
martech_jy
- 26 9 月, 2025
- 118 views
GPT‑5 調參實戰指南:reasoning_effort × verbosity,三步把速度、成本、品質一次調好
JiunYi Yang
- 10 8 月, 2025
- 353 views
Zendesk Resolution Platform: 以 AI 驅動的全新客服解決方案
martech_jy
- 31 3 月, 2025
- 898 views
GPT-4o 原生圖像生成功能:OpenAI 突破性技術與安全框架深度解析
martech_jy
- 29 3 月, 2025
- 1059 views