Documentation Index
Fetch the complete documentation index at: https://wb-21fd5541-weave-caching.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
WandbCallback 클래스를 사용하여 fastai를 W&B와 인테그레이션할 수 있습니다. 자세한 내용은 예제가 포함된 대화형 문서를 확인하세요.
가입 및 API 키 생성
API 키는 사용자 머신을 W&B에 인증합니다. 사용자 프로필에서 API 키를 생성할 수 있습니다.
For a more streamlined approach, create an API key by going directly to User Settings. Copy the newly created API key immediately and save it in a secure location such as a password manager.
- 오른쪽 상단 모서리에 있는 사용자 프로필 아이콘을 클릭합니다.
- User Settings를 선택한 다음 API Keys 섹션으로 스크롤합니다.
wandb 라이브러리 설치 및 로그인
로컬에 wandb 라이브러리를 설치하고 로그인하려면:
Command Line
Python
Python notebook
-
WANDB_API_KEY 환경 변수를 해당 API 키로 설정합니다.
export WANDB_API_KEY=<your_api_key>
-
wandb 라이브러리를 설치하고 로그인합니다.
pip install wandb
wandb login
import wandb
wandb.login()
!pip install wandb
import wandb
wandb.login()
learner 또는 fit 메소드에 WandbCallback 추가
import wandb
from fastai.callback.wandb import *
# wandb run 로깅 시작
wandb.init(project="my_project")
# 하나의 트레이닝 단계 동안만 로깅하려는 경우
learn.fit(..., cbs=WandbCallback())
# 모든 트레이닝 단계에 대해 지속적으로 로깅하려는 경우
learn = learner(..., cbs=WandbCallback())
WandbCallback 인수
WandbCallback은 다음 인수를 허용합니다:
| 인수 | 설명 |
|---|
| log | 모델의 gradients, parameters, all 또는 None (기본값) 중 무엇을 로그할지 결정합니다. Losses 및 메트릭은 항상 로그됩니다. |
| log_preds | 예측값 샘플을 로그할지 여부 (기본값은 True). |
| log_preds_every_epoch | 매 에포크마다 예측값을 로그할지 아니면 마지막에 로그할지 여부 (기본값은 False). |
| log_model | 모델을 로그할지 여부 (기본값은 False). 이 기능을 사용하려면 SaveModelCallback이 필요합니다. |
| model_name | 저장할 file의 이름으로, SaveModelCallback 설정을 덮어씁니다. |
| log_dataset | False (기본값)True로 설정하면 learn.dls.path가 참조하는 폴더를 로그합니다.- 로그할 폴더를 지정하기 위해 경로를 명시적으로 정의할 수 있습니다.
참고: 하위 폴더 “models”는 항상 무시됩니다. |
| dataset_name | 로그된 데이터셋의 이름 (기본값은 folder name). |
| valid_dl | 예측값 샘플링에 사용될 아이템을 포함하는 DataLoaders (기본값은 learn.dls.valid에서 임의로 추출된 아이템). |
| n_preds | 로그할 예측값의 개수 (기본값은 36). |
| seed | 랜덤 샘플을 정의하는 데 사용되는 시드값. |
커스텀 워크플로우의 경우, 데이터셋과 모델을 수동으로 로그할 수 있습니다:
log_dataset(path, name=None, metadata={})
log_model(path, name=None, metadata={})
참고: 하위 폴더 “models”는 무시됩니다.
분산 트레이닝 (Distributed Training)
fastai는 컨텍스트 매니저 distrib_ctx를 사용하여 분산 트레이닝을 지원합니다. W&B는 이를 자동으로 지원하며 별도의 설정 없이 Multi-GPU 실험을 추적할 수 있도록 해줍니다.
다음의 최소 예제를 살펴보세요:
import wandb
from fastai.vision.all import *
from fastai.distributed import *
from fastai.callback.wandb import WandbCallback
wandb.require(experiment="service")
path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
def train():
dls = ImageDataLoaders.from_name_func(
path,
get_image_files(path),
valid_pct=0.2,
label_func=lambda x: x[0].isupper(),
item_tfms=Resize(224),
)
wandb.init("fastai_ddp", entity="capecape")
cb = WandbCallback()
learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
with learn.distrib_ctx(sync_bn=False):
learn.fit(1)
if __name__ == "__main__":
train()
그 다음, 터미널에서 다음을 실행합니다:$ torchrun --nproc_per_node 2 train.py
이 경우, 머신에는 2개의 GPU가 있습니다.이제 노트북 내부에서 직접 분산 트레이닝을 실행할 수 있습니다.import wandb
from fastai.vision.all import *
from accelerate import notebook_launcher
from fastai.distributed import *
from fastai.callback.wandb import WandbCallback
wandb.require(experiment="service")
path = untar_data(URLs.PETS) / "images"
def train():
dls = ImageDataLoaders.from_name_func(
path,
get_image_files(path),
valid_pct=0.2,
label_func=lambda x: x[0].isupper(),
item_tfms=Resize(224),
)
wandb.init("fastai_ddp", entity="capecape")
cb = WandbCallback()
learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
with learn.distrib_ctx(in_notebook=True, sync_bn=False):
learn.fit(1)
notebook_launcher(train, num_processes=2)
메인 프로세스에서만 로깅하기
위의 예제에서 wandb는 프로세스당 하나씩 run을 시작합니다. 트레이닝이 끝나면 두 개의 run이 생기게 됩니다. 이는 때때로 혼란을 줄 수 있으므로, 메인 프로세스에서만 로깅하고 싶을 수도 있습니다. 이를 위해서는 현재 어떤 프로세스에 있는지 수동으로 감지하여 (다른 모든 프로세스에서 wandb.init 호출을 방지함으로써) run 생성을 피해야 합니다.
import wandb
from fastai.vision.all import *
from fastai.distributed import *
from fastai.callback.wandb import WandbCallback
wandb.require(experiment="service")
path = rank0_first(lambda: untar_data(URLs.PETS) / "images")
def train():
cb = []
dls = ImageDataLoaders.from_name_func(
path,
get_image_files(path),
valid_pct=0.2,
label_func=lambda x: x[0].isupper(),
item_tfms=Resize(224),
)
if rank_distrib() == 0:
run = wandb.init("fastai_ddp", entity="capecape")
cb = WandbCallback()
learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
with learn.distrib_ctx(sync_bn=False):
learn.fit(1)
if __name__ == "__main__":
train()
터미널에서 다음을 호출합니다:$ torchrun --nproc_per_node 2 train.py
import wandb
from fastai.vision.all import *
from accelerate import notebook_launcher
from fastai.distributed import *
from fastai.callback.wandb import WandbCallback
wandb.require(experiment="service")
path = untar_data(URLs.PETS) / "images"
def train():
cb = []
dls = ImageDataLoaders.from_name_func(
path,
get_image_files(path),
valid_pct=0.2,
label_func=lambda x: x[0].isupper(),
item_tfms=Resize(224),
)
if rank_distrib() == 0:
run = wandb.init("fastai_ddp", entity="capecape")
cb = WandbCallback()
learn = vision_learner(dls, resnet34, metrics=error_rate, cbs=cb).to_fp16()
with learn.distrib_ctx(in_notebook=True, sync_bn=False):
learn.fit(1)
notebook_launcher(train, num_processes=2)