본문 바로가기
Data Science/Deep Learning

Kaggle 에서 TPU 무료로 사용하기

by Queen2 2022. 11. 18.
728x90
반응형

캐글에서 TPU를 무료로 사용할 수 있다는 사실을 발견했는데요

주당 30시간, 회당 9시간까지 사용할 수 있다고 합니다!

 

캐글의 가이드를 다시 짚어보면서 TPU 사용법을 보려 합니다 :)

 

1. 캐글 Accelerator 에 TPU v3-8 설정하기

오른쪽 상단 점 3개를 누르고 TPU를 사용하겠다고 설정합니다.

 

 

2. 케라스를 이용한 TPU 사용

# detect and init the TPU
tpu = tf.distribute.cluster_resolver.TPUClusterResolver.connect()

tpu_strategy = tf.distribute.experimental.TPUStrategy(tpu)

with tpu_strategy.scope():
    model = tf.keras.Sequential( … ) # define your model normally
    model.compile( … )

model.fit(training_dataset, epochs=EPOCHS, steps_per_epoch=…)

 

TPU는 네트워크를 연결되어있기 때문에 연결을 위해 가장먼저 TPUClusterResolver.connect()를 해준다고 합니다.

이후에는 TPUStrategy를 인스턴스화 해서 TPU 작동을 위한 코드들을 포함한 객체를 만듭니다.

 

그리고 TPUStrategy를 이용해서 TPU에 모델이 돌아가도록 합니다.

모델을 만들고 훈련하는 구조는 기존 케라스 사용방식과 동일해서 생각보다 사용이 편리하게 되어 있는 것 같습니다.

 


 

Pytorch 를 통해 사용하는 방법은 링크 하단 내용을 참조해주세요

위 링크에는 TPU를 통해 훈련한 모델을 저장하는 법, 모델 로딩 하는 법 등 여러 정보를 담고 있으니 참고 바랍니당

 

Source:

TPU 사용 예시 코드 ↓

https://www.kaggle.com/code/ryanholbrook/exercise-create-your-first-submission/notebook

https://www.kaggle.com/docs/tpu

 

 

 

728x90
반응형

댓글