본문 바로가기
728x90
반응형

Data Science/Deep Learning32

구글 Colab에서 Pillow 설치하는 법 Colab에서 제공하는 문서 내용을 공유합니다 import PIL print(PIL.PILLOW_VERSION) 만약, 기존에 Pillow가 있는데 새로운 5.3.0버전으로 다시 깔고 싶다면 아래 코드를 실행하면 됩니다 !pip uninstall -y Pillow # install the new one !pip install Pillow==5.3.0 import PIL print(PIL.PILLOW_VERSION) Source: https://colab.research.google.com/drive/1mVIsbvZ8_ilLgFQmmQ9eYMuM-DXGsZoN 2022. 11. 14.
Pytorch 주피터, 코랩, 아니콘다에서 버전 확인하기 파이토치 사용시 현재 사용하고 있는 버전 확인 하는 법을 타사이트를 참고해 정리했습니다 :) 주피터 노트북 !pip show torch 구글 코랩 !pip show torch (혹은 !pip freeze | grep torch) 터미널 , cmd pip show torch 아나콘다 conda list torch 파이참 settings 설정에 들어가서 확인 가능 Source: https://www.codethebest.com/check-pytorch-version-python/ 2022. 11. 13.
GAN 모델 구현 사이트 추천 https://thisxdoesnotexist.com/ This X Does Not Exist Using generative adversarial networks (GAN), we can learn how to create realistic-looking fake versions of almost anything, as shown by this collection of sites that have sprung up in the past month. thisxdoesnotexist.com 이번에 GAN(생성적 적대 신경망)을 공부하면서 이 웹사이트를 알게 되었는데요 훈련데이터를 이용해서 새로운 데이터를 생성이 가능하다는 개념은 알고 있었지만 사이트에는 가짜 이력서, 질문, 가사, 음식, 사람사진, 짤, 그.. 2022. 11. 12.
Keras 모델 훈련 API 정리 (compile,fit) 딥러닝 코드의 기본 구조가 compile > fit (훈련) > evaluate,predict (평가, 예측) 이런식의 흐름으로 진행된다는 것은 알고있지만, 각각의 훈련을 위한 API 구성요소가 무엇이 있고 어떤 특징이 있는지 공식 문서를 기반으로 정리해보겠습니다 :) Model.compile 구성 요소 내용 설명 optimizer RMSpop,SGD, Adam,Nadam,Adagrad, Adamax 등등 사용하려는 옵티마이저 이름을 문자열 형태 혹은 tf.keras.optimizers 인스턴스 형태로 기입 loss binary_crossentropy, binary_focal_crossentropy, categorical_crossentropy, huber_loss, mean_absolute_error,.. 2022. 11. 6.
Keras 모델 fit 결과값 해석하기! 케라스 모델을 fit 시키면 아래처럼 Epoch 1/100 그리고 그 밑에 숫자와 실시간 진행바, 설정한 matrics의 결과값들이 순차적으로 나오는데요 이 밑에 있는 숫자들은 뭘 의미하는지 짚고 넘어가겠습니다 😮 x_train.shape >> (4872, 12) y_train.shape >> (4872,) 모델에 넣은 데이터의 사이즈 4872 이고 훈련을 위한 epoch = 100, batch_size=5 로 지정을 했습니다. Epoch 옆의 1/100은 지정한 epoch =100 중에서 첫번째가 돌아가고 있다를 의미하고 막대바 옆의 결과값들은 모델의 accuracy, validation_split에 해당하는 validation data의 loss 값임을 알 수 있는데요 다만 이 밑에 780은 뭐지? .. 2022. 11. 6.
Tensorflow 기본 함수 정리 import tensorflow as tf x = tf.constant([[1., 2.], [3., 6.]]) 🙌 기본 함수 개요 +,-,*,/ 텐서간 사칙연산 가능 tf.transpose(x) 행열전환 @ 내적 tf.nn.softmax(x, axis=-1) 소프트맥스 함수 적용 tf.reduce_sum(x) 합계 계산 tf.reduce_mean(x) 평균 계산 tf.reduce_max(x) 최대값 계산 tf.convert_to_tensor() tensor로 변환 tf.Varable() 텐서와 달리 assign으로 값 할당, 덧셈 가능 var = tf.variable([1.,2.,3.]) var.assign([2,2,2]) #새로 값 할당하기 var.assign_add([1,1,1]) #기존 값들에 값 .. 2022. 11. 4.
728x90
반응형