반응형

인공지능 AI/딥러닝 Deep Learning 4

Q. GPU 달린 내 컴퓨터에 제대로 pytorch가 설치되었는지 테스트 하는 방법은?

A. python을 실행한다. 아래처럼 입력한다. $ python import torch torch.rand(5).to('cuda') 제대로 작동한다면 아래처럼 나온다. cuda를 써서 난수를 얻어낸 것이다. torch.rand(5) 는 잘 실행되는데, torch.rand(5).to('cuda')는 엄청 오래 걸리고 잘 안 된다면, 관련 프로그램을 다시 설치해야 한다. pytorch가 cuda를 쓸 수 없는 상태이므로.

딥러닝Deep Learning 공부를 위한 서버용 데스크탑 컴퓨터 구입기

금액이 커서 한번 실패하면 또 살 수 없어서 이것저것 찾아 봤다. 그냥 Dell의 딥러닝을 위한 서버 컴퓨터를 살까 싶어서 알아봤지만 너무 비쌌다. 그래서 그냥 직접 맞추기로 결정했다. 딥러닝을 공부하는데 왜 컴퓨터가 따로 필요할까? GPU 때문! GPU 때문이다. 딥러닝Deep Learning 코드를 돌려 보려면 GPU 달린 컴퓨터가 필요하다. 그것도 Nvidia. 많은 딥러닝 코드가 CUDA를 기본으로 쓰고 있기 때문이다. 엔비디아의 GPU가 달려 있지 않은 컴퓨터에서 실행하면? 당연히 에러가 난다. 코드를 돌려보지도 못한다면? 공부가 불가능하다. CPU는 어떤 걸 해야할까? Intel인텔! AMD도 빠르다던데 왜 인텔을 해야 할까. MKL 같은 인텔 기반 수학 라이브러리를 쓰는 코드를 실행하려면 인..

Q. nltk의 PorterStemmer, LancasterStemmer로 eat, ate, eaten을 어간 추출하면 어떻게 될까?

A. 잘 안 된다. - eat - eating - ate - eaten - eats 을 어간 추출 해보자. from nltk.stem.porter import PorterStemmer stemmer = PorterStemmer() print(stemmer.stem('eat')) print(stemmer.stem('eating')) print(stemmer.stem('ate')) print(stemmer.stem('eaten')) print(stemmer.stem('eats')) 결과는? eat eat ate eaten eat 이다. eat, eating, eats는 똑같이 eat으로 되지만, ate과 eaten은 되지 않는다. LancasterStemmer을 활용하면 좀 더 낫다. from nltk.st..

Q. Colab에서 GPU 쓰는 법은?

A. 런타임 설정에서 GPU로 설정을 바꿔줘야 한다. 기본은 None이다. 런타임 메뉴를 누른다. 아래쪽에 런타임 유형 변경이 있다. 유형 변경을 누르면 노트 설정이 뜬다. 여기서 GPU로 설정해줘야 한다. 머신러닝 모델을 만들어서 학습 시킬 때, 속도가 GPU 쓰는 것과 안 쓰는 것 차이가 10배 이상이다. 꼭 GPU 설정을 해야 한다.

반응형