목록개발 및 공부/라이브러리&프레임워크 (52)
NeuroWhAI의 잡블로그
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. 왜 UNet인진 모르겠는데 신경망 구조를 보니까 U처럼 생겨서 UNet인가 싶네요 ㅋㅋ 출처 : https://spark-in.me/post/unet-adventures-part-one-getting-acquainted-with-unet 오토인코더와 비슷한 구조인데 인코딩 과정에서 나온 각 층의 출력을 디코딩 과정의 각 층에서 입력으로 사용하고 있는게 차이점입니다. 뭐 이론적인건 잘 모르겠고 책에선 이렇게 함으로서 이미지 복원력이 더 뛰어나진다고 하네요. 이번에도 코드는 책의 코드를 좀 간소화해서 다를겁니다. 코드:12345678910111213141516171819202122232425262728293031323..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. GAN으로 MNIST 이미지를 생성하는 예제입니다. 책의 코드에서 뺀 부분이 많습니다. 코드:123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134f..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. 다른 강좌나 텐서플로 책에서는 2D 이미지를 가지고 GAN를 실습했었는데 여기서는 단순한 수의 나열인 1D 데이터를 가지고 GAN를 쓰더라고요. (다음 챕터에서 2D 이미지 쓰는 것도 나오지만) 생성망의 입력 데이터는 균등분포의 랜덤한 데이터인데 출력은 정규분포로 내도록 학습시키는 예제입니다. 이번 코드는 책의 코드와 좀 많이 다를 수 있습니다. 코드:12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. 입력과 똑같은 출력을 내도록 학습하면서 데이터의 특징을 스스로 압축(추출)하는 오토인코더로 MNIST를 학습시켜 보았습니다. 아직 오토인코더 파트의 반만 보았지만 이 책에서도 오토인코더로 얻은 특징을 실제로 사용하는 예시는 없는 것 같습니다 ㅠㅠ 코드: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103from..
지식 부족으로 계속 실패했었는데 그럭저럭 완성됬습니다. 인터넷 블로그의 글들과 GitHub의 소스코드들을 참고해서 만들었습니다. 코드: 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071727374757677787980818283848586878889909192939495969798991001011021031041051061071081091101111121131141151161171181191201211221231241251261271281291301311321331341351361371381391401411421431..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. imdb는 리뷰 문장의 단어들을 출현빈도순으로 정렬해서 정수로 변환시킨 시퀀스를 x로 하고 평가의 긍정적, 부정적 여부를 1, 0으로 라벨링한 데이터셋 입니다. 그러니까 예를 들어 x는 [31, 3, 55, 123, 4, 99, 4443, 3423] 이렇게 생겼고 y는 1(긍정적) 이렇게 되어있습니다. 목표는 x를 가지고 y를 예측하는 것입니다. 코드: 1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859#-*- coding: utf-8 -*- import numpy as ..
confusion_matrix는 scikit-learn이라는 라이브러리에서 지원하는 함수로서 입력에 대해 모델이 예측한 결과 클래스와 실제 목표 클래스가 일치하는 개수를 센 결과를 반환해줍니다. 케라스 책 보다가 나와서 검색해본겁니다 ㅎ 반환하는 결과는 아래처럼 실제 목표 클래스는 행으로, 예측한 클래스는 열로 나타낸 행렬이 됩니다. y_true = [2, 0, 2, 2, 0, 1] # 목표 클래스 y_pred = [0, 0, 2, 2, 0, 2] # 예측 클래스 confusion_matrix(y_true, y_pred) # 예측: 0 1 2 # ↓목표array([[2, 0, 0], # 0 [0, 0, 1], # 1 [1, 0, 2]])# 2 그러니까 정확도가 100%라면 위 행렬에서 좌-우 대각선에만 ..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. 코드: 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990#-*- coding: utf-8 -*- import numpy as npimport kerasfrom keras import layers, models, datasets, backendfrom keras.utils import np_utilsimport matplotlib.pyplot as plt clas..
쓰읍... 케라스 책은 오타도 많고 검수를 제대로 안한건지 뭔가 나사 빠진듯한 모습이라 첫인상이 별로 안좋습니다 ㅠㅠ... 간단한 인공 신경망으로 MNIST 이미지 분류를 학습하는 예제입니다. 코드: 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970#-*- coding: utf-8 -*- import numpy as npfrom keras import layers, models, datasetsfrom keras.utils import np_utilsimport matplotlib.pyplot as plt def ANN_..
'코딩셰프의 3분 딥러닝 케라스맛'이란 책으로 케라스에 입문합니다. 텐서플로 책을 끝냈기 때문에 좀 수월하지 않을까 싶습니다. 라이브러리 자체도 고수준이고... 무엇보다 마음에 들었던건 케라스라는게 사실 거대한 레퍼라는 설계? 텐서플로 위에 케라스, MXNet 위에 케라스, CNTK 위에 케라스... ㅎㄷㄷ 대체 코드를 어떻게 짜면 이런게 되는거지. 첫 케라스 코드: 1234567891011121314151617181920import kerasimport numpy as np # 문제x = np.array([0, 1, 2, 3, 4])y = x * 2 + 1 # 신경망 생성model = keras.models.Sequential()model.add(keras.layers.Dense(1, input_sha..