목록개발 및 공부 (189)
NeuroWhAI의 잡블로그
Attention 매커니즘을 검색하다가 좋은 코드를 발견해서 공부하면서 좀 다듬었습니다. 링크 : https://github.com/philipperemy/keras-attention-mechanism 학습 데이터는 랜덤한 쓰레기 값이 들어있는 입력 데이터에서 8번째(인덱스 7) 값만 출력(목표) 데이터와 관련이 있는데 이걸 모델이 잘 알아차렸는지 보는 예제입니다. 코드: 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970import numpy as npfrom keras import backend as Kfrom kera..
Q 러닝 설명 : https://ko.wikipedia.org/wiki/Q_%EB%9F%AC%EB%8B%9D Q Learning은 DQN의 뼈대가 되는 학습 방법입니다. 저는 공부 순서가 반대로 되어버렸지만 Q Learning을 알고 DQN을 공부했다면 더 쉽게 가지 않았을까.. 싶네요. Q Learning으로 강화 학습의 Hello, World!라고 할 수 있는 Frozen Lake 게임을 학습시켜 보았습니다. 아래 코드에서 대부분은 Frozen Lake 게임을 구현하는 코드(FrozenLake 클래스)나 출력 코드이고중요한 학습은 QLearner 클래스의 learn 메소드에서 이뤄집니다. 코드: 12345678910111213141516171819202122232425262728293031323334..
소녀전선 DB를 파싱해서 디스코드로 카드 대전 게임을 만들어보고 있습니다. 제조, 육성, 강화, 덱(제대), 군수 시스템은 완료되었고 대전 시스템만 남겨두고 있는데 넘나 귀찮네요... 아 물론 저와 몇몇 지인들만 쓸거라 저작권 문제는 없을겁니다. 근데 그 몇몇 지인도 아직 못구해서 명색이 대전 게임인데 혼자 군수만 돌리게 생겼습니다. ... 보시면 예상이 가능하겠지만 넘나 플레이하기 번거롭습니다. 마우스 없이 문명 한다고 생각해보세요. 허헣... 그래도 완성하면 사지방에서 좀 덜 심심하지 않을까 싶네요. ㅠㅠ
지인들과 가지고 놀 디스코드 봇에 간단한 미니 게임을 넣으려고 하는데 뭘 할까 고민 중 소녀전선 DB를 이용해서 카드 대전 게임을 만들어보자는 생각이 들어서 DB 파싱하고 있습니다. 갓 C#...
비교적 최신(?) 개념이라 자료가 별로 없어서 공부하기 너무 힘드네요. 특히 저같은 수알못은... https://machinelearningmastery.com/how-does-attention-work-in-encoder-decoder-recurrent-neural-networks 그나마 위 글에서 약간의 슈도코드를 써줘서 그나마 흐름은 그릴 수 있었습니다. 아래 사진은 제가 흐름을 보고자 코드를 그림으로 옮긴건데 마우스로 그린지라 개판이니 양해 부탁드립니다 ㅋㅋ.. 나중에 확실히 이해하면 직접 코드도 짜보고 정리해서 올리겠습니다.
이번 휴가에 해결하겠지만 지금은 사지방에서 구글 로그인이 안됩니다. 그래서 평소에 자주 유튜브 추천 영상을 보던걸 못하게 되어서 반강제로 건전한(?) 나날을 보내고 있었지만 이렇게는 못살겠다(?) 싶어서 제 클라우드 서버를 활용하기로 했습니다. 만들고 바로 다음날 구글 로그인이 되기 시작했습니다 ㅂㄷㅂㄷ.... ㅠㅠ 조금만 더 빨리 만들껄... 그래도 자료로서 글은 올려봅니다. 코드 조각은 이러합니다. 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849using (IWebDriver driver = new ChromeDriver(".")){ var driverWait = new WebDriverW..
https://dreamgonfly.github.io/rnn/2017/09/04/understanding-rnn.html 여기서 나온 설명과 코드를 가지고 직접 돌려봤습니다. 텐서플로의 기본적인 요소만 사용해서 RNN을 직접 만들고 MNIST 학습을 시켜보는 예제입니다. 이론적인 설명만 공부했을땐 RNN의 동작이 머리에 잘 그려지지 않았는데 이렇게 직접 구현하니 바로 이해가 되네요. 테스트하면서 신기했던건 Optimizer를 Adam으로 바꾸니 학습이 잘 안됬다는거? 또 이상한건 결과를 보시면 아시겠지만 도중에 정확도가 갑자기 확 떨어지는건 대체 왜 그런걸까요... 코드에 버그가 있나? 코드:123456789101112131415161718192021222324252627282930313233343536..
https://medium.com/data-science-group-iitr/artistic-style-transfer-with-convolutional-neural-network-7ce2476039fd https://harishnarayanan.org/writing/artistic-style-transfer 위 두 글에 나온 코드를 복붙해가면서 스타일 변환기를 구현해봤습니다. 아직 이론적으로나 코드에서나 이해가 안되는 부분이 있어서 좀 더 공부하고 직접 처음부터 짜봐야겠습니다. 코드:1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666..
※ 이 글은 '코딩셰프의 3분 딥러닝 케라스맛'이라는 책을 보고 실습한걸 기록한 글입니다. 케라스의 Layer 클래스를 상속받아서 새로운 레이어를 직접 만들어 써보는 예제입니다. 간단하게 Dense와 비슷한 레이어를 만들었습니다. 공식 문서에도 비슷한 예제가 소개되어 있습니다. 코드:12345678910111213141516171819202122232425262728293031323334from keras import backend as Kfrom keras.engine.topology import Layerfrom keras import initializersfrom keras import modelsimport numpy as np class SFC(Layer): def __init__(self, n..