목록전체보기 (408)
NeuroWhAI의 잡블로그
다운로드 -> https://neurowhai.tistory.com/297 그렇습니다. 티스토리의 OpenAPI를 사용했고 한 90%정도 된 듯? 복원을 위한 백업이 아니고 이사를 위한 백업을 목표로 하고 있습니다. (티스토리가 싫어할 말이네요 헣) 뭐 시간이 난다면 티스토리로 복원하는 기능도 넣을 순 있겠지만요. 백업 중의 모습. 디자인에 신경쓰면 골룸. 백업 폴더 구조는 카테고리 구조를 따름. 백업된 글을 크롬으로 열어 본 모습. 음... 이제 당장 두가지 일이 남았는데 둘 다 만만치가 않습니다. 하나는 토큰 발행을 위한 인증 과정에 이상한 문제가 있다는 것(티스토리에 문의 넣은 상태)이고 다른 하나는 리소스 저장입니다. 리소스 저장이라는게 사실 글의 html 내용만 백업했지 업로드 된 이미지나 첨부..
좀 되긴 했는데 지진 정보 페이지가 바뀌었습니다.국내 지진의 경우 지역별로 계기진도를 표시해주네요.아래에 기존 이미지도 있긴 한데 딱히 볼 필요는 없을 것 같습니다. 그래서 지진봇이 앞으로는 저 이미지를 전송합니다.앞으로 지역별, 개인별 서비스가 늘어나면 지진봇도 통합 방 하나와 지역별 방을 나눠서 서비스를 제공하는게 맞을 것 같네요.궁극적으론 개인에게 재난문자가 신속하고 필요한 구체적인 정보를 제공할 수 있게 되면 지진봇도 필요가 없어지겠죠. 텔레그램 지진봇 : https://neurowhai.tistory.com/13
책의 예제를 따라 실습했는데 작동은 그럭저럭 잘 합니다.문제는 이 녀석이 인종차별주의자라는 것이죠! ... Epoch 19/20 4960/4960 - 1s 150us/step - loss: 8.6177e-04 - acc: 0.9998 - val_loss: 0.0182 - val_acc: 0.9934 Epoch 20/20 4960/4960 - 1s 144us/step - loss: 5.9968e-04 - acc: 0.9998 - val_loss: 0.0186 - val_acc: 0.9953 Input a test sentence : I love it! Positive : 99.99902248382568%, Negative : 0.0009764923561306205% Input a test sentence ..
코드 출처 : https://dtolnay.github.io/rust-quiz/7 #[repr(u8)] enum Enum { First, Second, } impl Enum { fn p(self) { match self { First => print!("1"), Second => print!("2"), } } } fn main() { Enum::p(unsafe { std::mem::transmute(1u8) }); }위 코드는 UB인가? 컴파일이 되는가? 된다면 출력은? (정답은 아래에) 정답은 UB가 아니고 컴파일 되며 출력은 1입니다.설명이야 위 링크에 잘 나와있지만 정리할겸 적어봅니다. 일단 `#[repr(u8)]` 덕분에 Enum::First == 0u8, Enum::Second == 1u8이 보..
드디어! 성공했습니다! 와! PPAP!! 간단하게 입력 문장을 문자 단위로 나누고 그걸 그대로 출력하는게 정답인 데이터 세트를 사용했고 학습을 시킨 후 어텐션 매트릭스(Attention Matrix)를 출력해서 제대로 학습이 되었는지 검증을 했습니다. 짠! 성공한게 틀림없다구요! (아마도요...) X축이 입력 문장, Y축이 출력 문장입니다. 만들면서 가장 힘들었던 건 텐서를 생각대로 다루는 것과 어텐션 스코어 계산이었습니다. 텐서를 막 늘리고 돌리고 연산하는데 차원을 잘 맞춰야 하면서도 무작정 차원만 맞추면 연산이 올바르지 않게 되어버렸어서 힘들었습니다. 가장 멍청했던 실수는 텐서의 축을 치환하는데 Permute대신 Reshape을 썼던 것입니다. 이러면 차원은 맞춰지지만 요소들이 이상하게 배치되죠.....
실패했다.적용 방법도 떠오르지 않았던 것과 다르게 이번엔 확실히 적용할 수 있는 방법이 생각나서 진행했다.그러나 결과적으로 실패한 것 같다.번역 데이터 세트를 사용했고 실패했지만 번역 품질이 못봐줄 수준은 아니었다.그러나 최종 검증인 어텐션 매트릭스에서 실패가 보였다.어텐션 매트릭스라고 함은 입력 단어들과 출력 단어들간에 관련성을 보여주는 매트릭스인데예를 들면 영어로 'I'가 한국어의 '나'와 관련성이 높게 나와야 한다는 뜻이다.하지만 직접 출력해본 매트릭스는 그러한 특성이 전혀 나타나지 않았고 무언가 이상한 벡터의 반복이었다.그렇다는건 연산을 잘못 적용했다는 소리인데 차원만 맞추느라 연산의 연결을 제대로 생각하지 못한게 실패의 원인인듯 하다. 힘들다..이렇게 오래, 많이 도전했지만 실패해본게 정말 오랜..
http://www.manythings.org/anki/ 위 링크에서 원하는 언어쌍에 해당하는 압축 파일을 다운로드 받으시고 푸시면 txt 파일이 나옵니다.about.txt는 신경쓰지 마시고 다른 txt를 보시면 되는데 구조는 아래와 같습니다. {영어 문장}{탭}{번역 문장} {영어 문장}{탭}{번역 문장} ...그러니까 개행 문자로 split하고 각 라인을 탭 문자로 split하면 영어 -> 번역문 데이터를 쉽게 얻을 수 있습니다. 라이센스 등의 자세한 내용은 해당 사이트에 적혀있으니 참고바랍니다.
어텐션 매커니즘을 적용하기 전에 시험삼아 커스텀 RNN 셀로 RNN 레이어를 만들고 IMDB(영화 리뷰 및 평점) 데이터 세트를 학습시켜 보았습니다. 코드는 아래와 같습니다. (GRU는 글 맨 밑에 있습니다) import numpy as np import matplotlib.pyplot as plt import keras from keras import backend as K from keras import layers, models, datasets from keras.preprocessing import sequence class MyRNNCell(layers.Layer): def __init__(self, units, **kwargs): self.units = units self.state_size..
http://www.etnews.com/20181108000409 위 링크의 기사에 따르면 국방부가 사이버정보방 컴퓨터 교체 사업을 추진하면서 OS 교체도 준비하고 있다는 것 같습니다.대상 OS는 개방형 OS로서 오픈소스, 리눅스 기반의 OS를 말하는데 여기에 윈도우즈(Windows)는 포함되어 있지 않기 때문에 사지방 환경이 크게 변할 것으로 예상됩니다.개인적으로 국산 OS라고 추진하고 있는 것들이 제대로 개발, 관리되리라 기대하지 않기에 걱정이 많이 됩니다.그리고 쇼핑이나 인터넷 강의를 듣는 장병들은 필수 프로그램 설치에서 문제를 겪으리라 봅니다.이미 윈도우즈에서도 프로그램이 잘 설치되지 않는 경우가 있는데 다른 OS라면 흠...기사 마지막에 티맥스OS는 개방형 OS가 아니기 때문에 입찰이 불가하여 ..
#include #include #include #include using namespace std; // Knuth-Morris-Pratt Algorithm // bush의 앞에서부터 needle의 최초 위치를 찾아 반환합니다. size_t kmp(string_view bush, string_view needle) { const size_t needleLen = needle.length(); const size_t bushLen = bush.length(); // string::find는 패턴 문자열이 비어있을 경우 0을 반환함. if (needleLen == 0) { return 0; } // pi[match] == needle[:match+1]의 최대 동일 접두접미사 길이 vector pi(need..