본문 바로가기
728x90

AI월드/⚙️AI BOOTCAMP_Section 421

프로젝트)의료데이터활용한 예측과 블록체인과의 연결성_그라운드X 이번 프로젝트의 목적 내가 설정한 포지션에서 적합한 가설을 세우고 가설을 검증해본다. 가설 검증을 위한 딥러닝 파이프라인을 구축해보는 데 의의를 둔다. (성능보다 의미) 타겟회사 : 그라운드 X (블록체인회사) 블록체인을 활용할수있는 분야는 어떻게 될까? 블록체인(클레이튼 생태계)를 활용한 그라운드 X의 목표 지연 시간이 적은 네트워크 응답성, 안정적이지만 강력한 트랜잭션 처리량, 서비스 체인을 통한 유연한 확장성 및 최종 사용자를 위한 트랜잭션 요금 보조금까지 Klaytn이 제공하는 다양한 기능을 통해 BApp 설계자는 기술의 제약없이 고객을 위한 최상의 경험을 제공할 수 있게 될 것 출처 : www.klaytn.com/ 이중 매일 수많은 데이터들이 전국에서 발생하고 그 양이 방대하면 실용적인 부분이 .. 2021. 4. 26.
GAN Series_From the beginning to the end 출처 : jonathan-hui.medium.com/gan-gan-series-2d279f906e7b GAN — GAN Series (from the beginning to the end) A full listing of our articles covers the applications of GAN, the issues, and the solutions. jonathan-hui.medium.com 2021. 4. 22.
AdaIN(Adaptive Instance Normalization) 출처 : blog.naver.com/PostView.nhn?blogId=tlqordl89&logNo=221536378926&parentCategoryNo=&categoryNo=20&viewDate=&isShowPopularPosts=true&from=search Adaptive Instance Normalization (AdaIN) # Deep # Deep Learning# GAN # Style # transfer # adain​먼저, AdaIN의 입/출력을 통해서 해... blog.naver.com 2021. 4. 22.
convolution, 컨볼루션(합성곱) 사용이유 이해x_Day70 32*32*3 의 이미지를 5*5 필터 , 6층을 통과하면 28*28*6 의 이미지를 얻을수 있다. 3,072 (32*32*3) ===> 4,704 (28*28*6) 모든 가중치의 경우의 수는 약 1,400만개 불가능한 가중치의 연산수는 아니지만 작은 이미지 하나에 이렇게 많은 가중치를 계산하는 것이 비효율적 출처 : youtu.be/ay3zYUeuyhU 2021. 4. 19.
시퀀스 투 시퀀스, 어텐션 모델, Attention, Seq2Seq_Day69 영어의 어순과 한국어의 어순이 다르기 때문에 번역시 단어숫자가 다를수 있기 때문에 단어별로 번역하는 건 좋은 방법이 아니다 RNN 을 활용하여 번역을 진행해보자 Encoder & Decoder 인코더는 각 단어를 받아서 "문맥벡터"를 만드는 것 디코더는 "문맥벡터"로부터 기계번역을 시작하는 것 문제점! 1) 단어의 사이즈가 커졌을때 , 문맥벡터가 그 의미를 충분히 담지 못할수 있다. 해결방법! 하나의 문맥벡터로 합치는 것이 아니라 각각의 인코더로부터 문백벡터를 가져와 활용하자 구체적인 방법! attention weight 수치 주목 Teacher Forcing 결과값이 잘못 나왔을때 가만히 놔두면 뒤까지 잘못된 영향을 지속적으로 미칠 수 있다. 이럴경우 중간에 옳은 값을 넣어줌으로써 모델이 잘못 학습되는.. 2021. 4. 15.
마르코프체인,Markov chains_Day68(4) P( X1=2, X2=6, X3=7 / X0=1) 0번째 '1'에서 1번째 '2'를 거쳐 2번째 '6'을 거쳐 3번째 '7'에 도달하는 확률 P( X4=7 / X0=2) 0번째 '2'에서 4번째 '7'에 도달하는 확률 1번 : 2 -> 1-> 2-> 6-> 7 2번 : 2 -> 6-> 6-> 6-> 7 3번 : 2 -> 6-> 7-> 6-> 7 100번째에 '7'에 도달할 경우의 수를 구하는 방법은 Extreme Huge ! 마코프 성질 마코프 성질이라 함은 n+1회의 상태(state)는 오직 n회에서의 상태, 혹은 그 이전 일정 기간의 상태에만 영향을 받는 것을 의미한다. 예를 들면 동전 던지기는 독립 시행이기 때문에 n번째의 상태가 앞이던지 뒤이던지 간에n+1번째 상태에 영향을 주지 않는다. 하지만 .. 2021. 4. 14.
Word2Vec,분포가설,희소표현,분산표현_Day68(3) 1. 희소 표현(Sparse Representation) 원-핫 인코딩을 통해서 나온 원-핫 벡터들은 표현하고자 하는 단어의 인덱스의 값만 1이고, 나머지 인덱스에는 전부 0으로 표현되는 벡터 표현 방법이었습니다. 이렇게 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법을 희소 표현(sparse representation)이라고 합니다. 그러니까 원-핫 벡터는 희소 벡터(sparse vector)입니다. 하지만 이러한 표현 방법은 각 단어간 유사성을 표현할 수 없다는 단점이 있었고, 이를 위한 대안으로 단어의 '의미'를 다차원 공간에 벡터화하는 방법을 찾게되는데, 이러한 표현 방법을 분산 표현(distributed representation)이라고 합니다. 그리고 이렇게 분산 표현을 이.. 2021. 4. 14.
RNN,LSTM,cell_Day68(2) RNN 기본구조 문제점 발생 : Vanishing gradient problem (0.9로 적용시 연산될수록 0에 수렴하게 되고, 1.1로 적용시 무한히 커지게 되는 문제발생) 해결책 : LSTM (단순 activation 하는게 아니라, 상황에 따라 다르게 적용되도록 값을 각 유닛마다 세팅해준다) 원리이해 : CELL 출처 : colah.github.io/posts/2015-08-Understanding-LSTMs/ 2021. 4. 14.
Word2Vec,CBOW,skipgram,임베딩_Day68 BoW와 달리 Word2Vec과 같은 단어 임베딩 방법은 문맥(context)정보를 보존하는 특징이 있습니다. BoW는 단어의 존재 여부와 그 빈도 정보를 중요하게 다루는 대신 단어의 순서 정보를 무시하여 단어 주변 문맥정보를 잃어버린다는 단점이 있습니다. 이와 달리 단어 임베딩 방법중 하나인 Word2Vec은 문장에서 인접한 단어들의 정보를 중요시 하여 벡터화할 때 문맥 정보를 보존합니다. 그래서 의미적 또는 구조적으로 비슷한 사용법을 가진 단어들을 알 수 있게 됩니다. 임베딩이란? 자연어를 컴퓨터가 이해할 수 있는 수의 나열인 벡터 형태로 바꾸는 과정 또는 결과 CBOW는 주변에 있는 단어들을 가지고, 중간에 있는 단어들을 예측하는 방법입니다. 반대로, Skip-Gram은 중간에 있는 단어로 주변 단.. 2021. 4. 14.
잠재의미분석,LSA_Day67(3) SVD 의 이해가 기반되어야 LSA 계산이 가능 참조 : angeloyeo.github.io/2019/08/01/SVD.html 특이값 분해(SVD) - 공돌이의 수학정리노트 angeloyeo.github.io 출처 : youtu.be/GVPTGq53H5I 2021. 4. 13.
특이값 분해(SVD)의 기하학적 의미, 활용_Day67(2) * orthogonal : 직교행렬 * diagonal : 대각행렬 특이값 분해는 다음과 같은 의미를 갖는다. ⇒⇒ 직교하는 벡터 집합에 대하여, 선형 변환 후에 그 크기는 변하지만 여전히 직교할 수 있게 되는 그 직교 집합은 무엇인가? 그리고 선형 변환 후의 결과는 무엇인가? 출처 : angeloyeo.github.io/2019/08/01/SVD.html 특이값 분해(SVD) - 공돌이의 수학정리노트 angeloyeo.github.io 출처 : youtu.be/cq5qlYtnLoY 2021. 4. 13.
TF-IDF_Day67 TF : Term Frequency IDF : Inverse Document Frequency 왜 사용하는가? 각 단어별로 문서와의 연관성을 알고싶을때 출처 : youtu.be/meEchvkdB1U 2021. 4. 13.
NLP with spaCy_Day66(5) # Import the English language class from spacy.lang.en import English # Create the nlp object nlp = English() # Process a text doc = nlp("This is a sentence.") # Print the document text print(doc.text) # Import the Spanish language class from spacy.lang.es import Spanish ​ # Create the nlp object nlp = Spanish() ​ # Process a text (this is Spanish for: "How are you?") doc = nlp("¿Cómo estás?") ​.. 2021. 4. 12.
NLP, 텍스트 전처리 기본개념_Day66(4) NLP(Natural Language Processing) 코퍼스(Corpus, 말뭉치)란 특정한 목적을 가지고 수집한 텍스트 데이터 문서(Document)란 문장(Sentence)들의 집합 문장(Sentence)이란 여러개의 토큰(단어, 형태소 등)으로 구성된 문자열. 마침표, 느낌표 같은 기호로 주로 구분됨 어휘집합(Vocabulary)는 코퍼스에 있는 모든 문서, 문장을 토큰화한 후 중복을 제거한 토큰의 집합 2021. 4. 12.
Stopwords, 불용어, nlp_Day66(3) 갖고 있는 데이터에서 유의미한 단어 토큰만을 선별하기 위해서는 큰 의미가 없는 단어 토큰을 제거하는 작업이 필요합니다. 여기서 큰 의미가 없다라는 것은 자주 등장하지만 분석을 하는 것에 있어서는 큰 도움이 되지 않는 단어들을 말합니다. 예를 들면, I, my, me, over, 조사, 접미사 같은 단어들은 문장에서는 자주 등장하지만 실제 의미 분석을 하는데는 거의 기여하는 바가 없는 경우가 있습니다. 이러한 단어들을 불용어(stopword)라고 하며, NLTK에서는 위와 같은 100여개 이상의 영어 단어들을 불용어로 패키지 내에서 미리 정의하고 있습니다. 출처 : youtu.be/E63RZli2F2o 출처 : wikidocs.net/22530 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikido.. 2021. 4. 12.
Stemmer, 어간추출, 언어 통합_Day66(2) 어간추출 어간(Stem)을 추출하는 작업을 어간 추출(stemming)이라고 합니다. 어간 추출은 형태학적 분석을 단순화한 버전이라고 볼 수도 있고, 정해진 규칙만 보고 단어의 어미를 자르는 어림짐작의 작업이라고 볼 수도 있습니다. 다시 말해, 이 작업은 섬세한 작업이 아니기 때문에 어간 추출 후에 나오는 결과 단어는 사전에 존재하지 않는 단어일 수도 있습니다. 출처 : youtu.be/gBwGPI0srBE 출처 : wikidocs.net/21707 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 2021. 4. 12.
NLP 입문, tokenization_Day66 토큰화(Tokenization) 자연어 처리에서 크롤링 등으로 얻어낸 코퍼스 데이터가 필요에 맞게 전처리되지 않은 상태라면, 해당 데이터를 사용하고자하는 용도에 맞게 토큰화(tokenization) & 정제(cleaning) & 정규화(normalization)해야한다. 토큰화 : 주어진 코퍼스(corpus)에서 토큰(token)이라 불리는 단위로 나누는 작업. 토큰의 단위가 상황에 따라 다르지만, 보통 의미있는 단위로 토큰을 정의합니다. 출처 : youtu.be/Z_GGVn6LBRI 출처 : wikidocs.net/21698 위키독스 온라인 책을 제작 공유하는 플랫폼 서비스 wikidocs.net 2021. 4. 12.
Neural Networks(신경망,딥러닝) 주간 키워드 정리_Day61~64 DAY 61 신경망(Artificial Neural Networks) 기초 퍼셉트론 ( input , weight , bias , activation function , output ) 인공신경망 뉴런(노드) activation function : step function(기본) , 시그모이드 , ReLU , softmax 순전파 (순방향 신경망 , feedforward NN) 신경망 층 구성 (Layer) : input layers , hidden layers , otuput layers optimizer : adam , ... loss : sparse_categorical_crossentropy, ... epoch verbose iteration 경사하강법 : 손실값에 대한 미분값을 사용하여 최저의 .. 2021. 4. 8.
역전파 이해_Day62 출처 : blog.naver.com/samsjang/221033626685 [35편] 딥러닝의 핵심 개념 - 역전파(backpropagation) 이해하기1 1958년 퍼셉트론이 발표된 후 같은 해 7월 8일자 뉴욕타임즈는 앞으로 조만간 걷고, 말하고 자아를 인식하... blog.naver.com 2021. 4. 6.
퍼셉트론,인공신경망 정리_Day61(2) 퍼셉트론(Perceptron)이란? 퍼셉트론은 다수의 신호를 입력받아 하나의 신호를 출력합니다. 전류가 전선을 타고 흐르는 전자를 내보내듯이, 퍼셉트론 신호도 흐름을 만들고 정보를 앞으로 전달하게 됩니다. 뉴런 or 노드(node) : 원형으로 표현된 것 입력신호(x0, x1, ...)가 뉴런에 입력되면 각각 고유한 가중치(weights, w0, w1, ...)가 곱해지는데, 가중치는 시냅스(synapses)의 연결강도(시냅스의 두께, 개수)와 같은 역할을 함 가중치가 곱해진 값들은 모두 "더해져" 정해진 임계값(threshold)을 넘을 경우에만 다음 노드들이 있는 층(layer)으로 신호가 전해짐 퍼셉트론의 로직 게이트 (논리회로의 진리표) 활성함수 (Activation function) 신경망들의 .. 2021. 4. 5.
728x90