본문 바로가기

AI

[부스트캠프 AI Tech] day18 Review seq2seq 단어 시퀀스를 받아 단어 시퀀스를 출력하는 자연어 처리 모델로 입력된 단어 시퀀스를 처리하는 인코더 rnn과 출력할 단어 시퀀스를 처리하는 디코더 rnn으로 이루어져 있다.(파라미터 공유x) 느낀점 이론설명, 실습과 과제를 통해 해당 모델을 더 잘 이해할 수 있었다. Peer Session 과제 리뷰, cnn을 이용한 사진을 종류별로 판별하여 삭제하거나 저장하게 해주는 어플리케이션 소개(내가 발표하였다.)등에 대해 이야기 하였다. 더보기
[부스트캠프 AI Tech] day16 Review NLP 자연어를 처리 low level 단계에선 문장을 의미별로 분해한다. stemming은 단어의 어근을 추출(의미) word and phrase level에선 New York Times와 같은 띄어쓰기를 포함하는 것을 하나의 고유 명사로 인식 해야한다. Sentence level에선 문장의 긍정,부정을 판별한다. Multi sentence and paragraph level에선 문장간 논리적 내포나 모순을 예측하거나 문서를 요약하거나 대화를 수행할수 있는 시스템, 독해기반의 질의 응답등 고차원의 작업을 수행한다. 텍스트마이닝 과거의 정보들을 빠르고 지능적으로 처리하여 키워드를 추출하거나 분석한다. Bag of Words 원핫 인코딩을한다, 단어의 순서는 고려할 수 없다. Naive Bay.. 더보기
[부스트캠프 AI Tech] day15 Review Generative model 생성몸델이란 주어진 학습 데이터를 학습하여 학습데이터의 분포를 따르는 유사한 데이터를 생성하는 모델 학습 데이터 속에 샘플마다 픽셀들의 분포를 알 수 있응ㄴ데, 이를 이용해 유사한 데이터를 생성한다. 학습데이터의 분포와 차이가 적을수록 더욱 실제와 유사한 데이터를 생성할 수 있다. 베르누이 분포 매 시행마다 오직 두가지 가능한 결과만 일어난다고 가정할 때, 두개중 하나의 값으로 표현되는 데이터확률분포 Peer Session 팀원들끼리 깃헙다루는 명령어들에 대하여 공부하였고(작업을 진행하다가 이전 커밋상태로 돌아가기위한 checkout 명령어, fork한 저장소를 최신 원본과 동기화 시키기위한 방법,다른 브랜치의 일부파일 복사하는 방법 등) LSTM을 라이언이 공.. 더보기
[부스트캠프 AI Tech] day13 Review CNN(Convolutional Neural Network) Convolution이란 이미지를 블러처리 하거나, 뽀샤시해지는 효과, 강조하는 효과등을 내기위한 과정이다. 커널이라고 하는 행렬의(stride와 padding에 따라 이동하는 방법이 바뀐다) 이동에따라 결과값이 도출된다. Stride는 옆으로 몇칸씩 건너가며 연산을 수행할 지 알려주고, Padding은 연산을 적용할 데이터의 테두리를 얼마두께로 두를지를 알려준다. 1x1 convolution layer는 말 그대로 input채널과 행과 열의 사이즈가 같다. 하지만 차원이 더 적을 수 있다. 차원의 수를 줄임으로써, 파라미터의 수를 줄여 더 효율적으로 모델을 구성하기 위하여 사용한다. AlexNet,ResNet,VGGNET,Goog.. 더보기
[부스트캠프 AI Tech] day 12 Review Training error와 Test error는 다른 것이다. 이둘의 차이를 최소한으로 줄이는 것을 Generalization Performance를 좋게 한다고 말 할 수 있다. 데이터를 k개의 partition으로 분할한 뒤 k-1개의 셋으로 학습을 시키고 1개의 셋으로 테스트를 진행(validation dataset은 학습 데이터에 포함)하면서 최적의 하이퍼 파라미터 셋을 찾아가는 과정을 Cross Validation이라고한다. 다만, 테스트 데이터는 건드리지 않는게 좋다(일종의 치팅) 고정된 학습데이터를 분리하여 모델을 여러개 만들어 전체 모델의 성능향상을 꾀하는 것을 일반적으로 Bootstraping 이라고하는데, Bagging 기법이란, 학습데이터 셋을 여러개 만들고 여러모델을 .. 더보기
[부스트캠프 AI Tech] day11 Review 인공지능 인간의 지능을 모방한다 라는 큰 슬로건 그안에 데이터를 통해 학습하는 Machine Learning 분야가 있고 그안에 Deep Learning이 존재한다. Deep Learning 먼저 무엇인가를 학습하기위한 data를 필요로하고 모델이 필요하며, 이 모델을 학습하기 위한 Loss function, loss를 최소화 하기위한 알고리즘을 필요로한다. 크게 classification(고양이 인지 개인지 등을 구별하는 문제), Semantic Segmentation(이미지를 픽셀별로 구분해내는 문제), Detection(이미지 안의 물체를 bounding box로 나타내주는 문제), Pose Estimation(사람의 skeleton 정보 등을 시각화), Visual QnA(이미지,문장.. 더보기
[부스트캠프 AI Tech] day9 Review 이산확률변수 vs 연속확률변수 문제에 맞게 손실함수를 적절히 사용하기위해 확률론을 공부하자. 이산확률변수란 연속되지 않는 변수를 뜻하고,(ex. 횟수,요일...) 연속확률 변수란 연속되는 변수를 뜻한다.(ex. 키,몸무게..) 데이터 공간에서 연속확률변수를 구간을 나눠 샘플링을 통해 이산확률변수로 바꿔 사용하기도 한다. pandas.groupby 통상적으로 split => apply => combine 과정을 거친다. 하나 또는 여러개 항목을 기준으로 묶어 sum,mean등 각종 연산을 지원한다. 엑셀의 기능들을 pandas에서 지원한다. 레벨을 지정해주면 series 데이터형으로 바뀌므로 각종 연산이 가능하다. 기대값 확률분포가 주어지면 데이터를 분석하는데 사용 가능한 여러종류의 통계적 범.. 더보기
[부스트캠프 AI Tech] day8 Review layer 층이 깊을수록 목적함수를 근사하는데 필요한 노드(뉴런)의 수가 적으므로 효율적이다. Softmax 입력받은 값을 출력으로 0~1 사이의 값으로 모두 정규화하며, 출력값들의 총합은 항상 1이되는 특성을 가진 함수 분류하고 싶은 클래스의 수만큼 출력 갯수를 구성한다. 학습을 시킬때 주로 사용되는 활성화 함수이고 통상적으로 추론을 할때는 잘 사용하지 않는다. 신경망 선형모델과 활성함수를 하나의 묶음으로 보면, 여러묶음의 선형모델+활성함수로 구성되어있다. 활성함수란 입력 신호의 총합을 출력 신호로 변환해주느 함수로, 보통 선형을 비선형으로 근사하기 위하여 사용한다. Numpy & Pandas Numpy는 같은 데이터타입의 다차원배열을 지원하고, 난수생성이가능하며 연산가능하다. Pandas.. 더보기