본문 바로가기

데이터 과학

(8)
논문리뷰 - Unsupervised Singing Voice Conversion 1. Abstract 텍스트, 음표 없이 노래의 목소리를 변환하는 딥러닝 알고리즘을 개발해보자. 단 음표, 가사, 가수들 간의 pair 데이터 같은 supervision 없이. 모델 구조는 CNN encoder와 WaveNet decoder로 구성하였고 CNN은 여러 가수들의 목소리를 받아 singer-agnostic 한 vector를 뽑아낸다. 새로운 data augmentation과 loss를 도입한 결과 자연스러운 목소리를 생성할 수 있었다. 2. Introduction 기존에 deep neural network를 language feature와 notes로 학습한 결과 성공적인 목소리 합성이 가능했음. 본 논문에서는 unsupervised 방식으로 학습하기에 parallel 한 singer 데이터..
elasticsearch 사용자 추가, 인덱스 접근권한 부여 이전 포스트에서는 자세히 다루지 않았지만 현재는 SSL과 사용자인증 기능이 적용된 상태이다. 이 상태에서 공인된 인증서를 사용하지 않는 경우 curl이 먹히지 않을 수 있는데 -k 옵션을 추가하면 해결 가능하다. 이전 포스트에 걸려있는 링크의 튜토리얼까지 다 따라왔다면 built-in user의 비밀번호가 설정되어 있을 것이다. Elasticsearch 에서는 각 프로젝트에 최소한의 권한을 갖는 general user 계정을 만들어 사용할 것을 권장하므로 user 계정을 만들어보도록 하자. role 추가하기 user를 만들 때 parameter로 role이 들어가므로 role 부터 만들어야할 것 같다. 필자는 test_index 라는 인덱스를 미리 만들어두었으므로 아래의 명령어로 test_index에 대..
빠르게 사용해보는 Elasticsearch 이번에 문서 검색 기능을 개발할 일이 생겼는데 단순 단어매칭 보다는 고도화된 검색엔진이 필요하여 Elasticsearch를 알아보게 되었다. Elasticsearch란? Elasticsearch는 정형, 비정형 데이터 등의 모든 type의 데이터를 위한 검색 및 분석엔진이다. 대용량의 데이터를 다룰 수 있도록 분산형 feature들이 발달되어 있으며 REST API를 통해 데이터 조회, 입력, 삭제를 처리한다. Installation 당분간은 개발용으로만 사용할 예정이지만 추후 서비스 가능성을 고려해 docker로 설치하려 한다. 설치 명령어는 Elasticsearch의 quick start 를 참고하였다. docker network create elastic docker pull docker.elast..
Batch Normalization Layer 를 많이 쌓게되면 학습을 하는 동안 각 layer 의 input 의 분포가 계속 달라지게 된다. 이런 현상을 internal covariate shift 라 하는데, 이로 인하여 모델의 학습이 어렵고, learning rate 를 낮게 셋팅해야 하는 문제가 발생한다. Batch normalization 은 internal covariate shift 를 해결하기 위해 layer 의 input batch 를 normalization 하는 방법이다. Batch normalization 은 non-linear activation funtion 앞에 배치되며, activation function 의 input 에 대하여 아래와 같은 transformation 을 적용한다. $n$ 은 batch siz..
직관적인 Universal Approximation Theorem 증명 Bias-variance trade-off 포스트에서 언급된 bias loss 를 줄이기 위해서는 feed-forward neural network 를 사용해볼 수 있다. 이런 feed-forward neural network 의 학습능력의 바탕에는 universal approximation theorem 이 있다. Universal approximation theorem 의 내용은 아래와 같다. 임의의 개수의 neuron 을 포함하고, activation function 이 sigmoid 이면서, 1 hidden layer 를 가진 feed-forward neural network 는 적절한 weights 만 주어진다면 어떤 함수든 근사화 할 수 있다. 컴퓨터공학도에게 위의 내용을 엄밀하게 증명하는 건..