전체 글 135

[0] 네덜란드어 표현 및 문법 정리

네덜란드로 유학을 결정하고 조건부 합격 발표가 나자마자 더치어를 온라인으로 배우기 시작했다. 수업 상 레벨로는 A2/B1까지 완료하고 왔는데 출국 준비에 이것저것 바빠서 더치어 공부를 손 놓고 있었더니 또 많이 까먹어버려서.. 여기 이 카테고리에 A1 수업 때부터 공부했던 문법이나 표현들을 복습할 겸 정리해보고자 한다. 수업 때 썼던 교재 Nederlands in gang이랑 Nederlands in actie를 바탕으로 정리를 할 예정이다. So, stay tuned!

[5] 거주 허가 받기 - 1 | Residence Permit - 1 (IND biometrics information)

* English version below 쉥겐 조약에 의해 대한민국 여권 소지자는 네덜란드 입국 시 별도의 입국 비자가 필요 없다. 그리고 90일로 단기 거주하는 동안까지도 무비자로 거주가 가능하다. 단, 그 이상 장기 거주를 해야 하는 경우에는 거주 허가를 받아야 한다. 나는 유학생으로서 당연히 장기 거주이기 때문에 거주 허가가 필수적이다. 네덜란드에서 거주 허가를 받기 위해서는 일단 IND(네덜란드 외국인/이민청)로부터 승인 레터를 받아야 한다. 이 승인 레터를 받기 위해서 학생으로서는 재정 증명을 하면 되는데, 네덜란드는 소속 학교를 통해 할 수 있다. 독일의 경우에는 은행잔고증명서나 슈페어콘토 등을 통해 내가 직접 증명해야 했지만, 네덜란드는 학생 본인이 스스로 할 수 없고 소속 학교에게 재정 ..

[4] RSM 학생으로서 집 구하기 - 2 | Housing as a RSM first-year student - 2 (Room booking process at Xior)

* English version below 이번 포스트에서는 저번에 살짝 예고했던 것과 같이 Xior 홈페이지를 통해 집을 구했던 과정에 대해 적어보려고 한다. 일단 학교 하우징 페이지를 통해 방 예약 날짜가 5월 11일인 걸 확인했다. 그러나 문제는 EUR(학교) 하우징 홈페이지에는 오후 5시라고 적혀있고, RSM(학과) 하우징 홈페이지에는 오후 7시라고 적혀있었다. 일단 혹시 몰라서 오후 5시에 들어가보기로 했다. 괜히 7시에 들어갔다가 늦어서 방이 다 나가고 없는 것보다는 일찍 들어가보는 게 더 나을 것 같았기 때문이다. 5월 11일 수요일, 오후 4시 55분 경 Xior 예약 페이지(https://www.xior-booking.com/)에 접속을 준비했다. 어느 EUR 학생 유튜버의 영상에서 Xi..

[3] RSM 학생으로서 집 구하기 - 1 | Housing as a RSM first-year student - 1 (Why I decided to rent a room at Xior)

* English version below 사실 집 구한지는 시간이 꽤 흘렀다. 단지 이것저것 하느라 바빠서 블로그에 글 쓸 생각을 못 했다.. 오늘 마침 생각난 김에 집 구하는 과정은 어땠는지에 대한 글을 한 번 써보려고 한다. 우선 RSM 학생으로서 집을 구하는 방법은 정말로 아주 다양하다. 네덜란드는 기숙사의 개념이 없고 학교가 학생들의 거주지 마련에 책임이 있는 것이 아니기 때문에 학생들이 알아서 구해야 한다. 몇 가지 대표적인 집 구하는 방법을 나열해보자면 다음과 같다. - 학교 홈페이지에 소개되어있는 학생 숙소 및 아파트: SSH, Xior, The Student Hotel 등 - 방 구하는 웹사이트: kamernet.nl, pararius.com 등 - 부동산 - 페이스북 페이지: 페이스북에..

[2] RSM 석사 프로그램 지원 여정 - 최종 합격 | RSM Master's Program Application Journey - Unconditional Offer

본론에 들어가기에 앞서, 며칠 전 'RSM 석사 프로그램 지원 과정'에서 'RSM 석사 프로그램 지원 여정'으로 이 시리즈의 제목을 바꿨다. 그 이유는 그냥 단순히 과정이라고 하기에는 시간이 너무 많이 걸렸기 때문이다.. 작년 10월에 지원을 시작했는데, 이제야 이 석사 지원 여정의 마무리를 짓는다. 이제는 비자 신청과 학교 등록 과정이 남았다. (역시 해외 생활 준비란 끝나도 끝난 게 아니다.) Before I get to the point, I would like to mention that I changed the title to 'RSM Master's Program Application Journey' instead of 'RSM Master's Program Application Process..

토픽별 BERT 감성 분석 | BERT Sentiment Analysis by Topics (13.04.2022.)

이전 포스트에서 나는 BERT를 사용하여 토픽 모델링을 진행하였다. 결과적으로, 성공적인 제품 리뷰에서는 7개의 토픽을, 성공적이지 않은 제품 리뷰에서는 3개의 토픽을 얻었다. 이번 포스트에서는 이 토픽들을 가지고 감성 분석을 진행해볼 것이다. In the previous post, I conducted the topic modeling with BERT. As a result, I got 7 topics from the successful product reviews and 3 topics from the unsuccessful product reviews. In this post, I'm going to conduct the sentiment analysis by these topics. * 아래 포..

BERT 토픽 모델링 | BERT Topic Modeling (13.04.2022.)

BERT 모델을 사용한 감성 분석에서 나는 모델의 높은 정확도에 놀랐다. 그래서 이번 포스트에서는 BERT를 사용하여 토픽 모델링을 해볼 것이다. 이를 위해 Maarten Grootendorst가 개발한 BERT 기반 토픽 모델링 기법인 BERTopic을 사용할 것이다. From the sentiment analysis with the BERT model, I was impressed with the high accuracy of the model. So, in this post, I'm going to conduct the topic modeling using BERT. For that, I'm going to use BERTopic, a BERT-based topic modeling technique..

불용어 제거한 데이터셋 만들기 | How to Make Stop Words-Removed Datasets (13.04.2022.)

다음은 불용어를 제거한 데이터셋을 만들기 위한 코드이다. The followings are the steps and codes to make and save datasets without stop words. 1. Import necessary packages. import pandas as pd import re from nltk.corpus import stopwords 2. Download the stopwords package. nltk.download('stopwords') 3. Import the datasets. suc = pd.read_csv('suc_bert.csv') un = pd.read_csv('un_bert.csv') 4. Define the function for preproce..

BERT 감성 분석 - 2 | BERT Sentiment Analysis - 2 (13.04.2022.)

이전 포스트에서 나는 BERT 모델을 사용해 감성 예측을 하였고 고객 제품 리뷰에 1(긍정) 혹은 0(부정)의 라벨을 부여하였다. 이번 포스트에서는 감성 분석을 두 가지 방식으로 진행해보려 한다: 1) 성공한 제품 리뷰들과 성공하지 않은 제품 리뷰들에 대한 전반적인 분석, 2) 키워드 분석 (여기서 키워드란, 성공한 제품과 성공하지 않은 제품의 리뷰들을 합쳐서 단어 빈도 분석을 진행했을 때 가장 자주 언급되는 상위 10개의 단어들이라고 정의 내린다.) In the previous post, I used the BERT model for the sentiment prediction and labeled the customer product reviews 1(positive) or 0(negative). I..

BERT 감성 분석 - 1 | BERT Sentiment Analysis - 1 (13.04.2022.)

지난 모임에서 대학원생 언니가 BERT라는 것에 대해서 소개했다. BERT에 대해 처음 들어보는 것이었어서 더욱 관심이 갔다. BERT는 Bidirectional Encoder Representations from Transformers의 약자이다. 나는 컴퓨터공학과 학생이나 컴퓨터사이언티스트가 아니기 때문에 BERT의 원리와 구조 등에 대해서 자세하게 설명하진 않을 것이다. 하지만, 이 포스트에서 BERT를 사용해 감성 분류를 할 것이기 때문에 BERT를 이해하기 위한 단순하지만 중요한 포인트들을 적어보겠다. BERT는 위키피디아와 BooksCorpus와 같은 라벨링이 되어 있지 않은 텍스트 데이터로 사전 학습이 되어 있는 딥러닝 모델이다. 2018년에 구글에 의해 처음 공개된 후로부터 다양한 자연어 ..