Tesla AI Day: Vision(WIP) Tesla사에서 AI Day를 개최했다. 일론 머스크가 테슬라를 much more than electric car company라고 소개하며 시작한다. 저 말이 왜이렇게 멋있는지...!ㅎㅎ 이 날 다양한 프레젠테이션이 이루어졌지만, 역시 나의 우상 Andrej Karpathy가 발표한 비전 기술을 열심히 살펴봤다. 라이다에 집중하던 자율주행시장에서 100% 비전 중심의 자율 주행을 목표로 하며, 안드레 카파씨가 이끄는 ai team이 계속해서 연구를 하고있다고 한다. 이 날의 발표에서는 (정확히 언제 들고나왔는지는 모르겠지만) 이 전부터 언급해왔던 HydraNet을 중심으로 비전기술을 설명하고 있다. 모든 내용을 아직까지 이해하지는 못하지만, 이렇게 하고 있구나... 라고 훑으면서 발톱만큼이라도 따라가보..
[Object Detection] 객체 탐지, 물체 인식, 오브젝트 디텍션? 작년 이상탐지 프로젝트를 진행한 이후, 컴퓨터 비전 공부를 최근 다시 하고 있다. 수업에서 다룬 내용과 수강생들이 프로젝트 주제로 삼았던 것들은 대부분 classification task에 관련된 것들이었으나, 최근에는 Computer vision에서 매우 중요한 task인 object detection을 중점적으로 보고 있다. 아예 비전공자이신 분들이 무슨 공부를 하는거냐, 무슨 일을 하는거냐고 질문하시면 재치있게 답변하기 위해서 이렇게 말한다. "드라마 스타트업에서 남주혁이 하는 그 일이요~" 사실 스타트업을 안봐서, 세부적인 내용은 잘 모르지만, 하여튼 pedestrian detection 내지는 object detection을 하는 것은 대충 알겠다. 그렇다면, Object Detection에 대..
[선형대수] 벡터와 공간 - 선형독립 이번 포스팅에서는 Khan academy의 linear independent(선형독립)에 대해 알아보자. 저번 학기에 다변량 수업을 들으면서, 벡터에 곱해지는 상수항들이 전부 0이면 선형독립이라는 걸 배웠(?)는데 그 의미에 대해 이해하지 못한채로 넘어갔었다. 살만 칸쌤 덕분에 드.디.어. 이해했다 ~!~!~!~!!!! - 이게 영어로 이해하면 편한데, 한국어로 뭔가 어려운 단어를 써서 띠용스럽다. 나는 살만 칸쌤처럼 Linear Dependent / Independent 터미놀로지를 사용하겠다!!!!!! Linear Independent전에 linear dependent를 먼저 이해해보자. 이전 포스팅에서 살펴보았듯, \(S = { \vec a, \vec b}\)일 때, \(Span(S)\)는 \(c_..
[선형대수] 벡터와 공간 - 선형결합과 생성 이번 포스트에서는 Khan academy의 Linear combination(선형결합)에 대해 알아보자. \(\vec v_1, \vec v_2, ... , \vec v_n \in \mathbb R\)일 때, \(c_1\vec v_1 + c_2\vec v_2 + ... + c_n\vec v_n\)을 선형결합이라고 한다. 선형결합이라고 하는 이유는 상수배를 한 벡터들을 더하기 때문! 만약, \(\vec a = (1, 2), \vec b = (0, 3)\)일 때, 벡터 \(\vec a\)와 벡터 \(\vec b\)의 다양한 선형결합을 고려해보자. \(0\vec a + 0\vec b = \vec 0\) \(3\vec a - 2\vec b = (3, 0)\) # 위의 그림 참고! 즉 2차원 상의 모든 점을 \(\..
[선형대수] 벡터와 공간 - 매개변수 방정식 Khan academy 수업 정리. 2차원과 다르게 3차원 이상의 고차원 공간에서는 직선을 나타내기 위한 유일한 방법이 바로 매개변수 방정식이다. 그렇다면, 매개변수 방정식에 대해 2차원에서부터 살펴보자. ● Set of collinear vector 실수 공간에 벡터 v가 있다고 하자. \( \vec v = (2, 1)\)라고 할 때, 동일선상에 존재하는 벡터의 집합은 \( S = \{ c\vec v | c \in \mathbb R \}\)으로 나타낼 수 있다. 이 S 를 공간상에 모두 촘촘하게 표현을 하면(c가 -무한대 ~ +무한대까지 가능하다고 볼 수 있겠다.), 이는 기울기를 갖는 어떠한 직선을 그리게 된다. 이 직선상의 임의의 벡터에 \(\vec x \)를 더해서, 또 촘촘하게 표현을 하면 원래..
[선형대수] 벡터와 공간 - 벡터 더보기 이번학기 나를 괴롭혔던 다변량분석과 데이터 마이닝...이라 쓰고 선형대수라 읽는 것..^*^ 내가 복전생이라 순서대로 안들어서인가..나만 선형대수를 모르는 건가....? 하여튼 너무 힘들었던 이번 학기. 모르는 것을 그때그때 채워 공부하긴 하였으나, 제대로 이해한 것 같지 않은 느낌... 수학과에서 선형대수 수업을 들을 시간은 더 이상 없으니 내가 혼자 공부해보자. 종강했으니, 오늘부터 칸 아카데미에서 제공하는 선형대수학 수업을 수강한다. 홧팅! - 첫번째 수업인 벡터와 공간의 '벡터' chapter. 정말 쉽다. 고등학교때 배운 행렬수준. .... 너무 쉬워서 뭐라 써야할지도 모르겠지만, 큰 개념들만 짚고 넘어가도록 하겠다. 벡터? 크기와 방향을 표현. 2차원상에서는 주로 (0, 0) 원점에서 ..
node2vec: Scalable feature learning for networks 논문 리뷰를 해보고자 함. graph를 알아보고자.. [논문 해석] 더보기 section 1. introduction 1. 네트워크 분석에서 많은 task들은 nodes와 edges에 대한 예측을 포함. 일반적인 node 분류 작업에서, 우리는 네트워크에서 node에의 가장 가능성있는 레이블을 배정하고자 함. (ex. 소셜네트워크에서, 사용자의 흥미 예측에 관심) link 예측에서, 우리는 네트워크의 한 쌍의 노드가 그들을 연결하는 edge로 연결되는지를 예측하고자함. 다양한 도메인에 활용됨. 유전학에서는 유전자들 간 새로운 상호작용발견, 소셜네트워크에서는 실제 친구를 식별. --> 네트워크분석: a pair of nodes가 edge로 connect되어있는지 여부를 판단하고자 함. 2. 모든 super..
추천시스템에의 고민 최근 추천시스템을 공부하면서, 나름 관심을 가졌던 부분이 바로 '타이밍'이었다. 추천에의 타이밍. 내가 검색을 한다거나, 쇼핑을 할 때, 굳이 굳이 10년전의 정보나 아이템을 보고싶진않을테니.. 특히나 내가 공부하면서, 다뤄봤던 데이터가 카카오 아레나의 브런치 데이터였기때문에, user가 좋아할 만한 item이라고 판단한다 해도, 이미 시간이 지나서 잘 보지않는, 이미 old-fashion의 것이 되어버린 것들을 추천하는 것이 과연 올바른 일일까? 라는 고민을 계속 했었다. 특히 cold-start, long-tailed item 해결, 즉 unbiasing문제에 관심을 갖고 바라보았던 터라, 가장 손쉽게 접근할 수 있는 content-based recommender system을 활용했다. 당연히 생길..
[Recommender System: the textbook] 5. Knowledge-Based Recommender Systems 5.1 introduction Collaborative systems: 많은 데이터가 필요 --> 그렇지않으면 cold-start 문제 발생. Content-based: 조금 낫지만, new user에 대한 cold-start 문제는 여전히 남아있음. 또한, 매우 customized한 아이템에 잘 맞지않는 추천기법이다. 부동산, 자동차, 관광, financial services, 럭셔리 제품들은 판매량이 많지않고, 충분한 ratings가 이루어지지않음. 그리고 이런 상품들에 대한 도메인 영역은 매우 복잡하다. 집을 사고자할 때, 우리는 옷을 사듯이 고르는 것이 아니고, 평수, 방 개수, 베란다 유무 뭐 이런 것들을 명확하게 원하기때문.. 부동산 아이템과 같은 것들은 아이템을 설명하는데에 있어서 복잡성이 ..