Difference between r1.12 and the current
@@ -54,6 +54,21 @@
* Cluster
* data set을 같은 것끼리 그룹을 묶는 것
* data set을 같은 것끼리 그룹을 묶는 것
* Linear Regression
* data가 1차 함수 형태로 나타날거라 가정하고 예측
* h(x) = septa0 + septa1*x
* h(x) = hypotheses
* x = data
* 실제 주어진 값 y와 hypotheses의 차이를 최대한 줄이는 것이 목적
* cost function
* 실제 값과 구한 값의 차이를 나타내는 함수
* Least Square
* [https://en.wikipedia.org/wiki/Least_squares Least Square Wikipedia]
* [http://darkpgmr.tistory.com/56 한국어 설명 블로그]
* Gradient Descent
* [https://en.wikipedia.org/wiki/Gradient_descent Gradient Descent Wikipedia]
* [http://darkpgmr.tistory.com/133 한국어 설명 블로그]
=== Week 2 ===The Singularity Is Near.... ~ 친알파 ~
1.1. 목표 ¶
- ML에 대한 포괄적인 스터디 진행 예정
- 천천히 오래동안 진행 할 예정
- 사실 ML을 배워서 게임에 적용을 하거나 적용 방법을 확립하여 실험하고 싶습니다. 개인적으로.
2.1. 스터디 페이지 ¶
- /20160314
- 3월 21일 서류 쓰느라 패스
- 3월 28일. 페이지 따로 만들기 귀찮아서 그냥 이걸로 써야지. linear regression in one value 영상을 다 보았습니다.
- 4월 03일. "시작해요, 언리얼" 행사 참가로 토요일 ML 스터디 탈주 및 해당 스터디의 진도에 조금 늦어서 영상을 한번 더 봤습니다. 이번에 본 부분은 Linear Regression with Multiple Variables.
- 5월 16일. 언젠지 모르겠지만 저번에 Logical regression을 봤고 오늘은 Neural Network를 봤습니다.
- 내용을 한번에 정리 할 수 없습니다. 나중에 한번 더 보고 정리 해보겠습니다.
- 내용을 한번에 정리 할 수 없습니다. 나중에 한번 더 보고 정리 해보겠습니다.
- 이곳에서부터 다시 정리합니다.
2.1.1. Week 1 ¶
- ML이란?
- 프로그램에 명시하지 않더라도 스스로 배울 수 있도록 하는 과학
- 프로그램에 명시하지 않더라도 스스로 배울 수 있도록 하는 과학
- ML의 적용 예시 소개
- Supervised Learning
- 우리가 알고리즘에 정확한 답을 알고 있는 data set을 주는 것
- 옳바른 데이터를 전달하면 이를 분석하여 다른 옳바른 데이터를 생성
- Ex) 유방암 검사
- 우리가 알고리즘에 정확한 답을 알고 있는 data set을 주는 것
- Unsupervised Learning
- Data set의 정보와 cluster 된 그룹의 차이를 자세히 몰라도 나누어진 그룹을 구분 할 수 있다.
- Ex) google, DNA, Cocktail Party Problem
- Data set의 정보와 cluster 된 그룹의 차이를 자세히 몰라도 나누어진 그룹을 구분 할 수 있다.
- 몇 가지 문제 예시 소개
- Regression Problem
- 주어진 데이터를 기반으로 연속적인 값을 예측하는 문제
- 주어진 데이터를 기반으로 연속적인 값을 예측하는 문제
- Classification
- 이산적인 문제 해결
- 사실 케이스가 2개 이상이어도 된다.
- 케이스 간의 서로 독립적이어야 한다.
- 이산적인 문제 해결
- Cluster
- data set을 같은 것끼리 그룹을 묶는 것
- data set을 같은 것끼리 그룹을 묶는 것
- Regression Problem
- Linear Regression
- data가 1차 함수 형태로 나타날거라 가정하고 예측
- h(x) = septa0 + septa1*x
- h(x) = hypotheses
- x = data
- 실제 주어진 값 y와 hypotheses의 차이를 최대한 줄이는 것이 목적
- h(x) = hypotheses
- data가 1차 함수 형태로 나타날거라 가정하고 예측
- cost function
- 실제 값과 구한 값의 차이를 나타내는 함수
- Least Square
- Gradient Descent
- 실제 값과 구한 값의 차이를 나타내는 함수
2.2. 참고자료 ¶
- 앤드류 응의 ML 강의 - 스탠포드
- enroll 해야 볼 수 있습니다.