Difference between r1.2 and the current
@@ -6,28 +6,94 @@
= 소개 =
* ML 스터디
* 월요일 1시에 수업이 끝납니다. 2시 쯤에 시작하고 싶습니다. 시간이 변동되지 않았으면 좋겠습니다...~ (집에 일찍 가고 싶어요) ~
* 내용 정리 다시 합니다.
* 휴학생이라 집에서 혼자 공부 중
== 목표 ==
* ML에 대한 포괄적인 스터디 진행 예정
* 사실 ML을 배워서 게임에 적용을 하거나 적용 방법을 확립하여 실험하고 싶습니다. 개인적으로.
== 참가원 ==
[유재범]
= 스터디 =
== 스터디 페이지 ==
* 매주 정리해봅시다.
* [/20160314]
* 3월 21일 서류 쓰느라 패스
* 3월 28일. 페이지 따로 만들기 귀찮아서 그냥 이걸로 써야지. linear regression in one value 영상을 다 보았습니다.
* 4월 03일. "시작해요, 언리얼" 행사 참가로 토요일 ML 스터디 탈주 및 해당 스터디의 진도에 조금 늦어서 영상을 한번 더 봤습니다. 이번에 본 부분은 Linear Regression with Multiple Variables.
* 5월 16일. 언젠지 모르겠지만 저번에 Logical regression을 봤고 오늘은 Neural Network를 봤습니다.
* 내용을 한번에 정리 할 수 없습니다. 나중에 한번 더 보고 정리 해보겠습니다.
-------
* 이곳에서부터 다시 정리합니다.
=== Week 1 ===
* ML이란?
* 프로그램에 명시하지 않더라도 스스로 배울 수 있도록 하는 과학
* ML의 적용 예시 소개
* Supervised Learning
* 우리가 알고리즘에 정확한 답을 알고 있는 data set을 주는 것
* 옳바른 데이터를 전달하면 이를 분석하여 다른 옳바른 데이터를 생성
* Ex) 유방암 검사
* Unsupervised Learning
* Data set의 정보와 cluster 된 그룹의 차이를 자세히 몰라도 나누어진 그룹을 구분 할 수 있다.
* Ex) google, DNA, [https://en.wikipedia.org/wiki/Cocktail_party_effect Cocktail Party Problem]
* 몇 가지 문제 예시 소개
* Regression Problem
* 주어진 데이터를 기반으로 연속적인 값을 예측하는 문제
* Classification
* 이산적인 문제 해결
* 사실 케이스가 2개 이상이어도 된다.
* 케이스 간의 서로 독립적이어야 한다.
* Cluster
* data set을 같은 것끼리 그룹을 묶는 것
* Linear Regression
* data가 1차 함수 형태로 나타날거라 가정하고 예측
* h(x) = septa0 + septa1*x
* h(x) = hypotheses
* x = data
* 실제 주어진 값 y와 hypotheses의 차이를 최대한 줄이는 것이 목적
* cost function
* 실제 값과 구한 값의 차이를 나타내는 함수
* Least Square
* [https://en.wikipedia.org/wiki/Least_squares Least Square Wikipedia]
* [http://darkpgmr.tistory.com/56 한국어 설명 블로그]
* Gradient Descent
* [https://en.wikipedia.org/wiki/Gradient_descent Gradient Descent Wikipedia]
* [http://darkpgmr.tistory.com/133 한국어 설명 블로그]
=== Week 2 ===
=== Week 3 ===
=== Week 4 ===
=== Week 5 ===
=== Week 6 ===
=== Week 7 ===
=== Week 8 ===
== 참고자료 ==
* [https://www.coursera.org/learn/machine-learning 앤드류 응의 ML 강의 - 스탠포드]
* [https://class.coursera.org/ml-003/lecture 앤드류 응의 강의(위랑 같을듯요)]
* enroll 해야 볼 수 있습니다.
= 페이지 댓글 =
== 공지 ==
@@ -35,5 +101,7 @@
== 잡담 ==
* 알알못 머알못 ML을 하고 싶어 던져봅니다 - [유재범]
* 신의 탑 작가 이름이 SIU 라서 신의 탑을 오르는줄 착각을... -[bluemir]
* 사실 삼각함수를 노렸습니다... - [유재범]
---------------------------------------------------------------------[활동지도/2016]
The Singularity Is Near.... ~ 친알파 ~
1.1. 목표 ¶
- ML에 대한 포괄적인 스터디 진행 예정
- 천천히 오래동안 진행 할 예정
- 사실 ML을 배워서 게임에 적용을 하거나 적용 방법을 확립하여 실험하고 싶습니다. 개인적으로.
2.1. 스터디 페이지 ¶
- /20160314
- 3월 21일 서류 쓰느라 패스
- 3월 28일. 페이지 따로 만들기 귀찮아서 그냥 이걸로 써야지. linear regression in one value 영상을 다 보았습니다.
- 4월 03일. "시작해요, 언리얼" 행사 참가로 토요일 ML 스터디 탈주 및 해당 스터디의 진도에 조금 늦어서 영상을 한번 더 봤습니다. 이번에 본 부분은 Linear Regression with Multiple Variables.
- 5월 16일. 언젠지 모르겠지만 저번에 Logical regression을 봤고 오늘은 Neural Network를 봤습니다.
- 내용을 한번에 정리 할 수 없습니다. 나중에 한번 더 보고 정리 해보겠습니다.
- 내용을 한번에 정리 할 수 없습니다. 나중에 한번 더 보고 정리 해보겠습니다.
- 이곳에서부터 다시 정리합니다.
2.1.1. Week 1 ¶
- ML이란?
- 프로그램에 명시하지 않더라도 스스로 배울 수 있도록 하는 과학
- 프로그램에 명시하지 않더라도 스스로 배울 수 있도록 하는 과학
- ML의 적용 예시 소개
- Supervised Learning
- 우리가 알고리즘에 정확한 답을 알고 있는 data set을 주는 것
- 옳바른 데이터를 전달하면 이를 분석하여 다른 옳바른 데이터를 생성
- Ex) 유방암 검사
- 우리가 알고리즘에 정확한 답을 알고 있는 data set을 주는 것
- Unsupervised Learning
- Data set의 정보와 cluster 된 그룹의 차이를 자세히 몰라도 나누어진 그룹을 구분 할 수 있다.
- Ex) google, DNA, Cocktail Party Problem
- Data set의 정보와 cluster 된 그룹의 차이를 자세히 몰라도 나누어진 그룹을 구분 할 수 있다.
- 몇 가지 문제 예시 소개
- Regression Problem
- 주어진 데이터를 기반으로 연속적인 값을 예측하는 문제
- 주어진 데이터를 기반으로 연속적인 값을 예측하는 문제
- Classification
- 이산적인 문제 해결
- 사실 케이스가 2개 이상이어도 된다.
- 케이스 간의 서로 독립적이어야 한다.
- 이산적인 문제 해결
- Cluster
- data set을 같은 것끼리 그룹을 묶는 것
- data set을 같은 것끼리 그룹을 묶는 것
- Regression Problem
- Linear Regression
- data가 1차 함수 형태로 나타날거라 가정하고 예측
- h(x) = septa0 + septa1*x
- h(x) = hypotheses
- x = data
- 실제 주어진 값 y와 hypotheses의 차이를 최대한 줄이는 것이 목적
- h(x) = hypotheses
- data가 1차 함수 형태로 나타날거라 가정하고 예측
- cost function
- 실제 값과 구한 값의 차이를 나타내는 함수
- Least Square
- Gradient Descent
- 실제 값과 구한 값의 차이를 나타내는 함수
2.2. 참고자료 ¶
- 앤드류 응의 ML 강의 - 스탠포드
- enroll 해야 볼 수 있습니다.