Deep Learning study
오늘 정리할 것은 최대 우도 추정(MLE) 방법입니다. MLE를 공부하기 전에 Bayes theorem(베이즈 정리)를 간단하게 알아보겠습니다. Bayes Theorem 베이즈 정리는 두 확률변수의 사전확률(prior)와 사후확률(posterior)사이의 관계를 나타내는 정리입니다. 즉 사전확률(prior) 로부터 사후확률(posterior)를 알 수있게해줍니다. B를 관측 데이터, A를 모델 이라고 합시다.
#include using namespace std; #define FOR(i,a,b) for(int i=a ; ib ; i--) int x[4] = {0,0,1,-1}; int y[4] = {1,-1,0,0}; int R,C,T,r1,r2,r[2],m[51][51],v[51][51]; bool check(int x, int y){ return (x=0 && y=0); } void proliferation(int a, int b){ int cnt=0,prol = m[a][b]/5; FOR(i,0,4){ int nx = a + x[i], ny = b + y[i]; if(check(nx,ny) && m[nx][ny]!=-1) cnt++; } m[a][b] = m[a][b] - prol * cnt; v[a][..
#include using namespace std; #define FOR(i,a,b) for(int i=a ; i> N; FOR(i,0,N) cin >> A[i]; FOR(i,0,4) cin >> op[i]; cal(A[0],1); cout
#include using namespace std; #define FOR(i,a,b) for(int i=a ; i> N >> M; cin >> r >> c >> d; FOR(i,0,N) FOR(j,0,M) cin >> board[i][j]; clean(); cout
#include using namespace std; #define FOR(i,a,b) for(int i=a ; i
#include using namespace std; #define x first #define y second #define FOR(i,a,b) for(int i=a ; i=0 && b =0 && board[a][b] != 2; } bool move(int nxt){ a += gox[cur_dir%4], b+= goy[cur_dir%4]; if(!check()) return false; snake.push(make_pair(a,b)); if(board[a][b] == 0){ pair tmp = snake.front(); board[tmp.x][tmp.y] = 0; snake.pop(); } board[a][b] = 2; if(nxt == 'L') cur_dir += 3; else if..