는 off-line
abstract
off-line .
모듈 리는 는 방(segmentation-free approach) .
리, , 모델링 방들 , 독립 방, 복 , 명 등 대 들 루 .
, (linear discriminant analysis) allograph 문 모델, 방 볼 .
는(lexicon-off) 는 는 방 .
off-line .
모듈 리는 는 방(segmentation-free approach) .
리, , 모델링 방들 , 독립 방, 복 , 명 등 대 들 루 .
, (linear discriminant analysis) allograph 문 모델, 방 볼 .
는(lexicon-off) 는 는 방 .
1.
만 는 .
는 대부 off-line 번를 등 모 리는데 .
런 들 문 만 , 는 무 .
방대 대 문 러 복 문.
만 능 더 복 리를 능 문 더 볼 만 는 .
만 는 .
는 대부 off-line 번를 등 모 리는데 .
런 들 문 만 , 는 무 .
방대 대 문 러 복 문.
만 능 더 복 리를 능 문 더 볼 만 는 .
논문는 는 off-line 본 Hidden-Markov-Model .
리 독립 방 복 , 대 문 데 몇몇 들 .
리 방들 데, , allograph 문 모델, 등 더 방 볼 .
리 독립 방 복 , 대 문 데 몇몇 들 .
리 방들 데, , allograph 문 모델, 등 더 방 볼 .
는 대 를 볼 .
리 데 대는 3 .
는 들 리 , 방들, 모델링 들 대 .
방 를 내 는 7 .
리 데 대는 3 .
는 들 리 , 방들, 모델링 들 대 .
방 를 내 는 7 .
는 리 방대 를 는 는 .
런 들 문맥 보 보 문 . 러 리 리를 들 내 .
런 들 불 는 많 .
들 (feature extract) 는 리 는 .
1, 18 15 HMMs 방 는 리 방 recurrent neural network HMMs를 방 .
15 데 면, 1, 18 들 복 데를 를 .
대모 off-line 대 는 16 보.
런 들 문맥 보 보 문 . 러 리 리를 들 내 .
런 들 불 는 많 .
들 (feature extract) 는 리 는 .
1, 18 15 HMMs 방 는 리 방 recurrent neural network HMMs를 방 .
15 데 면, 1, 18 들 복 데를 를 .
대모 off-line 대 는 16 보.
른 리는 문 , 9는 모듈 는 무(segmentation-free) 방 .
, 는 를 .
독립 는 백명 만들 대 데10 내 11 .
는 들 명 는데, 리 방 르.
, 문 따 HMMs 모델 는 등 allograph 문 모델 는 뿐 벡들 대 대 보.
, 는 를 .
독립 는 백명 만들 대 데10 내 11 .
는 들 명 는데, 리 방 르.
, 문 따 HMMs 모델 는 등 allograph 문 모델 는 뿐 벡들 대 대 보.
3. 말뭉
데는 Lancaster-Oslo/Bergen 말뭉 문 데 .
독립 뿐만 복 대 IAM Bern 대 를 루.
데는 리들(문, , 대 , ) 500명 른 들 1200 를 루 .
리는 독립 250명 만 리 a..f 들 . 리 복 6명 만들 c03 부를 .
데는 Lancaster-Oslo/Bergen 말뭉 문 데 .
독립 뿐만 복 대 IAM Bern 대 를 루.
데는 리들(문, , 대 , ) 500명 른 들 1200 를 루 .
리는 독립 250명 만 리 a..f 들 . 리 복 6명 만들 c03 부를 .
리 노(Senior)들 데 는 를 .
데는 25 루 며, .
데는 25 루 며, .
데 는 300dpi 256 벨 .
Fig. 1 데 를 보.
Fig. 1 데 를 보.
4. 리
동 부 는 는 러를 보 미는 듬 .
따 미 농 램 무를 미를 .
리 는 IAM 데는 는 . 들 번 를 는 동 문.
동 부 는 는 러를 보 미는 듬 .
따 미 농 램 무를 미를 .
리 는 IAM 데는 는 . 들 번 를 는 동 문.
리를 는 들 .
부 미를 는 능.
내 는 들 들 내는 를 는 .
밀 램 는 Otsu method를 면 를 동 .
램 들 들 . 리 미는 램 따 .
부 미를 는 능.
내 는 들 들 내는 를 는 .
밀 램 는 Otsu method를 면 를 동 .
램 들 들 . 리 미는 램 따 .
문 는 들 .
, 러 는 리 명.
는 벨 .
, 러 는 리 명.
는 벨 .
끔 는 받 리는 , 러 등 .
따 백 는 방 .
를 무 를 .
따 백 는 방 .
를 무 를 .
를 리는 (local extrema) .
(scaling factor)는 . 는 문.
마막 리 는 른 를 보 벨 루 .
따 미 벨 0 255 .
리 는 말뭉 림 3 .
(scaling factor)는 . 는 문.
마막 리 는 른 를 보 벨 루 .
따 미 벨 0 255 .
리 는 말뭉 림 3 .
sliding window 마 7 들 .
(1) - 변 (window 들 미를 )
(2) (position of the mean value of the intensity distribution)
(3) 리
(4) 리
(5) 리
(6)
(7)
대 (2)-(5)는 리( line fitting 됨)를 .
window 4마 모 들 .
(1) - 변 (window 들 미를 )
(2) (position of the mean value of the intensity distribution)
(3) 리
(4) 리
(5) 리
(6)
(7)
대 (2)-(5)는 리( line fitting 됨)를 .
window 4마 모 들 .
뿐만 방 , 리는 3 방 .
따 리는 window 내부 는 4 , . 리 를 (8), (9), (10) .
따 리는 window 내부 는 4 , . 리 를 (8), (9), (10) .
더 문맥 , 리는 벡 마 물(approximate horizental derivative) . 따 20 벡를 .(window 10 + 10 물)
벡들 (...) 리 리는 .(cf. 6)
변 는 방 (........ original feature representation) .
변 A는 데 는 class scatter matrix Sw scatter matrix Sb (eigenvalue) 문를 는 .
scatter matrix들 벡 HMM 리는 데 따 . (...........................)
scatter matirx들 LDA 변 문를 는 .
변 는 방 (........ original feature representation) .
변 A는 데 는 class scatter matrix Sw scatter matrix Sb (eigenvalue) 문를 는 .
scatter matrix들 벡 HMM 리는 데 따 . (...........................)
scatter matirx들 LDA 변 문를 는 .
...
... ...는 S-1wSb 벡.
m 대 들 m 벡를 는 는 는.
모 벡들 LDA 변 HMM .
m 대 들 m 벡를 는 는 는.
모 벡들 LDA 변 HMM .
6. 모델링
, , HMMs 독 ESMERALDA 5 는 방들 들 .
HMMs 리는 512 Gaussian mixtures with diagonal covariance matrices를 는 codebook - 들 .
본 모델 52 문, 10 , 12 문부 , 백 문 Baum-Welch .
문 모델들 복 모델 .
문 배 Viterbi beam-search 방 .
, , HMMs 독 ESMERALDA 5 는 방들 들 .
HMMs 리는 512 Gaussian mixtures with diagonal covariance matrices를 는 codebook - 들 .
본 모델 52 문, 10 , 12 문부 , 백 문 Baum-Welch .
문 모델들 복 모델 .
문 배 Viterbi beam-search 방 .
리 동 보 방 를 리는 13 방 복 독립 문 allograph 모델 .
Allograph는 문 른 (realization) 문 목 낸.
대 HMMs 른 문 목 모델링 는 .
따 문 목 allograph HMMs 는 (heuristically) . 를 들 복 allograph .
를 , 데는 무 allograph HMMs .
모 문 는 동, 모 는 allograph 모델들 매변 .
모델 매변 마 받는를 .
따 allograph 는 는 soft vector 따 .
Allograph는 문 른 (realization) 문 목 낸.
대 HMMs 른 문 목 모델링 는 .
따 문 목 allograph HMMs 는 (heuristically) . 를 들 복 allograph .
를 , 데는 무 allograph HMMs .
모 문 는 동, 모 는 allograph 모델들 매변 .
모델 매변 마 받는를 .
따 allograph 는 는 soft vector 따 .
, 문 배 대 모델 .
리 목는 ... 따르는 데 x 대 모델 대 는 문 배 W^를 는 .
방 P(w)는 문 배 w 데 x 문 모델 따를 문 배 P(x|w) 대 문 모델 낸.
리 는 absolute discounting bi-gram 모델 backing-off for smoothing of probability distributions .
리 목는 ... 따르는 데 x 대 모델 대 는 문 배 W^를 는 .
방 P(w)는 문 배 w 데 x 문 모델 따를 문 배 P(x|w) 대 문 모델 낸.
리 는 absolute discounting bi-gram 모델 backing-off for smoothing of probability distributions .
7.
리는 리 . , 복 , 독립 .
들 문 table 1 . , 모델 러 번 , bi-gram 모델 문 는 번 .
모델 IAM 데 a..d 리 모 를 , 머 들 동.
는(lexicon-free ....) 는 table 2 .
노(Senior) 데 282 를 를 141 를 . 문 bi-gram perplexity는 15.3.
bi-gram 모델 는 13.3% 12.1% 는 를 루.
LDA 변 는 . LDA 변 12 들 .
(table 2) 는 28.5%, 1.5k 는 10.5%.
들 리 낸 데를 는 (literature ......) 만. 르 문 는 만.
17 28.3% . 는 84.1%, 1.3k 는 16.5%.
15는 는 6.6% 는 41.1% 보.
9 보 는 15.0%.
리는 리 . , 복 , 독립 .
들 문 table 1 . , 모델 러 번 , bi-gram 모델 문 는 번 .
모델 IAM 데 a..d 리 모 를 , 머 들 동.
는(lexicon-free ....) 는 table 2 .
노(Senior) 데 282 를 를 141 를 . 문 bi-gram perplexity는 15.3.
bi-gram 모델 는 13.3% 12.1% 는 를 루.
LDA 변 는 . LDA 변 12 들 .
(table 2) 는 28.5%, 1.5k 는 10.5%.
들 리 낸 데를 는 (literature ......) 만. 르 문 는 만.
17 28.3% . 는 84.1%, 1.3k 는 16.5%.
15는 는 6.6% 는 41.1% 보.
9 보 는 15.0%.
복 IAM 데 c03 는 440 들 , 109 를 .
들 6명 른 른 .
LDA( 12)를 14.2% 문들 . 러 allograph 모델( 문마 6 allograph) 는 13.3% .
bi-gram 모델 11.1%( perplexity 12.0) 더 낮.
를 는 39.0%, 421 (문부 )를 는 를 는 13.9% 떨. 11 20.5% .
들 6명 른 른 .
LDA( 12)를 14.2% 문들 . 러 allograph 모델( 문마 6 allograph) 는 13.3% .
bi-gram 모델 11.1%( perplexity 12.0) 더 낮.
를 는 39.0%, 421 (문부 )를 는 를 는 13.9% 떨. 11 20.5% .
러 들 리 더 독립 는데 .
IAM 데 는 a-f( 250명 ) 데 는데, 4321 (a-d )는 , 1097 (e-f )는 .
러 31.3%를 .
독립 allograph 모델 는 복 내는 .
문 3 allograph를 는 31.1% , 리 10 allograph 모델 는 (34.8%) .
만 LDA변 는 29.1% 미 .
모델 문 22.2% .( perplexity 12.0)
를 60.6%.
IAM 데 는 a-f( 250명 ) 데 는데, 4321 (a-d )는 , 1097 (e-f )는 .
러 31.3%를 .
독립 allograph 모델 는 복 내는 .
문 3 allograph를 는 31.1% , 리 10 allograph 모델 는 (34.8%) .
만 LDA변 는 29.1% 미 .
모델 문 22.2% .( perplexity 12.0)
를 60.6%.
8. .
리는 는 off-line . 리 , 복 , 독립 대 몇몇 .
를 뿐 문 .
는 문 문 모델 . 리 는 복 독립 대 .
allograph 문 모델 는 면, 복 , 더 많 루 .
리는 는 off-line . 리 , 복 , 독립 대 몇몇 .
를 뿐 문 .
는 문 문 모델 . 리 는 복 독립 대 .
allograph 문 모델 는 면, 복 , 더 많 루 .
9. acknowledgement
German Research Foundation(DFG) Fi799/1 를 받.
DB를 대들 를 린.
German Research Foundation(DFG) Fi799/1 를 받.
DB를 대들 를 린.