U E D R , A S I H C RSS

논문번역/2012년스터디/서민관

는 off-line

abstract
off-line 다.
근 방법(segmentation-free approach) 다.
리, , 모델링 방법들 고, 독립 방법, 복 , 다.
, (linear discriminant analysis)과 allograph 문 모델, 방법 볼 것다.
는(lexicon-off) 결과는 는 방 다.

1.
다.
는 대부 off-line 는데 된다.
된 문나 단되고 고, 다.
방대 나 단 기 때문 라가기 때문다.
능력 가가 더 복 리를 가능기 때문 볼 만다.

논문 는 off-line 기본 Hidden-Markov-Model 다.
그리고 독립 방법과 복 , 단 기반 몇몇 다.
방법들데, , allograph 문 모델, 방법 볼 것다.

관련 구를 볼 것다.
리가 3 다.
리 과, 방법들, 모델링과 된 기 다.
방법 과를 나내기 가 결과는 7 다.

2. 관련
off-line 다.
리된 단 나 legal amount reading 고, 높 기록다. 그래 를 높 2, 8.

는 달리 방대 렵다.
로 문맥 보나 단 보가 기 때문 난다. 리된 단 리를 난다.
발달 다.
(feature extract) 또는 다.
1, 1815 HMMs 방법 기반 둔 방법과 recurrent neural network HMMs 방법다.
15 반면, 1, 18 다.
대규모 off-line 16라.

른 단 는 것 , 9 는 무(segmentation-free) 방법 개되 다.
고, 결과를 달다.
독립 만들 10 된 내 11 다.
근법 는데, 방법 다르다.
로, 각 문 따라 HMMs 모델 allograph 문 모델 는 것 뿐 다.

3. 말뭉
력 데는 Lancaster-Oslo/Bergen 말뭉 기반 공되다.
독립 뿐만 라 복 IAM과 Bern 대 다.
는 다 고리들(문, 교, 대 , )과 500명 다른 1200 를 다루고 다.
리는 독립 250명 가 만든 고리 a..f 다. 그리고 복 6명 만들 c03 부를 다.

(Senior)들 된 데 다.
는 단 25 며, 공개 다.

두 데 300dpi 256 벨로 다.
Fig. 1 각 데 를 보다.

4.
되는 것로 발러를 보 게 되 다.
따라 그램 를 가 때까 다.
리 단는 IAM 데 다는 것다. 게 되 는 동 기 때문다.

리를 는 각각 기 라 다.
는 것로 가능다.
내기 내는 는 것 다.
그램 는 Otsu method를 로 구 다.
그램 각 라 된다. 그리고 그램 따라 된다.

때문 기들 다.
, 그러 는 것 다고 명되다.
다.

가끔 게 달라 다는 관 리는 각 , 그러 로 교다.
따라 는 방법 다.
다.

반면 그러 15 것과 귀(linear regression)를 방법 다. 그러 기반다.
따라 되고, 그러 다는 고려 -, -검 된다.
그램 되는 모리 기반 데 리 검기가 다.
그램 균값 그러(slant angle)로 다.

기를 리는 각 기 라 극값(local extrema) 다.
(scaling factor)는 기반다. 기 때문다.
리 단는 다른 를 보 다.
따라 0 되고 가 255가 된다.
리 단 과는 말뭉 그림 3다.

5.
기 라 리 된 력 데로 들다.
11된 것과 근방법 sliding window 기법 다.
4 를 가 가 2 다. 그리고 두 개 다.

sliding window다 다 7가 다.
(1) 검- (window )
(2) 기 고려 극값 균값 (position of the mean value of the intensity distribution)
(3)
(4)
(5) 단과
(6) 단과 균 극값
(7) 균 극값
견고 (2)-(5)는 단 기단 기 리( 고값 line fitting됨)를 다.
window 4다 모든 다.

극값 균값 뿐만 고려, 리는 로 3개 다.
따라 리는 window 내부 는 4개 , 균 값 다. 그리고 라 를 각각 (8), (9), (10) 다.

문맥 고려, 리는 각 다 근 물(approximate horizental derivative) 다. 따라 20 다.(window당 10개 + 10개 물)

(...) 리는 련과 다.(cf. 6)
는 방법 (........ original feature representation) 다.
A는 련 데 는 class scatter matrix Sw과 scatter matrix Sb 값(eigenvalue) 문는 것다.
scatter matrix들가 HMM류되고 리는 련 데 기반 따라 다. (...........................)
scatter matirx들 때 LDA 변값 문는 것 다.

...

... ...는 S-1wSb값과 고다.
m개 대 고값들 m개를 구는 것 고려는 것는다.
모든 LDA 변 HMM 된다.

6. 모델링과
, , HMMs ESMERALDA 개발 5 공되는 방법들과 구들 된다.
HMMs 리는 512개 Gaussian mixtures with diagonal covariance matrices를 담고 는 공 codebook과 반- 다.
기본 모델 52개, 10개 , 12개 , Baum-Welch 련된다.
모델들 반복로 구된 결 모델 된다.
것 같 Viterbi beam-search 방법 된다.

리 동 던 다 기 방 를 고려 리는 13근방게 복 독립 allograph 모델 다.
Allograph는 다른 (realization)과 같 낸다.
과 반대로 HMMs로 다른 문 모델링 된다는 것다.
따라 allograph HMMs 는 발견로(heuristically) 결된다. 를 들 allograph 다.
, 련 데는 무된 allograph HMMs류된다.
모든 문 는 동, 병렬로 모든 는 allograph 모델들게 매개변 된다.
모델 매개변 를 결다.
따라 allograph 류는 고게 결되는 것 라 단 soft vector 따라 로 결된다.

로, 문 것 같 모델 다.
는 ... 따르는 관된 데 x 모델 극대 는 문 W^를 는 것다.
P(w)는 문 w 력 데 x가 문 모델 따를 때 률 P(x|w) 모델 낸다.
는 absolute discounting bi-gram 모델과 backing-off for smoothing of probability distributions가 다.

7. 결과
리는 다. 단 , 복 , 독립.
table 1다. 고, 모델 , bi-gram 모델 결과는 다.
모델 IAM 데 a..d 고리 모든 고, 나머 다.
는(lexicon-free ....) 단 기반 결과는 table 2다.
(Senior) 데 282 141 다. 문 bi-gram perplexity는 15.3다.
bi-gram 모델 는 것로 13.3% 12.1%까는 결과를 다.
LDA 변 는 것 게 된다. LDA 변 12까 그렇다.
(table 2) 28.5%, 1.5k 는 10.5%다.
결과들 리가 낸 같는 결과(literature ......) 다. 기가 다르기 때문 기는 만.
17 각 글 28.3%로 다. 는 경 84.1%고, 1.3k 는 16.5%다.
15 6.6% 41.1% 보고다.
9 보고된 기반 는 15.0%다.

IAM 데 c03 는 440 고, 109 다.
6명 다른 다른 다.
LDA( 12)를 14.2% 다. allograph 모델(각 다 6개 allograph) 는 것로 13.3%까다.
bi-gram 모델 11.1%( perplexity 12.0)까 더 낮다.
는 경 39.0%, 421개(문 )를 는 것로 13.9%까다. 11 된 단 20.5% 교된다.

결과들 리가 독립 는데 다.
IAM 데 a-f( 250명 ) 력 데는데, 4321라 (a-d)는 고, 1097라 (e-f)는 다.
31.3%를 달다.
독립 allograph 모델 는 것 뚜렷 다.
나당 3개 allograph를 는 것 31.1% 고, 리가 단당 10개 allograph 모델 때는 (34.8%)과 가 둘 다 나빠다.
만 LDA변 29.1%로 미가 게 감다.
모델 22.2%가 되다.( perplexity 12.0)
때 단 60.6%다.

8. 결론.
리는 는 off-line 다. 그리고 단 , 복 , 독립 몇몇 다.
기반 때 뿐 라 문 결과가 다.
는 문 모델 다. 그리고 는 것로 복 독립 다.
allograph 문 모델 는 것 , 복 , 더 많 다.

9. acknowledgement
German Research Foundation(DFG) Fi799/1 다.
DB를 게 감 를 드린다.
Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2021-02-07 05:28:54
Processing time 0.1321 sec