N-grama

Donada una seqüència, anomenem n-grama a una subseqüència de n elements. Els elements poden ser tant lletres com paraules.[1][2] S'utilitzen en diverses tasques de la traducció automàtica estadística,[3] i també en altres camps de la investigació científica com l'anàlisi de seqüències genètiques.

Anomenem unigrama al n-grama quan n=1, bigrama amb n=2, trigrama amb n=3, etc. Els models de n-grames també es coneixen com a "Models de Markov no-ocults", ja que es coneixen les probabilitats de transició entre els diferents estats.[4]

Model de n-grames

[modifica]

Un model de n-grames ens permet generar, gràcies a les propietats estadístiques dels n-grames, models de llenguatges naturals.[5]

Aquesta idea va néixer amb un experiment realitzat per Claude Shannon per a la seva Teoria de la informació. Donada una seqüència de lletres, va estudiar quina era la següent lletra més probable. A partir d'un conjunt de dades d'aprenentatge, es pot deduir una distribució de probabilitat amb què obtenir quina és aquesta lletra.

A l'hora de modelar llenguatges, concretament, un model de n-grama és capaç de predir donades . Degut a limitacions computacionals i també a què, en principi, una llengua pot tenir infinites paraules possibles, se simplifica de manera que cadascun dels elements (en aquest cas paraules) només depèn d'un nombre finit de n paraules.[2]

Tècniques de suavitzat

[modifica]

Els models de n-grames poden presentar alguns problemes: algunes probabilitats poden ser zero, si no s'ha vist mai el n-grama corresponent. Per això, se solen utilitzar algunes tècniques de suavitzat. Aquestes es poden dividir en dos grans tipus: tècniques per interpolació i tècniques back-off. En grans línies, la principal diferència entre ambdós tipus és que les tècniques d'interpolació sempre utilitzen informació de k-grames inferiors, mentre que les de back-off només ho fan si la probabilitat del n-grama és zero.[6]

Tècniques basades en interpolació

[modifica]

Les tècniques basades en interpolació calculen la probabilitat de manera ponderada entre el n-grama, corregit amb un factor i una probabilitat més robusta (que no presenta zeros) del n-grama i una història simplificada.

  • : història detallada ()
  • : probabilitat més robusta
  • : història simplificada ()

Tècniques basades en back-off

[modifica]

Les tècniques basades en back-off calculen la probabilitat de manera normal en els n-grames vistos durant la fase d'entrenament, i per als casos on aquesta probabilitat és zero, utilitzen probabilitat més robusta i una història simplificada.

, si

, si

Vegeu també

[modifica]

Referències

[modifica]
  1. Oliver, Antoni; Moré, Joaquim; Climent, Salvador. Traducció i tecnologies. Barcelona: Editorial UOC, 2007, p. 80-81. ISBN 978-84-9788-668-0 [Consulta: 17 febrer 2020]. 
  2. 2,0 2,1 Calafet, Rosa; Ramon, M. Magdalena. Nous reptes dels professionals en la comunicació especialitzada. Palma, Universitat de les Illes Balears: Associació Catalana de Terminologia, 2007, p. 74-80. ISBN 978-84-8384-026-9 [Consulta: 17 febrer 2020]. 
  3. Oliver, Antoni. «La base de dades terminològica IATE en català». Tradiling. [Consulta: 17 febrer 2020].
  4. «Aplicacions de reconeixement de la Parla: Sistemes de Respeaking III» (PDF). Escola d'enginyeria. Universitat Autònoma de Barcelona, 2010. [Consulta: 17 febrer 2020].
  5. Besacier, Laurent. Statistical Language and Speech Processing. Springer, 2014. ISBN 978-3-319-11396-8 [Consulta: 17 febrer 2020]. 
  6. Sidorov, Grigori; Gupta, Anubhav; Tozer, Martin; Catala, Dolors; Catena, Angels; Fuentes, Sandrine «Rule-based System for Automatic Grammar Correction Using Syntactic N-grams for English Language Learning (L2)». Association for Computational Linguistics, Proceedings of the Seventeenth Conference on Computational Natural Language Learning: Shared Task, 2013, pàg. 96–101 [Consulta: 17 febrer 2020].

Enllaços externs

[modifica]