Conditional random fields for noisy text normalisation
dc.contributor.advisor | Du Preez, J. A. | en_ZA |
dc.contributor.author | Coetsee, Dirko | en_ZA |
dc.contributor.other | Stellenbosch University. Faculty of Engineering. Department of Electrical and Electronic Engineering. | en_ZA |
dc.date.accessioned | 2015-01-13T11:50:02Z | |
dc.date.available | 2015-01-13T11:50:02Z | |
dc.date.issued | 2014-12 | en_ZA |
dc.description | Thesis (MScEng) -- Stellenbosch University, 2014. | en_ZA |
dc.description.abstract | ENGLISH ABSTRACT: The increasing popularity of microblogging services such as Twitter means that more and more unstructured data is available for analysis. The informal language usage in these media presents a problem for traditional text mining and natural language processing tools. We develop a pre-processor to normalise this noisy text so that useful information can be extracted with standard tools. A system consisting of a tokeniser, out-of-vocabulary token identifier, correct candidate generator, and N-gram language model is proposed. We compare the performance of generative and discriminative probabilistic models for these different modules. The effect of normalising the training and testing data on the performance of a tweet sentiment classifier is investigated. A linear-chain conditional random field, which is a discriminative model, is found to work better than its generative counterpart for the tokenisation module, achieving a 0.76% character error rate compared to 1.41% for the finite state automaton. For the candidate generation module, however, the generative weighted finite state transducer works better, getting the correct clean version of a word right 36% of the time on the first guess, while the discriminatively trained hidden alignment conditional random field only achieves 6%. The use of a normaliser as a pre-processing step does not significantly affect the performance of the sentiment classifier. | en_ZA |
dc.description.abstract | AFRIKAANSE OPSOMMING: Mikro-webjoernale soos Twitter word al hoe meer gewild, en die hoeveelheid ongestruktureerde data wat beskikbaar is vir analise groei daarom soos nooit tevore nie. Die informele taalgebruik in hierdie media maak dit egter moeilik om tradisionele tegnieke en bestaande dataverwerkingsgereedskap toe te pas. ’n Stelsel wat hierdie ruiserige teks normaliseer word ontwikkel sodat bestaande pakkette gebruik kan word om die teks verder te verwerk. Die stelsel bestaan uit ’n module wat die teks in woordeenhede opdeel, ’n module wat woorde identifiseer wat gekorrigeer moet word, ’n module wat dan kandidaat korreksies voorstel, en ’n module wat ’n taalmodel toepas om die mees waarskynlike skoon teks te vind. Die verrigting van diskriminatiewe en generatiewe modelle vir ’n paar van hierdie modules word vergelyk en die invloed wat so ’n normaliseerder op die akkuraatheid van ’n sentimentklassifiseerder het word ondersoek. Ons bevind dat ’n lineêre-ketting voorwaardelike toevalsveld—’n diskriminatiewe model — beter werk as sy generatiewe eweknie vir tekssegmentering. Die voorwaardelike toevalsveld-model behaal ’n karakterfoutkoers van 0.76%, terwyl die toestandsmasjien-model 1.41% behaal. Die toestantsmasjien-model werk weer beter om kandidaat woorde te genereer as die verskuilde belyningsmodel wat ons geïmplementeer het. Die toestandsmasjien kry 36% van die tyd die regte weergawe van ’n woord met die eerste raaiskoot, terwyl die diskriminatiewe model dit slegs 6% van die tyd kan doen. Laastens het ons bevind dat die vooraf normalisering van Twitter boodskappe nie ’n beduidende effek op die akkuraatheid van ’n sentiment klassifiseerder het nie. | af_ZA |
dc.format.extent | xv, 145 p. : ill. | |
dc.identifier.uri | http://hdl.handle.net/10019.1/96064 | |
dc.language.iso | en_ZA | en_ZA |
dc.publisher | Stellenbosch : Stellenbosch University | en_ZA |
dc.rights.holder | Stellenbosch University | en_ZA |
dc.subject | Conditional random fields | en_ZA |
dc.subject | Noisy text | en_ZA |
dc.subject | Spelling correction | en_ZA |
dc.subject | Mikroblogging | en_ZA |
dc.subject | Unstructured data | en_ZA |
dc.subject | Data mining | en_ZA |
dc.subject | Text normalisation | en_ZA |
dc.subject | Tokeniser | en_ZA |
dc.subject | UCTD | |
dc.title | Conditional random fields for noisy text normalisation | en_ZA |
dc.type | Thesis | en_ZA |