Please use this identifier to cite or link to this item:
http://hdl.handle.net/2307/6030
Title: | Orbis dictus – Dalle analisi lessicali all'elaborazione del linguaggio naturale. I nuovi algoritmi | Authors: | Harb, Nader Ahmad Mohammad | Advisor: | Vertecchi, Benedetto | Keywords: | Insegnamento a distanza Tecnologie educazione Adaptive e-learning Modello Orbis dictus |
Issue Date: | 15-Jun-2016 | Publisher: | Università degli studi Roma Tre | Abstract: | Alcuni degli aspetti importanti nell’educazione a distanza e tradizionale sono l’individualizzazione e la motivazione. Si sono svolte e si svolgono molte ricerche al fine di raggiungere un modello educativo affidabile in grado di garantire una fruttuosa esperienza di apprendimento. Nella letteratura, alcune teorie sostengono che un sistema generale possa essere applicato a ogni campo scientifico e sociale (General System Theory), inclusa anche l’istruzione, altre teorie mettono l’istruzione in un altro livello, in cui grazie all’integrazione di Set theory, Information theory, Graph theory e la General Systems theory (SIGGS) si raggiunge un’esperienza conoscitiva migliore. A causa della crescita dei sistemi educativi elettronici, alcune teorie sono state create per utilizzare gli strumenti tecnologici disponibili, con l’obiettivo di creare un apprendimento dinamico che cambi in modo da incontrare i bisogni dello studente e le sue abilità a vari livelli di specificità (approcci educativi adattivi) Questo lavoro introduce un nuovo modello educativo, il modello Orbis Dictus che ha l’ambizioso intento di creare un multi-level model frame-work (modello di multilivelli). Il modello Orbis Dictus è visto come un modello teorico e allo stesso tempo come una piattaforma empirica e-learning adattiva, con alcune proposte di miglioramento attraverso l’introduzione di alcuni algoritmi avanzati (trueskill, mixed chaining expert system e predictive decision trees), e anche un lavoro di aggiornamento delle frequenze delle parole nel Vocabolario Di Base di Tullio De Mauro, visto che l’ultimo aggiornamento è stato fatto nel 2004, al fine di realizzare un miglioramento degli strumenti utilizzati nell’attuale piattaforma Orbis Dictus verso una migliore esperienza di apprendimento degli studenti. Il progetto di questa tesi nasce dalla osservazione degli strumenti sviluppati all’interno della piattaforma Orbis Dictus, sviluppata all’interno del progetto nazionale am-learning, e trovando dei limiti di tali strumenti, nella forma di parole con frequenze che non rispecchiano la difficoltà di tali parole. Questo causa qualche scelta errata dalla parte degli strumenti della piattaforma Orbis Dictus, e di conseguenza, occorre l’intervento umano per correggere tali errori. Possiamo minizzare l’intervento dell’essere umano nella creazione deelle parove a lacune automatiche ? L’utilizzo dell’internet come fonte ,per ricalcolare le frequenze delle parole nel Vocabolario Di Base di Di Mauro, potrebbe migliorare la scelta degli strumento per le prove a lacune ? Quali strumenti potrebbero beneficiare dell’aggiornamento del Vocabolario Di Base ? L’internet, potrebbe essere una fonte per analizzare il linguaggio di base in questi giorni, cone milioni e milioni di pagine Web create ogni giorno, questo potrebbe essere un modo non solo per aggiornare il linguaggio di base, ma anche per monitorare e vedere il cambiamento della lingua attraveerso il tempo. Per realizzare uno strumento del genere, è necessario avere in attenta considerazione ciò che rappresenta l’oggetto di studio e di elaborazione. Partendo dai dati raccolti dai siti dove gli utenti contribuiscono alle pagine e gli articoli con dei commenti, altri siti come i forum e i gruppi di discussione, i social network, e le notizie giornaliere, con l’attenzione di non raccogliere lo stesso articolo di più di una volta (i duplicati). Lo strumento è realizzato sviluppando dei piccoli software (Web Crawlers) che raccolgono le pagine dei siti prescelti, e portano indietro le pagine intere al server creato per tale obbiettivo, nel momento che le pagine vengono riportate al server, qualche algoritmo per pulire le pagine dagli annunci, la struttura della pagine (html tags), e i boilerplates (sono dei contenuti creati in automatico per tentare il visitatore a cliccare e visitare un’altra pagine che gli potrebbe interessare). Una volta che le pagine raccolte vengono pulite, rimane solo il testo, qui si intramette il lemmatizzatore, che porta la parola al lemma. Una volta che abbiamo i lemmi, si calcolano l’occurenza di sciascuna parola, poi si calcola la frequenza delle parole confronto al testo raccolto. Affinché gli studi e le proposte in campo educativo possano indirizzarsi e svolgersi con maggiore efficacia in un quadro schematico, occorre creare degli strumenti che consentano l’aggiornamento del vocabolario di base. Il presente lavoro è teso proprio a reintrodurre un fattore importante, che è l’utilizzo dei contributi degli utenti su internet per aggiornare il vocabolario di base e monitorare il cambiamento della lingua attraverso il tempo, al fine di migliorare l’esperienza educativa dello studente a distanza. | URI: | http://hdl.handle.net/2307/6030 | Access Rights: | info:eu-repo/semantics/openAccess |
Appears in Collections: | Dipartimento di Scienze della Formazione T - Tesi di dottorato |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Tesi - Nader Harb - dalle analisi lessicli all'elaborazione del linguaggio naturale. i nuovi algoritmi.pdf | 6.19 MB | Adobe PDF | View/Open |
Page view(s)
150
Last Week
1
1
Last month
2
2
checked on Nov 24, 2024
Download(s)
298
checked on Nov 24, 2024
Google ScholarTM
Check
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.