Navigazione di Sezione:
Linguistica Computazionale Lm A+b 2025/2026
Generali:
- Dipartimento: Lettere E Filosofia
- Codice di verbalizzazione: 804002992
- Metodi di insegnamento: Frontale
- Metodi di valutazione: Orale
- Prerequisiti: Il corso è composto da due moduli (Linguistica Computazionale A e Linguistica Computazionale B). Prima di sostenere l'esame del secondo modulo (B), è obbligatorio aver frequentato con profitto il primo modulo (A). Per il secondo modulo (B) si richiede familiarità con la programmazione di base in Python e con i concetti fondamentali della linguistica computazionale e del NLP.
- Obiettivi: OBIETTIVI FORMATIVI: Il corso, dopo un'introduzione agli strumenti per l'analisi dei corpora e ai modelli base di elaborazione linguistica, approfondisce temi avanzati di linguistica computazionale e trattamento automatico del linguaggio (NLP), come modelli neurali, Large Language Model (LLM), elaborazione del parlato e aspetti etici delle tecnologie linguistiche. CONOSCENZA E CAPACITÀ DI COMPRENSIONE: Comprendere gli aspetti teorici, pratici ed etici della linguistica computazionale. CAPACITÀ DI APPLICARE CONOSCENZA E COMPRENSIONE: Progettare, sviluppare e valutare sistemi e task NLP che rispondono a diverse domande di ricerca. AUTONOMIA DI GIUDIZIO: Valutare criticamente le potenzialità e i limiti dei modelli avanzati di NLP (compresi i LLMs). ABILITÀ COMUNICATIVE: Descrivere e spiegare in modo chiaro e preciso i concetti teorici della linguistica computazionale e le applicazioni pratiche delle tecnologie per il NLP, anche in ottica interdisciplinare. CAPACITÀ DI APPRENDIMENTO: Acquisire gli strumenti necessari per approfondire in autonomia aspetti teorici e pratici complessi della linguistica computazionale e applicarli a nuovi contesti di ricerca. PROGRAMMA Il corso si articola in lezioni teoriche e pratiche. I principali argomenti trattati saranno: la raccolta, la compilazione e l'interrogazione dei corpora; il riconoscimento automatico del parlato (ASR); la sintesi vocale vocale (TTS); i modelli avanzati di rappresentazione del significato; gli algoritmi e i modelli di apprendimento automatico, comprese le architetture deep learning; e i transformers. Verranno progettati e sviluppati task avanzati di NLP, quali l'analisi del sentiment, delle emozioni e della soggettività; l'identificazione delle fake news e dello SPAM; i chatbot; i sistemi di ASR e TTS. Infine, il corso prevede un modulo dedicato agli aspetti etici nel NLP che tratterà i concetti di bias, harm e dual use, la sottorappresentazione linguistica e l'impatto sociale e culturale dei LLMs. Durante le attività pratiche, gli studenti e le studentesse svilupperanno progetti su task di NLP in Python, usando le librerie transformers, speechbrain, pyttsx3, scikit-learn, spaCy, NLTK. MODALITA' DI VALUTAZIONE (frequentanti e non frequentanti): L'esame si compone di due parti: un progetto scritto, concordato con la docente e incentrato su uno degli argomenti del corso, e una prova orale. Il progetto scritto va consegnato almeno una settimana prima della data dell'appello a cui si è iscritti/e. Chi non consegna il progetto scritto non può sostenere la prova orale. CRITERI DI VERIFICA DI APPRENDIMENTO (frequentanti e non frequentanti): Durante la prova orale, gli studenti e le studentesse discuteranno il progetto scritto e risponderanno a domande sul programma d'esame. L'esame coprirà sia i temi trattati a lezione sia quelli lasciati allo studio individuale. Saranno oggetto di esame anche i testi di riferimento indicati nel presente syllabus. Le domande saranno di tipo teorico e/o argomentativo. Il voto terrà conto del progetto e dell'accuratezza e delle completezza delle risposte date alla prova orale, oltre che della correttezza terminologica e adeguatezza espositiva. La valutazione dell'esame viene espressa attraverso un voto in trentesimi. TESTI ADOTTATI Nissim, M. E Pannitto, L. (2022). Che cos'è la linguistica computazionale. Carocci. [tutto] Lenci, A., Montemagni, S., E Pirrelli, V. (2016). Testo e computer: Elementi di linguistica computazionale. Carocci. [capitoli: 1, 2, 4, 7, 8, 9] Jurafsky, D. E Martin, J. M. (2025, online in open-access). Speech and Language Processing. [capitoli 9, 10, 15, 16]. Tamburini, F. (2022). Neural Models for the Automatic Processing of Italian. Pàtron. [tutto] I quattro manuali indicati sotto la voce "Testi adottati", le slides ed eventuale altro materiale fornito dalla docente.
- Ricevimento: Su appuntamento inviando una mail all'indirizzo claudia.roberta.combei@uniroma2.it
Didattica:
- A.A.: 2025/2026
- Canale: UNICO
- Crediti: 12