Generali:

  • Dipartimento: Lettere E Filosofia
  • Settore Ministeriale: L-LIN/01
  • Codice di verbalizzazione: 804002978
  • Metodi di insegnamento: Frontale
  • Metodi di valutazione: Orale
  • Prerequisiti: Per sostenere l'esame del modulo Linguistica Computazionale B è obbligatorio aver frequentato con profitto il modulo Linguistica Computazionale A. Si richiede familiarità con la programmazione di base in Python e con i concetti fondamentali della linguistica computazionale e del NLP.
  • Obiettivi: OBIETTIVI FORMATIVI: Il corso di propone di approfondire alcuni dei temi più rilevanti della linguistica computazionale e del trattamento automatico del linguaggio (NLP). Particolare attenzione sarà dedicata ai modelli neurali, ai Large Language Models (LLMs), all'elaborazione del parlato e alle implicazioni etiche connesse allo sviluppo e all'uso delle tecnologie del linguaggio. CONOSCENZA E CAPACITÀ DI COMPRENSIONE: Comprendere gli aspetti teorici, pratici ed etici della linguistica computazionale. CAPACITÀ DI APPLICARE CONOSCENZA E COMPRENSIONE: Progettare, implementare e valutare sistemi e task NLP avanzati che rispondono a diverse domande di ricerca. AUTONOMIA DI GIUDIZIO: Valutare criticamente le potenzialità e i limiti dei modelli avanzati di NLP (compresi i LLMs). ABILITÀ COMUNICATIVE: Descrivere e spiegare in modo chiaro e preciso i concetti teorici della linguistica computazionale e le applicazioni pratiche delle tecnologie avanzate per il NLP, anche in ottica interdisciplinare. CAPACITÀ DI APPRENDIMENTO: Acquisire gli strumenti necessari per approfondire in autonomia aspetti teorici e pratici complessi della linguistica computazionale e applicarli a nuovi contesti di ricerca. PROGRAMMA Il corso si articola in lezioni teoriche e pratiche. I principali argomenti trattati saranno il riconoscimento automatico del parlato (ASR) e la sintesi vocale vocale (TTS), i modelli avanzati di rappresentazione del significato, gli algoritmi e i modelli di apprendimento automatico, comprese le architetture deep learning e i transformers. Verranno progettati e sviluppati task avanzati di NLP, quali l'analisi del sentiment, delle emozioni e della soggettività; l'identificazione delle fake news e dello SPAM; i sistemi conversazionali (chatbot e dialogue systems); i sistemi di ASR e TTS. Infine, il corso prevede un modulo dedicato agli aspetti etici nel NLP che tratterà i concetti di bias, harm e dual use, la sottorappresentazione linguistica e l'impatto sociale e culturale dei LLMs. Durante le attività pratiche, gli studenti e le studentesse svilupperanno progetti su task di NLP in Python, usando le librerie transformers, speechbrain, pyttsx3, scikit-learn, spaCy, NLTK. MODALITA' DI VALUTAZIONE (frequentanti e non frequentanti): L'esame si compone di due parti: un progetto scritto, concordato con la docente e incentrato su uno degli argomenti del corso, e una prova orale. Il progetto scritto va consegnato almeno una settimana prima della data dell'appello a cui si è iscritti/e. Chi non consegna il progetto scritto non può sostenere la prova orale. CRITERI DI VERIFICA DI APPRENDIMENTO (frequentanti e non frequentanti): Durante la prova orale, gli studenti e le studentesse discuteranno il progetto scritto e risponderanno a domande sul programma d'esame. L'esame coprirà sia i temi trattati a lezione sia quelli lasciati allo studio individuale. Saranno oggetto di esame anche i testi di riferimento indicati nel presente syllabus. Le domande saranno di tipo teorico e/o argomentativo. Il voto terrà conto del progetto e dell'accuratezza e delle completezza delle risposte date alla prova orale, oltre che della correttezza terminologica e adeguatezza espositiva. La valutazione dell'esame viene espressa attraverso un voto in trentesimi. TESTI ADOTTATI Daniel Jurafsky E James H. Martin (2025, online in open-access). Speech and Language Processing. (capitoli 9 Transformers, 10 Large Language Models, 15 Chatbots and Dialogue Systems, 16 Automatic Speech Recognition and Text-to-Speech). Link per scaricare il libro gratuitamente: https://web.stanford.edu/~jurafsky/slp3/ Fabio Tamburini (2022). Neural Models for the Automatic Processing of Italian. Bologna: Pàtron Editore. [tutto] I due manuali indicati sotto la voce "Testi adottati", le slides ed eventuale altro materiale fornito dalla docente durante il corso.
  • Ricevimento: Su appuntamento inviando una mail all'indirizzo claudia.roberta.combei@uniroma2.it

Didattica:

  • A.A.: 2025/2026
  • Canale: UNICO
  • Crediti: 6