Qualità di sistemi basati su Machine Learning

Referente: Prof. Oliveto Rocco

Gruppo di lavoro

  • Prof. Simone Scalabrino (Università degli Studi del Molise).

Descrizione

L’intelligenza artificiale e, in particolare, il machine learning è sempre più utilizzato in ambito industriale per risolvere diversi problemi per cui è molto difficile scrivere un programma. Esempi di applicazioni pratiche vanno dalla guida autonoma al riconoscimento di immagini. Tuttavia, garantire la qualità delle componenti basate su tali tecniche e, quindi, dei sistemi che le includono presenta delle sfide uniche rispetto ai sistemi software tradizionali. La correttezza di tali componenti, infatti, può variare in base ai dati utilizzati per il loro addestramento. I problemi che affliggono i modelli di machine learning sono diversi, e possono includere, ad esempio, violazioni della privacy rispetto ai dati usati per l’addestramento e discriminazioni nell’utilizzo. 

Questo tema di ricerca prevede la definizione e la validazione di tecniche che consentano di:

  1. verificare e migliorare la qualità dei dati e dei modelli alla base di tali sistemi;
  2. verificare e migliorare la qualità dell’integrazione tra modelli di machine learning e altre componenti del sistema; 
  3. verificare e migliorare la qualità delle pratiche usare per rendere disponibile il prodotto finale all’utente e monitorarne lo stato.

Pubblicazioni

1 Ciniselli, M., Pascarella, L., Aghajani, E., Scalabrino, S., Oliveto, R., & Bavota, G. (2023). Source Code Recommender Systems: The Practitioners’ Perspective. In Proceedings of the 45th International Conference on Software Engineering (To Appear).
2 Mastropaolo, A., Pascarella, L., Guglielmi, E., Ciniselli, M., Scalabrino, S., Oliveto, R., & Bavota, G. (2023). On the Robustness of Code Generation Techniques: An Empirical Study on GitHub Copilot. In Proceedings of the 45th International Conference on Software Engineering (To Appear).
3 Guglielmi, E., Rosa, G., Scalabrino, S., Bavota, G., & Oliveto, R. (2022, October). Sorry, I don’t Understand: Improving Voice User Interface Testing. In 37th IEEE/ACM International Conference on Automated Software Engineering (pp. 1-12).