Giovanni Pinna

Giovanni Pinna

Ricercatore AI & Ingegnere | Ph.D. in Data Science & AI Applicata
University of Trieste

Ciao!

Sono Giovanni Pinna, un Ricercatore e Ingegnere AI di Trieste, Italia. Ho conseguito il Dottorato di Ricerca in Data Science & Intelligenza Artificiale Applicata presso l'Università di Trieste (marzo 2026).

La mia ricerca si concentra sull'intersezione tra Natural Language Processing, Large Language Models e Computazione Evolutiva — in particolare sull'ottimizzazione del codice generato dai LLM attraverso tecniche di Genetic Improvement e sullo sviluppo di metriche di valutazione per sistemi Text-to-SQL.

Ho esperienza internazionale presso l'University College London (CREST Centre) e la NOVA IMS di Lisbona, e sono autore di 10+ pubblicazioni in sedi internazionali come Scientific Reports (Nature), IEEE Access e EuroGP.

Interessi

  • 💬 NLP & Large Language Models
  • 🗄️ Text-to-SQL
  • 🧬 Genetic Improvement
  • 🤖 AI Coding Agents
  • 🔍 RAG Systems

Formazione

Esperienza

🗞️ Novità

  • Apr 2026 Pubblicato due papers “Comparing ai coding agents: A task-stratified analysis of pull request acceptance” e “Analyzing Message-Code Inconsistency in AI Coding Agent-Authored Pull Requests” su MSR 2026.
  • Mar 2026 Completato il Dottorato di Ricerca in Applied Data Science & AI presso l'Università di Trieste!
  • Sep 2025 Iniziato il periodo di ricerca presso University College London (UCL), gruppo della Prof.ssa Federica Sarro.
  • 2025 Pubblicato “Redefining Text-to-SQL Metrics” su Scientific Reports (Nature) e 2 paper a SSBSE 2025 (GA4GC e HotCat).

🎓 Tesi di Dottorato

Thesis Cover
Thesis Spine
Ph.D. Thesis — University of Trieste, 2025
I Large Language Models promettono di trasformare il modo in cui scriviamo codice, interroghiamo dati e accediamo alla conoscenza — ma mantengono davvero la promessa? Questa tesi affronta la domanda su quattro fronti: come valutare gli LLM, come possono democratizzare la conoscenza, come renderli affidabili e come distribuirli in modo sostenibile. Uno studio con utenti reali su testi giuridici rivela che gli esperti battono ancora i modelli più avanzati proprio dove la posta in gioco è più alta. Per colmare il divario di affidabilità propongo un framework di Genetic Improvement che ripara sistematicamente il codice generato dagli LLM, e una nuova metrica continua per il Text-to-SQL che coglie distinzioni invisibili ai punteggi binari. Sul versante della sostenibilità, l'ottimizzazione multi-obiettivo scopre configurazioni di agenti di coding con un miglioramento dell'hypervolume superiore di oltre cento volte. Il risultato: una via verso un uso degli LLM non solo potente, ma affidabile e responsabile. Supervisori: Prof. Luca Manzoni, Prof. Andrea De Lorenzo.

📄 Pubblicazioni Selezionate

  • Redefining Text-to-SQL Metrics by Incorporating Semantic and Structural Similarity
    G. Pinna, Y. Perezhohin, L. Manzoni, M. Castelli, A. De Lorenzo
    Scientific Reports 15.1 (Nature), 2025
  • Comparing AI Coding Agents: A Task-Stratified Analysis of Pull Request Acceptance
    G. Pinna, J. Gong, D. Williams, F. Sarro
    arXiv:2602.08915, 2026
  • Analyzing Message-Code Inconsistency in AI Coding Agent-Authored Pull Requests
    J. Gong, G. Pinna, Y. Bian, J. M. Zhang
    arXiv:2601.04886, 2026
    🏆 Distinguished Mining Challenge Paper Award, MSR 2026
  • Enhancing Large Language Models-Based Code Generation by Leveraging Genetic Improvement
    G. Pinna, D. Ravalico, L. Rovito, L. Manzoni, A. De Lorenzo
    EuroGP 2024, Springer LNCS vol. 14631
  • An Artificial Intelligence System for Automatic Recognition of Punches in Fourteenth-Century Panel Painting
    M. Zullich, V. Macovaz, G. Pinna, F.A. Pellegrino
    IEEE Access, 2023

📝 Ultimi Articoli

April 14, 2026 · 5 min read
Solo l'1,7% delle pull request scritte da agenti AI ha descrizioni che non corrispondono al codice. Quelle PR vengono accettate il 51,7% in meno e impiegano 3,5× di tempo per il merge. La fiducia è il collo di bottiglia che nessuno sta misurando.

🚀 Progetti

🏷️ Argomenti

🛠️ Competenze

Linguaggi

  • Python
  • SQL
  • Java
  • C++

ML & NLP

  • PyTorch
  • HuggingFace
  • scikit-learn
  • spaCy / NLTK
  • BERTopic

LLM & Agents

  • LangChain
  • LlamaIndex
  • LangGraph
  • RAG Pipelines
  • Prompt Engineering

Strumenti

  • Git / GitHub
  • Docker
  • Linux
  • LaTeX
  • Streamlit / Gradio