Briciole di pane

Notizia

Alla Federico II un nuovo algoritmo quantistico grazie al computer ‘Partenope’

studenti

Intervenire contemporaneamente sull’ottimizzazione delle singole operazioni logiche e della configurazione dei processori quantistici per migliorare l’implementazione degli algoritmi. Questo l’approccio che ha consentito al gruppo di ricerca del Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi di Napoli Federico II di ottenere performance senza precedenti nell’esecuzione di un Quantum Gaussian Sampling - QGS (Campionamento Quantistico Gaussiano), una tipologia di algoritmo quantistico utilizzato per simulare distribuzioni di probabilità con applicazioni potenziali in una vasta gamma di settori di frontiera, come il Quantum Machine Learning, la Crittografia e la Finanza Quantistiche. Maturato nell’ambito di una collaborazione tra Università Federico II, Intesa San Paolo e la startup G2Q, il risultato è stato reso possibile grazie all’utilizzo di ‘Partenope’, il computer quantistico superconduttivo a 25 qubit ospitato presso la Federico II e finanziato dall’ICSC – Centro Nazionale di Ricerca in High performance Computing, Big Data and Quantum Computing, piattaforma che mira a promuovere lo sviluppo di soluzioni hardware e software per il calcolo quantistico e la creazione di una filiera italiana dedicata a queste tecnologie.    

Insieme a consolidate e riconosciute competenze in elettronica quantistica superconduttiva, il Centro di Computazione Quantistica Superconduttiva della Federico II si avvale oggi di un sistema unico in Italia e competitivo a livello internazionale, di cui fanno parte, oltre a ‘Partenope’, vari criostati ed elettronica di misura per il controllo e la lettura di qubit. Un’infrastruttura interamente progettata sulla base di criteri di modularità e integrabilità, in grado di garantire, a differenza delle soluzioni cloud disponibili sul mercato, una risposta immediata alle esigenze di innovazione attraverso la possibilità di controllo e intervento su ogni componente del calcolatore sia a livello hardware che software.

“L’attuale scenario del calcolo quantistico”, spiega Francesco Tafuri, responsabile del Centro di Computazione Quantistica Superconduttiva della Federico II e ricercatore dello Spoke 10 ‘Quantum Computing’ del Centro Nazionale ICSC, “è contraddistinto da computer ancora soggetti a errori e limiti architetturali. Affidarsi quindi a sistemi chiusi, definiti ‘black box’, può essere estremamente limitante e penalizzante, poiché l’inaccessibilità all’hardware impedisce aggiornamenti flessibili e limita le performance algoritmiche, condizionate dalla configurazione dei processori. La filosofia progettuale adottata dal nostro gruppo per la realizzazione di ‘Partnenope’ fornisce al contrario la possibilità di avere controllo su ogni componente modulare del computer quantistico e quindi di esplorare insieme ad aziende e ricercatori soluzioni algoritmiche che permettono di sfruttare al meglio la macchina quantistica messa a disposizione.”

L’estrema flessibilità, accompagnata all’elevata affidabilità raggiunta da ‘Partenope’ grazie a processi di calibrazione del processore basati su standard internazionali e alla riduzione dei livelli di rumore ottenuta mediante la messa a punto di un complesso sistema di misura, ha perciò determinato la scelta del Centro di Computazione Quantistica Superconduttiva della Federico II come piattaforma per l’implementazione e ottimizzazione dell’algoritmo QGS sviluppato da Intesa Sanpaolo e G2Q. La collaborazione risultante è così riuscita a perfezionare l’implementazione dell’algoritmo da un punto di vista sia hardware che software, aprendo la strada ad esecuzioni più efficaci ed efficienti per questa tipologia di calcoli.

“Il progetto”, specifica Davide Corbelletto, team leader del Quantum Competence Center di Intesa Sanpaolo, “nasce da un’esigenza di Intesa Sanpaolo, che aveva già tentato di eseguire algoritmi analoghi al QGS su altre tipologie di elaboratori quantistici, scontrandosi tuttavia con alcuni vincoli a livello macchina, sulle quali non era fino a oggi stato possibile intervenire direttamente. Un problema che ha trovato soluzione proprio grazie alla profonda comprensione dei meccanismi di funzionamento del processore ‘Partenope’ e alle competenze di ottimizzazione algoritmica dei ricercatori della Federico II e di G2Q Computing, che hanno consentito non solo di generare le distribuzioni normali attese, ma soprattutto di controllarne i parametri caratteristici. Un risultato che assume una particolare rilevanza per la Finanza Quantistica, la quale si propone di affrontare più rapidamente e con maggiore accuratezza problemi potenzialmente molto complessi, quali il credit risk modeling o il derivative pricing, e che dimostra come la collaborazione tra settore pubblico e privato rappresenti un valore aggiunto per l’innovazione e lo sviluppo di soluzioni concrete in ambito quantistico in grado di tradursi in un vantaggio competitivo per gli attori del Sistema Paese.

Con questo ultimo risultato, il Centro di Computazione Quantistica Superconduttiva dell’Università degli Studi dell’Università Federico II di Napoli si conferma quindi come hub strategico dell’ecosistema quantistico italiano e come esempio di successo del modello d’innovazione perseguito e promosso dal Centro Nazionale ICSC nell’ambito del PNRR. Un modello d’innovazione che, grazie alla disponibilità di una risorsa come ‘Partenope’, poggia sulla collaborazione pubblico-privato e sulla formazione di figure professionali specializzate in grado di contribuire allo sviluppo del calcolo quantistico e alla crescita di una filiera nazionale dedicata a questa tecnologia di frontiera.

I GRUPPI DI RICERCA

Il gruppo Quantum Computing Napoli (QCN) della Federico II è un riconosciuto hub internazionale nello studio dei processi fondamentali di trasporto in sistemi superconduttivi, come l’effetto Josephson, il cuore dei qubit realizzati con questo paradigma ingegneristico. Dal 2019, a seguito delle prime misure di qubit superconduttivi in Italia, il gruppo ha raggiunto risultati notevoli nell’ambito della caratterizzazione di dispositivi superconduttivi quantistici e della creazione di nuove componenti hardware, entrando a pieno titolo nel network europeo di computazione quantistica. Il gruppo di lavoro conta fino a 20 membri coinvolti nelle varie attività di ricerca. Lavorano agli esperimenti su caratterizzazione e implementazione di algoritmi quantistici: i dottorandi Carlo Cosenza, Alessandro Sarno, Viviana Stasino, e personale di staff Halima Giovanna Ahmad, Davide Massarotti e Francesco Tafuri.

G2Q Computing è una startup deep-tech italiana specializzata nello sviluppo di algoritmi innovativi che permettono di sfruttare computer quantistici NISQ per problemi di Ottimizzazione e di Machine Learning. L’azienda progetta anche architetture in grado di parallelizzare il calcolo tra macchine classiche e quantistiche, integrando tecniche di riduzione del rumore.

Coordinato da Davide Corbelletto, il Quantum Competence Center dell’Area di Governo Chief Data, AI and Technology del Gruppo Intesa Sanpaolo è impegnato sin dal 2020 nella ricerca industriale relativa alle possibili applicazioni delle tecnologie quantistiche ai servizi finanziari. In particolare, uno dei principali scopi del centro di competenza è quello di valutare ed esplorare il potenziale vantaggio che il quantum computing promette di offrire tanto in termini di velocità di risoluzione dei problemi, quanto di accuratezza delle soluzioni trovate.

Nel progetto con la Federico II, G2Q Computing e Intesa Sanpaolo hanno contribuito alla progettazione dell’algoritmo QGS, dedicando particolare attenzione alla sua robustezza e affidabilità su hardware reale. Il gruppo di lavoro è composto da 10 membri e a questa attività hanno partecipato Clément Besoin, Mehdi El Bakraoui, Leonardo Chhabra, Valeria Zaffaroni, Francesca Cibrario e Giacomo Ranieri.


A cura di Redazione c/o COINOR: redazionenews@unina.it  |  redazionesocial@unina.it