l'editoriale

Gianluca De Santis

di Lorenzo Ruggiero

Digital promoter, Punto Imprese Digitale

L’Intelligenza Artificiale deve restare umana.

L’innovazione non si ferma mai, nemmeno di fronte agli imprevisti, per questo, nonostante la sua assenza a Visionaria 2025 per problemi di salute, abbiamo il piacere di intervistare Nicola Grandis, CEO e fondatore di ASC27, una delle startup italiane più premiate e...

L’Intelligenza Artificiale deve restare umana.

L’innovazione non si ferma mai, nemmeno di fronte agli imprevisti, per questo, nonostante la sua assenza a Visionaria 2025 per problemi di salute, abbiamo il piacere di intervistare Nicola Grandis, CEO e fondatore di ASC27, una delle startup italiane più premiate e riconosciute nel campo dell’intelligenza artificiale e della cybersecurity.

Esploreremo il suo cammino imprenditoriale, le soluzioni AI in fase di sviluppo e le prospettive sul domani dell’intelligenza artificiale, sempre con al centro il fattore umano.

Guardando indietro ai suoi anni all’Università di Bologna, qual è stata la “lezione” — tecnica o umana — che oggi, nel complesso panorama dell’AI moderna, funge ancora da bussola per le decisioni di ASC27?
Guardando indietro agli anni trascorsi all’Università di Bologna, la lezione più preziosa non è stata una riga di codice, ma la comprensione della complessità sistemica. L’Ateneo mi ha trasmesso un approccio umanistico all’ingegneria: l’idea che ogni innovazione debba inserirsi in un tessuto sociale e storico preesistente. Oggi, in un panorama AI dominato dal “move fast and break things”, questa eredità funge da bussola etica e tecnica per ASC27. Ci impone di non guardare all’intelligenza artificiale come a un oggetto isolato, ma come a un organismo cibernetico che deve coesistere con l’uomo. La nostra decisione di non inseguire l’hype del momento, ma di costruire soluzioni solide e verificabili, nasce proprio da quel rigore accademico che trasforma l’entusiasmo in metodo scientifico.

Lanciare una startup come ASC27 in pieno lockdown è stato un atto di grande audacia. Quanto di quel clima di incertezza e di urgenza tecnologica è rimasto nel DNA della sua azienda oggi che siete una realtà premiata a livello internazionale?
Non è stato solo un atto di audacia, è stato un esperimento di resilienza estrema. Mentre il mondo si fermava, noi acceleravamo, paradossalmente favoriti dal silenzio circostante che ci ha permesso di focalizzarci in modo quasi ossessivo sul prodotto. Di quel clima è rimasto nel nostro DNA il senso di urgenza tecnologica: la consapevolezza che la tecnologia non è un lusso, ma l’unico ponte possibile sopra l’abisso dell’incertezza. Quell’esperienza ci ha insegnato a costruire strutture aziendali “liquide” ma iper-efficienti, dove la fiducia sostituisce il controllo e il valore generato sostituisce il tempo speso. Siamo una realtà internazionale, ma manteniamo lo spirito di chi ha dovuto dimostrare il proprio valore quando fuori non c’era nessuno a guardare.

Lei sostiene spesso che il “fattore umano” sia il vero centro della tecnologia. In un mercato ossessionato dalla pura potenza di calcolo, in che modo tradurre l’empatia e l’intuizione umana in codice vi ha permesso di differenziarvi dai grandi competitor globali?
In un mercato drogato dalla pura potenza di calcolo e dai miliardi di parametri dei Large Language Models, noi abbiamo scelto la strada dell’efficienza cognitiva. I nostri competitor globali costruiscono motori enormi che consumano quantità industriali di energia e dati; noi costruiamo cervelli capaci di intuizione. Tradurre l’empatia e l’intuizione in codice significa progettare architetture che non si limitano alla correlazione statistica, ma che modellano il contesto. L’empatia, tecnicamente, è la capacità di pesare le informazioni in base alla loro rilevanza emotiva e situazionale. Questo approccio ci permette di offrire soluzioni che “capiscono” l’utente, riducendo le allucinazioni dei modelli e aumentando la fiducia nell’interazione uomo-macchina. Non competiamo sulla forza bruta, ma sulla precisione chirurgica della comprensione umana.

ASC27 si concentra su “building blocks cognitivi” come Text, Video, Audio ed Empath AI. Può spiegarci, con un esempio concreto, come queste tecnologie vengono applicate per risolvere problemi reali in settori complessi come l’energia o la sanità?
In ASC27 non crediamo nell’AI a compartimenti stagni. Il cervello umano non separa ciò che vede da ciò che sente o legge; noi facciamo lo stesso con i nostri building blocks: Text, Video, Audio ed Empath AI. La vera potenza sta nell’orchestrazione multimodale. Nel settore Energia, l’Audio AI analizza il “rumore bianco” delle turbine per intercettare micro-variazioni di frequenza che precedono un guasto meccanico, mentre il modulo Text analizza i log di sistema per suggerire la manovra esatta di messa in sicurezza. Nella Sanità, la nostra Empath AI trasforma il dato freddo in cura: analizzando le esitazioni della voce e le micro-espressioni facciali durante un teleconsulto, il sistema può segnalare stati di stress acuto o patologie neurologiche che sfuggono all’occhio nudo. Diamo alla tecnologia la capacità di leggere tra le righe per risolvere problemi dove l’AI tradizionale va in confusione.

L’Europa spesso eccelle nella regolamentazione ma arranca nell’implementazione rispetto a USA e Cina. Quali sono i veri “colli di bottiglia” che impediscono all’Italia di scalare davvero? È una questione di mancanza di capitali, di visione politica o di una cronica allergia al rischio del nostro sistema industriale?
In Italia, il vero collo di bottiglia è un disallineamento culturale tra rischio e capitale. Abbiamo un sistema industriale solido ma con una cronica allergia alla frontiera: si preferisce investire in ciò che è incrementale piuttosto che in ciò che è radicale. Manca una visione di lungo respiro che non si limiti a incentivi a pioggia, ma che crei un ecosistema di player nazionali protetti nella competizione globale, quantomeno dal procurement pubblico, cosa che per altro stanno facendo tutti gli altri Paesi. Scalare non è solo una questione di fondi, ma di velocità burocratica. In un mercato dove sei mesi equivalgono a un’era geologica, la nostra lentezza amministrativa è una tassa invisibile che funesta l’innovazione prima ancora che arrivi sul mercato.

L’innovazione non può essere un monologo per pochi eletti. Cosa dovremmo fare, come cittadini, professionisti e istituzioni, per elevare la nostra “alfabetizzazione tecnologica” collettiva? Qual è la responsabilità di ognuno di noi nel costruire un futuro in cui l’IA sia un bene comune e non un acceleratore di disuguaglianze?
Dobbiamo passare dalla paura dell’algoritmo alla padronanza dello strumento. L’alfabetizzazione tecnologica non significa che tutti debbano saper programmare, ma che tutti debbano capire come un dato diventa una decisione. Ogni professionista ha la responsabilità etica di governare l’IA invece di subirla. Come ASC27, sentiamo il dovere di essere divulgatori: dobbiamo spiegare che l’IA non è una scatola nera magica, ma uno specchio della nostra società. Se non investiamo nella formazione critica, l’IA diventerà un acceleratore di disuguaglianze; se la democratizziamo, sarà la leva per una nuova rinascita intellettuale.

Cosa consiglierebbe a un giovane che vuole entrare nel campo dell’IA in Italia oggi? Oltre alla formazione tecnica, qual è la competenza trasversale che ritiene non negoziabile e che nessuna macchina sarà mai in grado di replicare?
A un giovane che vuole entrare in questo campo oggi direi: “Sii un ingegnere con l’anima di un filosofo”. La formazione tecnica è solo il biglietto d’ingresso. La competenza non negoziabile è la Curiosità Adattiva: la capacità di unire punti distanti e di mettere in discussione lo status quo per pura intuizione morale. Nessuna macchina potrà mai replicare il coraggio della responsabilità o la capacità di provare meraviglia. La tecnica si impara, l’algoritmo si ottimizza, ma la capacità di porsi la domanda “Perché stiamo facendo questo?” è ciò che ti renderà insostituibile. Non cercate di battere l’IA sul calcolo, battetela sul senso.

Guardando al prossimo decennio, la sfida non sarà più solo “cosa fa l’IA”, ma come essa convergerà con altre frontiere come il Calcolo Quantistico, le Interfacce Neurali o la Biologia Sintetica. Quale di queste alleanze tecnologiche la affascina di più e come cambierà la nostra sovranità cognitiva da qui al 2035?
Il prossimo decennio vedrà il crollo dei confini tra digitale e biologico. L’alleanza tra AI e Calcolo Quantistico è quella che mi affascina di più, perché ci darà la potenza per simulare la complessità della vita stessa, dalla biologia sintetica alla fusione nucleare. Tuttavia, la vera sfida sarà la nostra sovranità cognitiva. Entro il 2035, il rischio non è che l’IA diventi cattiva, ma che noi diventiamo mentalmente pigri delegando ogni scelta a un assistente digitale. Dobbiamo progettare tecnologie che siano potenziatori di pensiero, non sostituti della volontà. La nostra missione in ASC27 è far sì che l’uomo resti sempre al centro, armato di strumenti che espandono i suoi orizzonti senza mai annullare la sua libertà di scegliere.