Questa mattina, nella suggestiva cornice dell’Antica Biblioteca dell’Università degli Studi Link di Roma, è stato presentato il progetto Lenovo dedicato all’evoluzione dell’intelligenza artificiale tra impresa e vita quotidiana,
nel corso della Lectio Magistralis di Che Min (Jammi) Tu, Senior Vice President e Group Operations Officer di Lenovo, dal titolo “Enterprise AI & Personal AI: From Strategy to Everyday Impact”.
Ad aprire i lavori è stato l’intervento introduttivo del Paolo Poletti, docente di Diritto e pratica della Cybersicurezza nel corso di laurea magistrale in Scienze strategiche e della sicurezza (LM62) presso l’Ateneo romano e membro di HAL – Human AI Laboratory,
il centro interdisciplinare dell’Università Link impegnato nello studio di un’intelligenza artificiale responsabile, regolata e realmente orientata al miglioramento della condizione umana.
Nel suo intervento, Poletti ha tracciato una cornice concettuale chiara e attuale, sottolineando come l’AI stia rapidamente evolvendo da semplice strumento esecutivo a vero e proprio “agente di completamento”: un co-pilota cognitivo capace di anticipare bisogni, integrare informazioni e supportare i processi decisionali.
Un cambiamento che rende l’intelligenza artificiale sempre più “personale”, perché entra direttamente nei meccanismi del pensiero umano, pur non essendo mai neutrale.
Ampio spazio è stato dedicato al tema della privacy, che secondo Poletti non può più essere considerata solo un vincolo esterno o un controllo di confine.
In un contesto in cui siamo noi stessi a fornire volontariamente dati alle AI, la sfida si sposta sulle garanzie d’uso, sulla prevenzione di re-identificazioni e inferenze indebite e sull’integrazione della tutela dei diritti direttamente nella progettazione dei sistemi.
Rilevante anche il passaggio sul mondo del lavoro, dove l’AI non elimina i posti ma trasforma profondamente i compiti.
Le attività ripetitive vengono assorbite dai sistemi intelligenti, mentre cresce il valore delle funzioni di supervisione, controllo e responsabilità decisionale, rendendo centrali le competenze critiche e la comprensione dei limiti dei modelli.
Non è mancato infine un focus sulla sicurezza dei sistemi di intelligenza artificiale, ancora oggi uno degli aspetti più delicati:
dal data poisoning alle tecniche di evasione dei modelli, fino ai rischi legati alla deduzione dell’uso di dati sensibili nei processi di addestramento. Vulnerabilità che incidono direttamente su affidabilità, responsabilità legale e fiducia degli utenti.
A chiudere l’intervento, un richiamo di forte spessore culturale e civile: l’AI può moltiplicare i mezzi e accelerare i processi, ma non deve mai sostituire il pensiero umano.
«Gli strumenti possono essere delegati, i fini no», ha ricordato Poletti citando Paul Ricoeur, lasciando quindi la parola a Che Min Tu per l’avvio della Lectio Magistralis e del confronto sul futuro dell’intelligenza artificiale tra strategia aziendale e impatto concreto nella vita di tutti i giorni.
TalkCity.it Redazione