In un panel organizzato all’interno di IGE Roma 2026, in collaborazione con WH Partners Italy, alcuni esperti si confrontano sulle nuove possibilità (concrete) offerte dalla tecnologia per un gioco realmente sostenibile.
Un tema che è molto caldo e attuale che coniuga l’intelligenza artificiale con il Responsible Gambling, affrontato in un panel con dei qualificatissimi esperti in materia, insieme a Ivan Filletti, CEO di GamingMalta. A esplorarlo è stata l’ultima edizione di IGE Roma 2026, in un panel organizzato in collaborazione con WH Partners Italy che ha coinvolto vari speaker di spicco come:
Niccolò Caramatti, amministratore delegato e fondatore di Giochiamo.ai, una software house italiana che ha sviluppato un algoritmo di intelligenza artificiale predittiva sul comportamento umano e in particolare un software che è predittivo sul Responsible Gaming, quindi sulle dipendenze al gioco. Lucio Lamberti, Politecnico di Milano School of Management, che è professore di marketing che si occupa del rapporto tra individuo e tecnologia e dello studio del comportamento dell’individuo attraverso le neuroscienze. Francesco Rodano, capo del gioco responsabile per Playtech, uno dei principali fornitori di giochi in questo settore, che si occupa di soluzioni e servizi per il gioco responsabile e anche Playtech usa AI per intercettare i giocatori potenzialmente a rischio di gioco problematico.
Nel panel, moderato da Quirino Mancini, Partner e Director di WH Italy, si parte dal chiedersi da dove inizia la linea e come si potrebbe prevenire un uso improprio o anormale di un tool così potente come l’AI. Secondo Lamberti “in generale, non si può aspettare di lasciare una regola per disegnare una linea. Le regole, ovviamente, disegnano una linea, ma le persone non migliorano a causa delle regole. Complicano le regole. È una questione di pensiero, è una questione di cultura. L’idea di migliorare l’offerta per i giocatori è una tendenza naturale in ogni azienda che è in un mercato competitivo. E anche l’industria del gioco è un mercato competitivo. Certo, c’è una linea tra l’uso eccessivo di gioco e l’uso giusto di gioco. Si deve capire quando queste cose diventano patologiche. Il punto è che, sotto un certo punto di vista, non metterò la linea in questo tipo di cose. Metterò la linea nell’uso dell’AI in modo da aumentare l’attenzione. Sono molto sicuro del fatto che, più tardi, ci saranno leggi e le regole che sceglieranno la linea e ci comprenderemo. L’issue è che, quando gli individui sono esposti a questa tecnologia, hanno tutti gli strumenti cognitivi per gestire questo tipo di stimolo. Questo è utopico, probabilmente, lo so. Ma se dovessi sapere dove vedo il più grande sviluppo per la società in questo tipo di campo, lavorerei sulla sensibilizzazione, sull’attenzione, per rendere più consapevoli che queste tecnologie esistono e che possono essere difficili se usate in maniera male. Ovviamente, ci sono tutte le tecnologie per contrastare i giocatori problematici, le frodi e così via, ma questo è un po’ più ovvio come applicazione”.
Secondo Caramatti, invece, “l’AI è come una macchina a fuoco: la macchina a fuoco può essere usata da un criminale, certo, ma è anche stata usata dalla polizia, ovviamente, per stoppare un crimine. Nella nostra ricerca è venuto fuori, e questo è molto interessante, che se preveniamo un giocatore da entrare, diciamo, in una zona rossa, dove perde il controllo dei suoi abiti di giocatore e diventa addiction, se si anticipa questo, se si controlla questo verso le attività diverse che un giocatore può fare, si riuscirà a mantenere il giocatore nel loro paese e si proteggerà il giocatore, perché non diventerà addizionato e il giocatore rimarrà una fonte di incontro per voi. Quindi, un uso corretto dell’AI, in senso di previdenza, anticipando il comportamento, permette al provider di essere, in un senso, estremamente diretto, di fare di più con il giocatore senza compromettere la salute del giocatore. Questo viene dal dato. Il fatto che si adatti in modo timido è probabilmente l’azione più sensibile che si può fare con l’AI ed è un’azione molto potente in questo senso, che sovrapponga le due necessità, la necessità del providero giocatore, ovviamente, di guardare gli abiti e il beneficio del giocatore di essere in un ambiente sicuro”.
Passando a Molta, che quando si parla di tecnologia moderna è sempre al fronte, in termini di anticipare o guidarla, o entrambi, cosa potete dire su come le autorità molteste hanno trattato l’AI associata al giocatore responsabile? Avete una differenza di percezione rispetto a ciò che avete sentito? Prima di tutto è molto interessante ascoltare sia da esperti di marketing, da operatori industriali, su come usano l’AI nel gioco responsabile. A spiegarlo è Ivan Filletti: “è importante che l’industria usi questi strumenti perché l’industria deve gestire la sua reputazione. Quindi, il più possibile usare gli strumenti dell’AI, e anche noi, attraverso l’MGA, l’autorità di Molta, il governo di Malta, li stiamo incoraggiando. Perché? Perché vogliamo assicurare l’industria, vogliamo presentare l’industria in buona luce, e vogliamo assicurare che ci siano gli stessi ambienti e le stesse infrastructure per cui l’AI e l’MGA devono essere parte di questo. È molto importante perché dobbiamo uscire da lì e dobbiamo raccontare anche alle giurisdizioni europee e alle giurisdizioni del governo di cosa si tratta l’industria. Siamo nell’industria dell’entertainment, è quello che facciamo, e vogliamo usare le tecnologie giuste e l’AI per assicurare l’entertainment e per assicurare che sia solo l’entertainment e non qualcos’altro. L’industria merita rispetto in questo senso, per questo motivo anche noi come governo di Molta abbiamo una campagna chiamata rispetto, perché l’industria riguarda il gioco responsabile, riguarda l’entertainment, riguarda la velocità, riguarda la consistenza, riguarda la diligenza, riguarda la concentrazione del cliente e riguarda l’intelligenza. Oggi, ovviamente, con l’uso dell’AI, ma questo è tutto. E per tornare alla vostra domanda, sì, lo stiamo incoraggiando, lo stiamo guardando in diversi modi, ma questo è parte e parte della storia che vogliamo abbracciare per l’industria”.
L’AI, in questo caso, non è l’AI generativa, è l’AI che esiste dal 1960, è l’abilità, la tecnologia, per estrarre informazioni da dati, da dati giocatori, e predicare ciò che i giocatori potrebbero fare nel futuro. E può essere usato in entrambi i modi. C’è qualcosa di molto comune nel gambling, si chiama predizione.
Usando l’AI, puoi predicare se il giocatore vedrà il vostro sito dopo un certo numero di giorni. Puoi usare questa informazione per mandare alcuni bonus al momento giusto per minimizzare la possibilità che il giocatore vedrà il sito. E la stessa tecnologia può essere usata in un altro modo, per predicare che il giocatore potrebbe soffrire di malattie nel futuro e intervenire con il messaggio giusto, il giusto bonus, in un senso, per provare a prevenire questo.
Passando a Francesco Rodano, nella sua posizione privilegiata di ex regolatore e ora dall’altra parte del tavolo, può guardare le cose da prospettive diverse capendo che è quasi impossibile tracciare una linea di demarcazione, perché si tratta di operatori che si impegnano a seguire un manuale che non esiste, a rispettare determinate regole di condotta che non esistono. Ma siccome un ente regolatore non può dire al settore come utilizzare l’IA per affrontare il gioco responsabile, non è forse possibile che il settore, per una volta, si accordi su alcune regole generali di condotta che tutti si impegnino a rispettare? Stiamo parlando di autoregolamentazione, ovvero di un accordo tra le aziende del settore su alcune pratiche comuni per evitare un intervento coercitivo da parte delle autorità di controllo.
“Finora non ha mai funzionato”, spiega Rodano. “Puoi citare un singolo esempio in cui l’autoregolamentazione abbia impedito restrizioni normative? Ricordo molto bene il periodo precedente al Decreto Dignità e al divieto di pubblicità, quando tutti i principali operatori italiani si riunirono attorno a un tavolo e dissero: ‘Va bene, mettiamoci d’accordo su alcuni principi comuni di pubblicità responsabile’. Discussero per mesi. Ci fu una prima bozza, lunga diverse pagine, molto dettagliata e ben fatta. Poi iniziarono a litigare, il che è comprensibile visto che si tratta di un mercato molto competitivo. In breve, la versione finale di quel documento si riduceva a due righe: “La pubblicità del gioco d’azzardo deve essere responsabile”. Punto. Qualcosa del genere. E poi il vuoto è stato colmato dal governo, che è intervenuto con un divieto. Lo stesso vale per il gioco responsabile. Ci sono ancora molti operatori che considerano il gioco responsabile un obbligo di conformità, non un principio sostenibile o qualcosa che garantirebbe la sostenibilità a lungo termine del settore. Io mi occupo di gioco responsabile perché devo. Sono un fornitore come Nicolo e parliamo con molti operatori. Quando proponiamo i nostri strumenti, ci chiedono: ‘L’autorità di regolamentazione me lo impone? Se no, non mi interessa’. Eppure, questo tipo di strumento, proteggendo i giocatori, li incoraggerebbe a rimanere più a lungo, evitando di subire danni, cosa che a mio avviso è sbagliata e non etica, e garantendo una maggiore fedeltà nel lungo periodo. Mi chiedo: perché l’autorità di regolamentazione non impone ai propri licenziatari di adottare questi strumenti e di utilizzarli in un certo modo? Cosa glielo impedisce? Perché non c’è molta conoscenza o esperienza pregressa in merito a questi strumenti. Da ex-regolatore, so quanto sia difficile imporre qualcosa o creare regole su un argomento per il quale non si ha esperienza o se l’esperienza è insufficiente. Questo è un altro problema del settore: la condivisione è molto scarsa. Ci sono operatori, anche in Italia, che hanno metodologie molto avanzate per proteggere i giocatori, ma non sono conosciute dagli altri. Ecco perché sono anche membro della Fondazione FAIR in Italia, una fondazione per il gioco responsabile, il cui principio è proprio quello di condurre ricerche per raccogliere le migliori pratiche e condividerle. Questo, in definitiva, fornirebbe informazioni utili alle decisioni normative. Altrimenti, come ente regolatore, si rischia di emanare norme inefficaci.
Si tratta semplicemente di tentativi ed errori. Sapete, è qui che vorrei coinvolgere anche Lucio e Nicolò nella discussione, perché in un certo senso ciò che manca sono le informazioni di base, fondamentali per consentire agli enti regolatori di agire. Mi chiedo perché sia così difficile per un’autorità, che sia l’ADM, la MGA o qualsiasi altra, incaricare l’università in cui lavorate di fornire dati di grandi dimensioni relativi al periodo precedente e successivo all’introduzione di strumenti basati sull’intelligenza artificiale da parte degli operatori, e come queste informazioni potrebbero diventare uno strumento essenziale per gli enti regolatori, permettendo loro di comunicare al settore i limiti che intendono rispettare. Cosa lo impedisce? Nulla lo impedisce, e abbiamo progetti ben definiti per sviluppare questo tipo di soluzioni. Il punto è che dobbiamo comprendere la complessità del problema. Il gioco d’azzardo problematico non è una variabile booleana. Una variabile booleana rappresenta zero o uno. Il punto è che quando ci occupiamo di analisi di big data, dobbiamo definire cosa sia il gioco d’azzardo problematico e dire che se qualcuno mostra questo tipo di comportamento, ci sono delle certezze che si tratti di un comportamento problematico e che questo sia già un grosso problema, perché esistono questionari e metodi che possono essere utilizzati, ma c’è anche una sorta di soggettività.
(Il panel completo è disponibile in video.)







