Intelligenza artificiale: ne parliamo tantissimo, ne parliamo tutti. Di fatto, l’IA è l’argomento del momento, con particolare riferimento all’intelligenza artificiale generativa, quella che oggi cattura più attenzione e più interesse. Ce ne parla Chiara Grande di , amici e nostri partner storici.
Detta anche “GenAI”, l’Intelligenza Artificiale Generativa è progettata per elaborare i dati che le vengono forniti e sui quali viene addestrata dando poi vita a qualcosa di nuovo. L’IA generativa “genera”, appunto, contenuti complessi e particolarmente realistici che imitano quanto contenuto nella propria base di conoscenza, promettendo di fare cose nelle quali non avremmo pensato di poter essere rimpiazzati.Se l’intelligenza artificiale include un’ampia gamma di applicazioni, l’IA generativa e i modelli di linguaggio (LLM) sono una sua sottocategoria che, per comprendere e generare testi o immagini in modo creativo e allo stesso tempo anche coerente, si nutre di tecniche di:
Se volessimo individuare un momento particolare in cui abbiamo iniziato a parlare così tanto di intelligenza artificiale, non potremmo non pensare al lancio e all’esplosione senza pari di ChatGPT. ChatGPT è una chatbot, un sistema di intelligenza artificiale conversazionale sviluppato da OpenAI e che utilizza l’apprendimento supervisionato su un ampio corpus di testo per generare contenuti lineari.
I cosiddetti LLM (Large Language Model) funzionano perché dietro ci sono grandi quantità di dati per l’addestramento, algoritmi di addestramento e inferenza ma anche potenza di calcolo elevata e in grado di processare i task paralleli massivi tipici dell’intelligenza artificiale (GPU). Le GPU o Graphic Processing Units sono oggi infatti indispensabili, in quanto consentono di processare task a grandissima velocità, contemporaneamente. Laddove siano in cloud, inoltre, le schede grafiche consentono di mettere a disposizione tali risorse in modo flessibile ed estremamente scalabile (GPU as a service).
Il fatto che l’intelligenza artificiale e in particolar modo quella generativa o GenAI abbiano bisogno di enormi quantità di informazioni, da addestrare e poi “modellare”, perfezionare, evidenza come in questo contesto il dato sia al centro: l’intelligenza artificiale dipende dai dati. Di qui, è fondamentale porsi l’interrogativo su come avvengano la raccolta e l’utilizzo degli stessi: se, dietro, ci siano trasparenza e rispetto per la privacy. È noto come, proprio per il timore di scavalcare certi confini, alcune testate giornalistiche abbiano limitato l’accesso ai loro contenuti da parte delle piattaforme di intelligenza artificiale: la possibilità di perdere il controllo è dietro l’angolo.
Accedere a dati di qualità e gestirli in modo compliant: questa la sfida per le aziende che vogliono creare modelli efficienti e utili al proprio business o al miglioramento dei propri processi. I dati digitali giocano un ruolo cruciale nello sviluppo dell’intelligenza artificiale: di qui, assicurare la pluralità e la tracciabilità delle fonti che addestrano gli algoritmi, riducendo il rischio di disperdere i dati, di cederli a terzi, di perderne il controllo, garantisce alle aziende la tutela della propria identità senza disperdere il proprio patrimonio di conoscenza. Nonché la valorizzazione delle competenze interne. Private AI significa la possibilità di fruire dei vantaggi della tecnologia preservando la pluralità e la tracciabilità delle fonti che addestrano gli algoritmi, riducendo i rischi di disinformazione e condizionamento. Se la public AI è utilizzata da tutti, apparentemente più “democratica” diventa invece un asset per il fornitore, contribuendo a migliorare e a espandere il modello stesso.
Se i benefici dell’intelligenza artificiale, soprattutto quando si tratta di task ripetitivi e di processi da ottimizzare, sono assolutamente evidenti, per le aziende e le organizzazioni che hanno a cuore la data governance è però anche necessario rivolgere la propria attenzione ai rischi di esporre il proprio patrimonio intellettuale a un utilizzo da parte di terzi a fini di business. Per arginare il problema, le aziende possono costruirsi in autonomia propri modelli di intelligenza artificiale e hostarli su infrastrutture private, usando, per l’addestramento - fase essenziale per l’intelligenza artificiale - solo ed esclusivamente dataset proprietari. Tale approccio è un approccio di private AI: una scelta che consente di non mettere dati sensibili o critici dentro sistemi di public AI quali per esempio ChatGPT. I workload di private AI possono essere ottimamente eseguiti anche su servizi cloud GPU forniti da cloud provider in modalità gestita, consentendo agli sviluppatori di accelerare i task del machine learning e di ridurre i costi e le incombenze di manutenzione, aggiornamento, gestione.
Se l’LLM e l’infrastruttura che lo crea (training), lo migliora (fine tuning) e lo usa (inferenza) rappresenta il cuore di un sistema di AI generativa, il livello applicativo è l’ambito che viene percepito dall’utente e che veicola il valore. Si stanno diffondendo moltissimi gli “agenti” che sono dei software che si frappongono tra l’utente e l’LLM esaltandone per potenzialità e arricchendoli di funzionalità. In Italia esistono progetti interessantissimi in tale ambito. Fra tutti spicca Stregatto, progetto di Piero Savastano basato su Python, che permette di creare un proprio assistente AI modulare ed estendibile con delle potenzialità notevoli ed inaspettate.
Chiara Grande, Seeweb partner di Internet Society Italia
18 novembre 2024