research: Seminar
Intervengono:
Ruggero EUGENI (Università Cattolica del Sacro Cuore)
Superman a Delft. Il concetto di stile delle intelligenze generative visuali
Alfio FERRARA (Università degli Studi di Milano)
Rendere visibile l’invisibile
Vivien GARCÍA (Université de Lorraine)
Fare storie con l’Intelligenza Artificiale
Carlo MILANI (ERTIM-INALCO)
IA per metafore
Teresa NUMERICO (Università di Roma Tre)
Automazione, interpretazione, predizione nell’intelligenza artificiale
Superman a Delft. Il concetto di stile delle intelligenze generative visuali
L’intervento parte da un piccolo esperimento per interrogarsi su quale concezione di stile guidi l’operato di alcune intelligenze artificiali generative visuali. L’idea di fondo è che il funzionamento di tali strumenti (soprattutto dopo l’avvento delle architetture Transformer) si basi su uno strumento messo a punto dalla semiotica interpretativa, dalla microsociologia e dal cognitivismo classico fin dagli anni Settanta: il concetto di frame.
Biografia
Ruggero Eugeni è professore ordinario di Semiotica dei media presso l’Università Cattolica del Sacro Cuore di Milano e Brescia e dirige presso lo stesso Ateneo il Dipartimento di scienze della comunicazione e dello spettacolo. Il suo sito Media | Experience | Semiotics (con un panorama completo e aggiornato delle sue attività e vari papers disponibili per il download) è http://ruggeroeugeni.com.
Rendere visibile l’invisibile
L’intelligenza artificiale generativa può alterare in modo radicalmente nuovo il processo creativo, mettendone in discussione i tratti fondamentali. Ci concentreremo quindi su ciò che la ricerca nell’ambito dell’explainability di modelli generativi può suggerirci per comprendere le dinamiche interne dei modelli, rivelando come le reti neurali trasformano input diversi in nuovi contenuti e come il bias checking possa diventare strumento per indagare le influenze implicite e i pattern emergenti nei processi di generazione, rendendo esplicite le connessioni tra creatività artificiale e input umano.
Biografia
Alfio Ferrara è professore ordinario di Informatica presso l’Università degli Studi di Milano, dove insegna Natural Language Processing, Reinforcement Learning e Metodologie informatiche nelle discipline umanistiche. Laureato in Filosofia, è da sempre interessato e impegnato in progetti di digital humanities e ha pubblicato ricerche recenti sulla rilevazione di cambiamenti semantici nei discorsi parlamentari italiani e su metodi di estrazione di valori umani tramite tecniche di Intelligenza Artificiale. È fra i promotori del nuovo centro di ricerca su Digital Humanities and Applied AI che nasce con l’obiettivo di ridurre le distanze fra scienze dell’uomo e tecnologie dell’informazione.
Fare storie con l’Intelligenza Artificiale
Una delle caratteristiche dell’attuale “boom” dell’IA è senza dubbio la quantità industriale di discorsi che si generano attorno di essa. In mezzo a tutto questo rumore, le prospettive storiche rimangono rare o meno visibili, tranne quando riprendono la grande narrazione lineare in cui, sullo sfondo del “progresso tecnologico”, la storia dell’intelligenza artificiale si confonde con la storia tout court, di cui l’IA sarebbe diventata la ragione.
Questo contributo sostiene la pertinenza di un approccio storico all’IA nel contesto della massiccia alienazione tecnica che caratterizza la nostra epoca. Intende anche mostrare l’interesse che la filosofia può avere nell’afferrare questa materia estranea.
Biografia
Vivien García insegna filosofia presso la Facoltà di Medicina dell'Université de Lorraine. Le sue ricerche attuali si situano all'incrocio tra filosofia morale, filosofia politica e filosofia della tecnica. Ha recentemente pubblicato un libro sull'intelligenza artificiale: Que faire de l'intelligence artificielle ? Petite histoire critique de la raison artificielle (Rivages, 2024).
IA per metafore
L’espressione “IA” implica una serie di metafore, similitudini e comparazioni. Per spiegare di cosa si tratta si ricorre a tutto un armamentario retorico, un intero vocabolario strutturato in maniera da colpire l’immaginazione individuale e strutturare l’immaginario collettivo. Per cominciare a sbrogliare la matassa delle Übertragungen, trasposizioni arbitrarie di significati, applichiamo il metodo della “pedagogia hacker”. Seguiremo i fili delle nostre connessioni con alcune di queste invenzioni linguistiche. Lungi dall’essere mere descrizioni, veicolano invece precise visioni del mondo, attingendo a piene mani dai miti che da sempre popolano l’avventura delle tecnologie. Golem, elettrodomestici, robot industriali vengono convocati insieme per gettare una luce diversa sul bizzarro mosaico dell’IA contemporanea.
Biografia
Carlo Milani (PhD) è saggista, traduttore e ricercatore associato presso ERTIM-INALCO di Parigi. Collabora con eudema.net e circex.org. Tra le sue ultime pubblicazioni: Pedagogia hacker (con D. Fant), Elèuthera, Milano, 2024; Tecnologie conviviali, Elèuthera, Milano, 2022; Formare a distanza?, a cura di C.I.R.C.E., https://fad.circex.org con l’eteronimo collettivo Ippolita, 2020; Ippolita, Tecnologie del dominio, Meltemi, Milano, 2017; Ippolita, Anime Elettriche, Jaca Book, Milano, 2016.
Automazione, interpretazione, predizione nell’intelligenza artificiale
Da quando il termine Intelligenza Artificiale (IA) è stato inventato siamo come sulle montagne russe rispetto alle possibilità e ai fallimenti di questi potenti sistemi di automazione delle attività considerate intelligenti se svolte da esseri umani.
I nuovi sviluppi di questo ciclo di hype sull’IA risalgono al 2012[1] quando fu possibile ottenere un risultato clamoroso nel processo di riconoscimento delle immagini in una gara annuale su ImageNet, una banca dati costruita da un gruppo di ricercatori della Stanford University, guidati da Li Fei-Fei.
Questi metodi basati sul machine learning e sul deep learning sono avidi di dati e promettono di saper discernere dei pattern, o schemi di comportamento che possano essere proiettati dal passato verso il futuro.
Il presupposto del successo di questi metodi consiste nella capacità di interpretazione automatizzata dei dati da proiettare sul futuro con l’ipotesi implicita che il futuro sarà assimilabile al passato[2].
Ma non abbiamo nessuna assicurazione che le cose stiano davvero così, soprattutto nei casi in cui le situazioni dipendono da elementi contingenti come quelli relativi alle relazioni sociali.
La predizione riguarda diversi settori dal riconoscimento di immagini, al supporto alla presa di decisione in situazioni complesse, fino all’attività generativa dell’IA capace di produrre contenuti sintetici a partire da un prompt di richiesta.
Ci sono molti fattori che influenzano il potenziale epistemico di funzionamento di queste previsioni che dipendono dalla qualità dei dati, dalla costruzione delle funzioni obiettivo e dalla capacità di raffinare gli algoritmi per le necessità delle singole funzioni.
Quando parliamo di IA ce la rappresentiamo mentalmente come un sistema unico, mentre siamo di fronte a compiti differenti e processi complessi per realizzarli[3].
È urgente, quindi, discernere tra le diverse modalità di automazione per scoprire quali potrebbero funzionare in sostituzione completa dell’attività umana, quali potrebbero agire in sinergia con gli esseri umani e quali andrebbero evitati, non tanto per motivi etici, quanto per ragioni epistemiche. Sinteticamente potremmo descrivere questi ultimi casi, dicendo che affidarsi agli algoritmi di automazione non ne migliora la capacità di prevedere il futuro e si limita a prescrivere le decisioni senza giustificarne le ragioni.
Infine, sappiamo che qualsiasi esecuzione delle regole, modello di ogni processo di automazione, può avvenire solo a condizione di costruire delle cornici interpretative che hanno sempre un carattere sociale[4] e gli algoritmi dell’IA non costituiscono un’eccezione perché presuppongono una formulazione dei problemi da risolvere, puramente formale e quantitificabile[5]. Tale cornice, necessaria al loro funzionamento, ha una dimensione discrezionale proprio come qualsiasi altra interpretazione impone.
La differenza rispetto alla molteplicità di possibili comprensioni delle situazioni è che nel caso della soggettività umana l’aspetto ermeneutico e situato è evidente e dichiarato, mentre il sistema tecnico nasconde nelle sue molte stratificazioni la sua dimensione soggettiva, senza evitarla, anzi irrigidendone le asperità[6]. L’oscurità di questi elementi interpretativi rende tali sistemi tecnici pericolosi soprattutto quando sono utilizzati per assumere delle decisioni che riguardano la vita, i diritti e le prerogative delle persone.
[1] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet classification with deep convolutional neural networks”, in Advances in neural information processing systems 25 (2012).
[2] Gigerenzer G. (2022) How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms, Mit Press, Cambridge (Mass.), trad. it Perché l'intelligenza umana batte ancora gli algoritmi, Raffaello Cortina Editore, Milano, 2023.
[3] Narayanan A. & Kapoor S. (2024) AI snake oil, Princeton University Press, Princeton & Oxford.
[4] Daston L. (2022) Rules, Princeton University Press, Princeton & Oxford.
[5] Stone, D. (2020). Counting: How we use numbers to decide what matters. Liveright Publishing, London.
[6] Hildebrandt M., 2021, The issue of bias. The framing powers of machine learning, in Marcello Pelillo e Teresa Scantamburlo (a cura di), Machines We Trust Perspectives on Dependable AI, Mit Press, Cambridge, Mass.
Biografia
Teresa Numerico è professoressa associata di Logica e Filosofia della Scienza all’Università di Roma Tre. Si occupa di filosofia della tecnologia, politica dell’intelligenza artificiale, nuova epistemologia digitale delle scienze umane e sociali. Pubblica regolarmente su riviste internazionali. Tra i suoi libri: Alan Turing e l’intelligenza delle macchine (FrancoAngeli, 2005), Web Dragons (con M. Gori e I. Witten; Morgan Kaufmann, 2007), L’umanista digitale (con D. Fiormonte e F. Tomasi; Il Mulino, 2010; trad. ingl. aggiornata, The digital humanist, Punctum Books, 2016) e Big Data e Algoritmi (Carocci, 2021).
research: seminar
Intervengono:
Ruggero EUGENI (Università Cattolica del Sacro Cuore)
Superman a Delft. Il concetto di stile delle intelligenze generative visuali
Alfio FERRARA (Università degli Studi di Milano)
Rendere visibile l’invisibile
Vivien GARCÍA (Université de Lorraine)
Fare storie con l’Intelligenza Artificiale
Carlo MILANI (ERTIM-INALCO)
IA per metafore
Teresa NUMERICO (Università di Roma Tre)
Automazione, interpretazione, predizione nell’intelligenza artificiale
organized by