14 January 2025
Intelligenza artificiale. Prospettive critiche
27 February 2025
2023/24 /ɪˈməːʃən/
111
Exploring Artistic, Cultural, and Historical Heritage through Computer Vision

Sinem Aslan

24 February 2025
2023/24 /ɪˈməːʃən/
111
Transustanziazione e aniconismo

Massimo Leone

12 February 2025
2023/24 /ɪˈməːʃən/
111
Coding in speech | Generative machines | Interacting interfaces

Lorenzo Bacci and Flavio Moriniello

19 December 2024
2023/24 /ɪˈməːʃən/
111
Ombre sul Mediterraneo: estetiche translocali e nuove geografie televisuali tra Italia ed Europa

Valentina Re

12 December 2024
2023/24 /ɪˈməːʃən/
111
Anthropology of Screens. Showing and Hiding, Exposing and Protecting

Mauro Carbone

2 July 2024
2023/24 /ɪˈməːʃən/
111
Images from an Exhibition. Inhabiting the world with the stereoscope

Giovanni Fiorentino

12 June 2024
2023/24 /ɪˈməːʃən/
111
Faraway, So Close! Bridging distances between Anthropological Philosophy and Media Anthropology

Martino Quadrato

12 June 2024
2023/24 /ɪˈməːʃən/
111
The Automatic Body: a mediarcheological approach

Alice Peli

21 May 2024
2023/24 /ɪˈməːʃən/
111
Difficult Heritage: disputed figures in contemporary memorial museums

Giulia Bertolazzi

21 May 2024
2023/24 /ɪˈməːʃən/
111
“Antimonumenta”: artistic practice in feminist Mexico

Francesca Romana Gregori

9 May 2024
2023/24 /ɪˈməːʃən/
111
Death and Virtual Mourning. The “Return of the Dead” in Digital Afterlife

Maria Serafini

7 May 2024
2023/24 /ɪˈməːʃən/
111
Vierundzwanzig Beine! Carts, chariots, carriages and other (image-)media in Warburg’s Mnemosyne

Katia Mazzucco

16 April 2024
2023/24 /ɪˈməːʃən/
111
Education meets Virtual Reality. Reasoning on learning outcomes, inclusion and didactic scenarios

Ilaria Terrenghi

4 April 2024
2023/24 /ɪˈməːʃən/
111
Rape or “rape”? Virtual violence and the somatechnical body

Pietro Conte

26 March 2024
2023/24 /ɪˈməːʃən/
111
Chiromorphisms. The technical genesis of modern disability

Alessandro Costella

15 February 2024
2023/24 /ɪˈməːʃən/
111
The Obscene Device. Archaeology of Immersive Pornographies

Roberto Malaspina

1 February 2024
2023/24 /ɪˈməːʃən/
111
Techniques of Enchantment. Magic and Contemporary Technology

Sofia Pirandello

25 January 2024
2023/24 /ɪˈməːʃən/
111
Alternative Worlds – VR without Headsets

Margherita Fontana

11 January 2024
2023/24 /ɪˈməːʃən/
111
A world of imprints. The epistemology of visual evidence in digital and virtual media-ecologies

Rosa Cinelli

21 December 2023
2023/24 /ɪˈməːʃən/
111
FEMINIST HORROR THEORY – Filmic Forms and Female Identity: Rewriting in the Key of Gender

Rossana Galimi

research: Seminar

2023/24 /ɪˈməːʃən/
111

Intelligenza artificiale. Prospettive critiche

DALL·E - A photograph of two Martians in the style of Pompeian painting

Intervengono:

Ruggero EUGENI (Università Cattolica del Sacro Cuore)
Superman a Delft. Il concetto di stile delle intelligenze generative visuali

Alfio FERRARA (Università degli Studi di Milano)
Rendere visibile l’invisibile

Vivien GARCÍA (Université de Lorraine)
Fare storie con l’Intelligenza Artificiale

Carlo MILANI (ERTIM-INALCO)
IA per metafore

Teresa NUMERICO (Università di Roma Tre)
Automazione, interpretazione, predizione nell’intelligenza artificiale

Ruggero Eugeni

Superman a Delft. Il concetto di stile delle intelligenze generative visuali 

L’intervento parte da un piccolo esperimento per interrogarsi su quale concezione di stile guidi l’operato di alcune intelligenze artificiali generative visuali. L’idea di fondo è che il funzionamento di tali strumenti (soprattutto dopo l’avvento delle architetture Transformer) si basi su uno strumento messo a punto dalla semiotica interpretativa, dalla microsociologia e dal cognitivismo classico fin dagli anni Settanta: il concetto di frame.     

 

Biografia

Ruggero Eugeni è professore ordinario di Semiotica dei media presso l’Università Cattolica del Sacro Cuore di Milano e Brescia e dirige presso lo stesso Ateneo il Dipartimento di scienze della comunicazione e dello spettacolo. Il suo sito Media | Experience | Semiotics (con un panorama completo e aggiornato delle sue attività e vari papers disponibili per il download) è http://ruggeroeugeni.com.  

Alfio Ferrara

Rendere visibile l’invisibile 

L’intelligenza artificiale generativa può alterare in modo radicalmente nuovo il processo creativo, mettendone in discussione i tratti fondamentali. Ci concentreremo quindi su ciò che la ricerca nell’ambito dell’explainability di modelli generativi può suggerirci per comprendere le dinamiche interne dei modelli, rivelando come le reti neurali trasformano input diversi in nuovi contenuti e come il bias checking possa diventare strumento per indagare le influenze implicite e i pattern emergenti nei processi di generazione, rendendo esplicite le connessioni tra creatività artificiale e input umano.  

 

Biografia

Alfio Ferrara è professore ordinario di Informatica presso l’Università degli Studi di Milano, dove insegna Natural Language Processing, Reinforcement Learning e Metodologie informatiche nelle discipline umanistiche. Laureato in Filosofia, è da sempre interessato e impegnato in progetti di digital humanities e ha pubblicato ricerche recenti sulla rilevazione di cambiamenti semantici nei discorsi parlamentari italiani e su metodi di estrazione di valori umani tramite tecniche di Intelligenza Artificiale. È fra i promotori del nuovo centro di ricerca su Digital Humanities and Applied AI che nasce con l’obiettivo di ridurre le distanze fra scienze dell’uomo e tecnologie dell’informazione.  

Vivien García

Fare storie con l’Intelligenza Artificiale 

Una delle caratteristiche dell’attuale “boom” dell’IA è senza dubbio la quantità industriale di discorsi che si generano attorno di essa. In mezzo a tutto questo rumore, le prospettive storiche rimangono rare o meno visibili, tranne quando riprendono la grande narrazione lineare in cui, sullo sfondo del “progresso tecnologico”, la storia dell’intelligenza artificiale si confonde con la storia tout court, di cui l’IA sarebbe diventata la ragione. 

Questo contributo sostiene la pertinenza di un approccio storico all’IA nel contesto della massiccia alienazione tecnica che caratterizza la nostra epoca. Intende anche mostrare l’interesse che la filosofia può avere nell’afferrare questa materia estranea. 

 

Biografia

Vivien García insegna filosofia presso la Facoltà di Medicina dell'Université de Lorraine. Le sue ricerche attuali si situano all'incrocio tra filosofia morale, filosofia politica e filosofia della tecnica. Ha recentemente pubblicato un libro sull'intelligenza artificiale: Que faire de l'intelligence artificielle ? Petite histoire critique de la raison artificielle (Rivages, 2024).

Carlo Milani

IA per metafore

L’espressione “IA” implica una serie di metafore, similitudini e comparazioni. Per spiegare di cosa si tratta si ricorre a tutto un armamentario retorico, un intero vocabolario strutturato in maniera da colpire l’immaginazione individuale e strutturare l’immaginario collettivo. Per cominciare a sbrogliare la matassa delle Übertragungen, trasposizioni arbitrarie di significati, applichiamo il metodo della “pedagogia hacker”. Seguiremo i fili delle nostre connessioni con alcune di queste invenzioni linguistiche. Lungi dall’essere mere descrizioni, veicolano invece precise visioni del mondo, attingendo a piene mani dai miti che da sempre popolano l’avventura delle tecnologie. Golem, elettrodomestici, robot industriali vengono convocati insieme per gettare una luce diversa sul bizzarro mosaico dell’IA contemporanea. 

 

Biografia

Carlo Milani (PhD) è saggista, traduttore e ricercatore associato presso ERTIM-INALCO di Parigi. Collabora con eudema.net e circex.org. Tra le sue ultime pubblicazioni: Pedagogia hacker (con D. Fant), Elèuthera, Milano, 2024; Tecnologie conviviali, Elèuthera, Milano, 2022; Formare a distanza?, a cura di C.I.R.C.E., https://fad.circex.org con l’eteronimo collettivo Ippolita, 2020; Ippolita, Tecnologie del dominio, Meltemi, Milano, 2017; Ippolita, Anime Elettriche, Jaca Book, Milano, 2016. 

Teresa Numerico

Automazione, interpretazione, predizione nell’intelligenza artificiale  

Da quando il termine Intelligenza Artificiale (IA) è stato inventato siamo come sulle montagne russe rispetto alle possibilità e ai fallimenti di questi potenti sistemi di automazione delle attività considerate intelligenti se svolte da esseri umani.  

I nuovi sviluppi di questo ciclo di hype sull’IA risalgono al 2012[1] quando fu possibile ottenere un risultato clamoroso nel processo di riconoscimento delle immagini in una gara annuale su ImageNet, una banca dati costruita da un gruppo di ricercatori della Stanford University, guidati da Li Fei-Fei 

Questi metodi basati sul machine learning e sul deep learning sono avidi di dati e promettono di saper discernere dei pattern, o schemi di comportamento che possano essere proiettati dal passato verso il futuro.  

Il presupposto del successo di questi metodi consiste nella capacità di interpretazione automatizzata dei dati da proiettare sul futuro con l’ipotesi implicita che il futuro sarà assimilabile al passato[2] 

Ma non abbiamo nessuna assicurazione che le cose stiano davvero così, soprattutto nei casi in cui le situazioni dipendono da elementi contingenti come quelli relativi alle relazioni sociali.  

La predizione riguarda diversi settori dal riconoscimento di immagini, al supporto alla presa di decisione in situazioni complesse, fino all’attività generativa dell’IA capace di produrre contenuti sintetici a partire da un prompt di richiesta.  

Ci sono molti fattori che influenzano il potenziale epistemico di funzionamento di queste previsioni che dipendono dalla qualità dei dati, dalla costruzione delle funzioni obiettivo e dalla capacità di raffinare gli algoritmi per le necessità delle singole funzioni.  

Quando parliamo di IA ce la rappresentiamo mentalmente come un sistema unico, mentre siamo di fronte a compiti differenti e processi complessi per realizzarli[3] 

È urgente, quindi, discernere tra le diverse modalità di automazione per scoprire quali potrebbero funzionare in sostituzione completa dell’attività umana, quali potrebbero agire in sinergia con gli esseri umani e quali andrebbero evitati, non tanto per motivi etici, quanto per ragioni epistemiche. Sinteticamente potremmo descrivere questi ultimi casi, dicendo che affidarsi agli algoritmi di automazione non ne migliora la capacità di prevedere il futuro e si limita a prescrivere le decisioni senza giustificarne le ragioni. 

Infine, sappiamo che qualsiasi esecuzione delle regole, modello di ogni processo di automazione, può avvenire solo a condizione di costruire delle cornici interpretative che hanno sempre un carattere sociale[4] e gli algoritmi dell’IA non costituiscono un’eccezione perché presuppongono una formulazione dei problemi da risolvere, puramente formale e quantitificabile[5].  Tale cornice, necessaria al loro funzionamento, ha una dimensione discrezionale proprio come qualsiasi altra interpretazione impone.  

La differenza rispetto alla molteplicità di possibili comprensioni delle situazioni è che nel caso della soggettività umana l’aspetto ermeneutico e situato è evidente e dichiarato, mentre il sistema tecnico nasconde nelle sue molte stratificazioni la sua dimensione soggettiva, senza evitarla, anzi irrigidendone le asperità[6]. L’oscurità di questi elementi interpretativi rende tali sistemi tecnici pericolosi soprattutto quando sono utilizzati per assumere delle decisioni che riguardano la vita, i diritti e le prerogative delle persone. 

 

[1] Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. “Imagenet classification with deep convolutional neural networks”, in Advances in neural information processing systems 25 (2012). 

[2] Gigerenzer G.  (2022) How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms, Mit Press, Cambridge (Mass.), trad. it Perché l'intelligenza umana batte ancora gli algoritmi, Raffaello Cortina Editore, Milano, 2023. 

[3] Narayanan A. & Kapoor S. (2024) AI snake oil, Princeton University Press, Princeton & Oxford.  

[4] Daston L. (2022) Rules, Princeton University Press, Princeton & Oxford.  

[5] Stone, D. (2020). Counting: How we use numbers to decide what matters. Liveright Publishing, London. 

[6] Hildebrandt M., 2021, The issue of bias. The framing powers of machine learning, in Marcello Pelillo  e Teresa Scantamburlo (a cura di), Machines We Trust Perspectives on Dependable AI, Mit Press, Cambridge, Mass. 

 

Biografia

Teresa Numerico è professoressa associata di Logica e Filosofia della Scienza all’Università di Roma Tre. Si occupa di filosofia della tecnologia, politica dell’intelligenza artificiale, nuova epistemologia digitale delle scienze umane e sociali. Pubblica regolarmente su riviste internazionali. Tra i suoi libri: Alan Turing e l’intelligenza delle macchine (FrancoAngeli, 2005), Web Dragons (con M. Gori e I. Witten; Morgan Kaufmann, 2007), L’umanista digitale (con D. Fiormonte e F. Tomasi; Il Mulino, 2010; trad. ingl. aggiornata, The digital humanist, Punctum Books, 2016) e Big Data e Algoritmi (Carocci, 2021).   

research: seminar

Intelligenza artificiale. Prospettive critiche

DALL·E - A photograph of two Martians in the style of Pompeian painting

Intervengono:

Ruggero EUGENI (Università Cattolica del Sacro Cuore)
Superman a Delft. Il concetto di stile delle intelligenze generative visuali

Alfio FERRARA (Università degli Studi di Milano)
Rendere visibile l’invisibile

Vivien GARCÍA (Université de Lorraine)
Fare storie con l’Intelligenza Artificiale

Carlo MILANI (ERTIM-INALCO)
IA per metafore

Teresa NUMERICO (Università di Roma Tre)
Automazione, interpretazione, predizione nell’intelligenza artificiale

14 January 2025
16:00
18:00

Aula Immersiva

Università degli Studi di Milano

Via Santa Sofia, 9

organized by

Sofia Pirandello
Intelligenza artificiale. Prospettive critiche
Aula Immersiva
Università degli Studi di Milano
Via Santa Sofia, 9
20250114
16:00
18:00