0. Premessa
In verità, se ciascuno strumento sapesse, in risposta a un ordine o per una sorta di presentimento, portare a termine l’opera che gli tocca —come, a quanto si dice, facevano le statue di Dedalo e i tripodi di Efesto che, come dice il poeta, da soli entravano nell’assemblea divina—, e se, allo stesso modo, le spole e i plettri tessessero e suonassero da sé, né gli architetti dovrebbero far ricorso ai muratori, né i padroni agli schiavi
(Aristot., Pol. I.4, 1253b 33-1254 a1)
Google Play e i relativi Contenuti o librerie di supporto potrebbero necessitare di aggiornamenti, ad esempio per correzioni di bug, funzionalità avanzate, plug-in mancanti e nuove versioni (definiti collettivamente “Aggiornamenti”). Tali Aggiornamenti possono essere necessari per poter utilizzare Google Play o per accedere ai Contenuti, scaricarli o utilizzarli. Accettando i presenti Termini e utilizzando Google Play, l’utente acconsente a ricevere tali Aggiornamenti automaticamente. È possibile che l’utente sia in grado di gestire gli Aggiornamenti di determinati Contenuti tramite le Impostazioni in Google Play. Se tuttavia viene stabilito che l’Aggiornamento corregge una vulnerabilità di sicurezza critica o problemi critici di operatività dei Contenuti, o previene attività illecite, l’Aggiornamento può essere completato indipendentemente dalle impostazioni di Aggiornamento in Google Play o sul Dispositivo.
(Aggiornamenti dei termini di utilizzo di Google Play, 18 Ottobre 2024)
1. Come pensavo il digitale (199*)
1.1 Gli schiavi digitali
Credo si possa descrivere la visione standard del nostro rapporto con il mondo digitale più o meno in questi termini:
Noi possediamo un certo numero di dispositivi: computer, smartphone, orologi, frigoriferi, lavatrici, eccetera.
Questi oggetti hanno un’identità digitale, completamente diversa dalla nostra. Sono macchine stupide, programmate per fare sempre la stessa cosa: prendere dati, elaborarli, restituirci un risultato. Così facendo funzionano anche come porte che ci permettono di collegarci tra noi umani, nella Rete.
Non sono creative perché, a differenza degli umani, sono solo lineari, basate sul codice binario: 0 e 1, vero o falso. Esistono per essere usate da noi, per i nostri scopi: lavorare, divertirci, passare il tempo, avere una vita migliore. Dipendono da noi, che siamo i loro padroni.
Nel cloud abitano un altro tipo di macchine, quelle “intelligenti”, con cui già oggi possiamo dialogare per gioco. Queste particolari macchine evolvono naturalmente per essere sempre più utili, per aiutarci nei compiti più difficili e facendoci risparmiare tempo in quelli più noiosi.
Questa visione non mi convince fino in fondo. La trovo rigida (i dispositivi digitali non sono tutti uguali), semplicistica (non sono affatto macchine lineari) e in fondo un po’ ingenua (le macchine non evolvono). Prende per buono il discorso del marketing dell’informatica senza metterlo veramente in discussione, anche quando lo rigetta in nome dell’umanesimo. Parte del mio lavoro di progettista e sviluppatore di software è consistito nell’analizzarla, in me stesso prima di tutto (in fondo sono un esemplare di “homo informaticus”) e smontarla. Da questa analisi è nata una concezione alternativa che mi ha permesso di utilizzare computer e linguaggi di programmazione per costruire cose divertenti e – spero – utili per l’apprendimento; cose di cui non solo io, ma anche gli utilizzatori, potessero capire il funzionamento e magari cambiarlo.
Tuttavia sto cominciando a perdere quell’ottimismo che mi ha accompagnato per i primi trent’anni del mio lavoro. La maniera attuale di funzionare dell’universo dei dispositivi digitali non assomiglia a quella che avevo immaginato e provato a costruire.
Provo qui a ricostruire quel desiderio (che non era solo mio) per cercare di capire cosa è andato storto e cosa ancora si può salvare. Il contributo parte da lontano, dalla riproposizione alcuni schemi concettuali che avevo immaginato a partire dagli anni ’90. Gli schemi mi erano serviti per costruire una teoria dello sviluppo di software educativo collegata fortemente ad una teoria dell’apprendimento (che qui però sarebbe fuori luogo descrivere).
Il motivo per cui li ripropongo qui, paradossalmente, è perché trovo che fossero sbagliati, o quanto meno ingenui. Però ritengo che vadano esaminati da vicino, perché non ero il solo a sbagliarmi; può darsi che analizzarli oggi ci aiuti a capire qualcosa del nostro rapporto con i servizi digitali, in particolare quelli basati su intelligenza artificiale. La chiave del discorso è, a mio avviso, nel rapporto tra identità e dipendenza, affrontato qui in una maniera spero non troppo ovvia.
1.2 Digitale: flessibile, plurale, virtuale, omogeneo
Anni fa ritenevo che il “digitale“ fosse una categoria non tanto della natura, ma dello spirito: una nuova forma di pensiero. Non era in opposizione radicale alla tradizionale maniera di vedere il mondo, anche se poteva sembrarlo. Però aveva regole proprie, differenti, che andavano capite bene per poterle utilizzare e costruire oggetti significativi e non semplici eserciziari multimediali – che era invece quanto vedevo accadere nel campo dei software educativi. Non per insegnare ai bambini il “pensiero computazionale”, anzi; ma costruire oggetti digitali che fossero alleati dei bambini, come aveva proposto Seymour Papert trent’anni prima.
Avevo cominciato col descrivere alcune delle proprietà primarie del digitale. Prima di tutto, scrivevo, il digitale è forma, non materia. Se scomparissero i calcolatori elettronici e si costruissero dei calcolatori con biglie di marmo, una nera e una bianca, la teoria dell’informatica non cambierebbe.1 La caratteristica principale della forma digitale è l‘economia: il digitale può assumere due sole istanze, che non hanno altro significato che la loro differenza. Questa semplicità però non gli impedisce di poter rappresentare qualsiasi oggetto, esattamente come con pochi componenti subatomici si può costruire un universo. Per l’irrilevanza della materia, una sequenza di bit non ha un’identità sua: potrebbe essere identica ad un’altra ma distinguibile solo per la posizione. In quanto forma semplice, il digitale costituisce un linguaggio universale con cui è possibile rappresentare ogni tipo di informazione sensoriale. Infine, nel digitale si annulla la grande differenza tra animato e inanimato, tra azione e oggetto: le operazioni sui dati si possono esprimere nello stesso linguaggio con cui si descrivono i dati stessi; in altri termini, le operazioni possono essere dati di qualche altra operazione superiore.
Queste proprietà fondamentali mi permettevano di descrivere sinteticamente il digitale con quattro aggettivi: il digitale è flessibile, plurale, omogeneo, virtuale.2
- Flessibilità: a differenza delle scritture analogiche, dallo scalpello alla tipografia, il costo delle operazioni di lettura è paragonabile a quello di scrittura. Ciò che è stato scritto può essere sempre modificato.
- Pluralità: se la materia è indifferente, non è possibile distinguere tra originale e copia. Di un file può essere modificata ogni caratteristica, compresa la data di creazione. E quindi non è possibile tracciare una barriera tra primo autore e chiosatori successivi di un testo digitale. Ogni opera digitale è per principio un’opera collettiva, appartiene ad una comunità. E’ da questa proprietà che nasce il movimento del Free Software.
- Omogeneità: le versioni digitali di un’immagine e un suono sono omogenee, almeno a livello di struttura dei file. Questo permette ad un programma editing audio di fornire una rappresentazione grafica dei dati di un file sonoro (ma anche viceversa: si può ascoltare un’immagine).
- Virtualità: nel digitale c’è una coincidenza tra dati e operazioni. Questo fornisce ad un oggetto digitale la possibilità di autoreplicarsi (come un virus), o di modificarsi dinamicamente in maniera autonoma. Il digitale costituisce un ambiente in cui le distinzioni tra soggetto e oggetto e tra agenti software e utenti umani possono venir ritracciate continuamente, come nei videogiochi.
In realtà, ognuno di questi aggettivi descriveva l’oggetto attraverso operazioni specifiche3 possibili solo sugli oggetti digitali e non sui corrispettivi analogici:
- Flessibile: modificare all’infinito (non si possono distinguere originale e copia)
- Plurale: modificare contemporaneamente (più autori possono mettere le mani sullo stesso documento nello stesso momento)
- Omogeneo: leggere come … (si può reinterpretare un documento da un campo mediale all’altro)
- Virtuale: automodificarsi (un programma può modificare le sue stesse operazioni e quindi “apprendere” in senso forte)
Da queste operazioni facevo derivare le caratteristiche che avrebbero dovuto avere i software educativi che andavo teorizzando e progettando come ambienti per l’apprendimento: ambienti sempre aperti, destinati ad un uso collettivo, in grado di mescolare media diversi e di modificarsi in base ai bisogni delle persone che li usavano.
1.3 Interfacce, struttura, dati
Più o meno negli stessi anni, in opposizione alla classica descrizione di un computer e di un processo digitale come un frullatore (input, elaborazione e output), descrivevo gli artefatti digitali come composti di tre elementi necessari e sufficienti, uno dentro l’altro:
- i dati
- la struttura che mette in relazioni i dati
- l’interfaccia con cui si accede a questa struttura
I dati da soli non portano informazione senza uno sfondo fatto di relazioni statiche e dinamiche, cioè una struttura; questa non è immediatamente data alla nostra percezione, ma viene mediata da un’interfaccia che ne filtra gli elementi in base alla situazione e permette di intervenire su di essa e sui dati.4 Messa in termini operativi, significa che non si accede mai direttamente ai dati che non siano strutturati in qualche modo e non si accede alla struttura senza una qualche interfaccia prevista per quello scopo.
Questa descrizione si può applicare ad un programma, ad un computer (hardware più software) o allo stesso Web. E’ una descrizione ricorsiva, nel senso che se si analizza un dato ci si trova dentro un’interfaccia, una struttura che lega altri dati, e così via.
In astratto, non si tratta di una caratteristica unica dei computer. Probabilmente tutte le macchine possono essere descritte così. E non solo le macchine fisiche: quando i retori latini parlavano di inventio, dispositio e elocutio facevano riferimento alla stessa tripartizione tra cose da dire, relazione tra queste e maniera di presentarle all’ascoltatore. Insomma un modo conveniente e ben noto di separare e connettere tre istanze fondamentali del nostro modo di trattare il mondo: dividerlo in pezzetti, connetterli e interagire con l’insieme.
La novità che mi pareva interessante era che con l’informatica questa divisione, di per sé analitica, era stata utilizzata in modo sintetico, cioè costitutivo. Quello che i padri e le madri dell’informatica sono riusciti a fare è costruire un mondo artificiale in cui dati, struttura e interfaccia sono sempre collegati ma indipendenti. Si possono progettare e realizzare separatamente e poi assemblarli; ma dopo la creazione, in qualsiasi momento, si può modificare o sostituire uno dei componenti senza toccare gli altri due e senza distruggere la relazione costitutiva.
Per capire quanto questo sia difficile questo nel mondo non-digitale basta pensare alla inseparabilità di dati, struttura e interfaccia in un libro cartaceo. Non si può modificare l’indice, non si possono aggiornare i contenuti, non si può cambiare la dimensione o il tipo di carattere. Questa fissità, come sosteneva in quegli anni Roberto Maragliano, ha avuto degli effetti devastanti nella definizione della cultura della scuola, che resta ancora “tipografica”, cioè lineare, autoritaria e immutabile.
Sono evidenti i vantaggi che offre invece l’approccio digitale rispetto all’accessibilità o alla personalizzazione dell’apprendimento: uno stesso contenuto informativo può essere veicolato da interfacce diverse (scritto, parlato) in funzione delle capacità della persona che è interessata ad esso. Una mappa – dati più struttura – può essere ridisegnata in tempo reale in funzione delle condizioni ambientali, del livello di dettaglio scelto, delle categorie concettuali. E’ la stessa mappa, ma con interfacce diverse. Viceversa, i dati di un’enciclopedia possono essere aggiornati senza modificare l’interfaccia e la struttura.
L’utilità di questa tripartizione si vede anche se si guarda al cuore del rapporto dell’informatica col mondo. I dati strutturati rappresentano un modello di una porzione del mondo analogico, una simulazione costruita secondo le leggi del mondo analogico (fisiche, chimiche, sociali). Perché duplicare il mondo? Perché la versione digitale è più agibile. Il gemello digitale si comporta quasi come quello analogico, ma permette di accelerare e vedere (attraverso l’interfaccia) lo sviluppo di una situazione nel tempo, in avanti o indietro; o anche di inserire dati diversi e osservare futuri alternativi. Modelli di questo genere ci permettono di studiare l’universo e sono utilissimi praticamente per fare previsioni meteorologiche o agronomiche; ma hanno anche un grande valore in campo educativo.5 Creare immagini dinamiche del mondo era (ed è) per me un’attività del più alto valore didattico, perché permette ai bambini di giocare con il modello e di sperimentarne direttamente il comportamento a seguito delle variazioni che loro stessi introducono nella struttura (“e se invece…?”).6
Un aspetto che da lettore di Ted Nelson mi stava particolarmente a cuore era il fatto che fosse possibile costruire più strutture con gli stessi dati, grazie al fatto che ogni dato può puntare a qualsiasi altro (non solo nel Web ma anche semplicemente dentro un hard disk). In sostanza, mentre un libro di N pagine ha necessariamente una sola struttura (la sequenza), un documento digitale ne può avere NxN, in base ai bisogni o ai desideri di chi lo scrive e di chi lo legge. La forma propria del digitale è la rete.
Anche in questo caso, la teoria aveva un fine pratico: questo quadro teorico mi permetteva di progettare dei software che evolvessero seguendo il percorso di apprendimento delle persone (in particolare, i bambini) che li usavano. Progettavo software come ambienti capaci di ristrutturarsi e di modificare la propria interfaccia sulla base dell’uso.7 In pratica funzionavano in maniera completamente diversa rispetto ai software tradizionali: non erano progettati per rendere l’utente succube di un’interfaccia gonfia di potenzialità inutili, ma per abdicare progressivamente, cioè per cedere il controllo man mano che crescevano i bisogni e le capacità dei soggetti che li usavano per imparare.8 In qualche modo, anche gli ambienti educativi digitali evolvono, ma nella direzione opposta, in funzione al nostro sviluppo.
2. Errori utili
2.1 Il “digitale” non esiste.
Sono cose che pensavo e scrivevo negli anni ’90, lavorando nel Laboratorio di Tecnologie Audiovisive dell’Università di Roma Tre con Roberto Maragliano, in una prospettiva nutrita dell’entusiasmo di Ted Nelson, George Landow, Jay Bolter, Nicholas Negroponte, Pierre Lévy, ma anche corretta con letture critiche di Tòmas Maldonado, Gregory Rawlins, Clifford Stoll.9 A rileggerle oggi, sono concezioni un po’ ingenue e idealiste e soffrivano della mancanza di contatto con realtà concrete al di fuori del nostro ambiente privilegiato di ricerca universitaria e sperimentazione.10 Non mi rendevo conto che non c’è forma senza materia e soprattutto senza l’energia che serve anche solo per farla persistere. Pensavo che la scelta di utilizzare un codice binario fosse puramente filosofica e logica – mentre poggiava sulla fisica dei semiconduttori.11 Alle prese con i miei prototipi di software, non pensavo che quando le dimensioni diventano elevate, il costo delle operazioni di scrittura e lettura non è affatto irrilevante. Non sapevo che la virtualizzazione sarebbe stata realizzata di lì a qualche anno ma in forma diversa: computer che fanno finta di essere altri computer, che si svincolano dall’hardware ma insieme si sottraggono al controllo diretto del loro utilizzatore. L’unica forma di lavoro digitale che concepivo era quella dello sviluppatore illuminato che segue i propri desideri – non quella dei Mechanical Turks.12
Mancava una visione temporale, storica, come manca in tutte le teorie dell’infosfera e del cyberspazio: costruiscono col pensiero degli oggetti astratti che sono il corrispettivo nel dominio delle cose di quello che è la disciplina informatica nel domino dei saperi. Oppure, se prendono in considerazione il tempo, è solo per narrare in maniera compiaciuta l’evoluzione di questi super-oggetti. Forse è un modo per riscattare l’informatica dal suo ruolo di ancella delle scienze pure (in fondo è solo una tecnica13). Invece, prendere in considerazione il tempo è fondamentale per capire come sono cambiati i concetti fondamentali dell’informatica, per strapparne il velo di assolutezza e vederne la relatività. A partire dal fatto che i dati digitali non nascono per semplice rispecchiamento ma per selezione dei dati analogici; i criteri di questa selezione non restano visibili ma si cristallizzano nei dati e influenzano in questo modo tutti gli usi successivi. Più in generale, i dati per essere leggibili (e le operazioni per essere eseguibili) devono rispettare dei protocolli e degli standard; i quali non sono universali ed eterni, ma hanno una storia e una geografia. Cosa è un dato e cosa è un’operazione è definito dal contesto in cui stanno ed operano: di qui l’effetto “disco di Festo” per cui un documento scritto anche solo pochi anni fa diventa opaco perché sono scomparsi gli strumenti (hardware e software) con cui leggerlo.
Continuo a pensare che si trattasse di intuizioni utili a distinguere tra usi analogici degli strumenti digitali e usi digitali di questi strumenti, cioè a evitare errori marchiani come quello di utilizzare un computer come una macchina da scrivere un po’ più evoluta.14Ma a loro volta potevano dare origine ad altri errori.15
1. Il primo era nascosto nel cuore di queste definizioni, nel termine “digitale”. E’ un modo di dire comodo, un aggettivo facile da usare, che però nasconde tutte le differenze tra dispositivi, software, servizi, protocolli, modi di produzione e distribuzione; e naturalmente tra tutte le persone che se ne occupano. Se si guarda a tutti questi oggetti da vicino e si cerca di riportarli ad una categoria unica usabile come sostantivo (“il digitale”, come si dice “la natura”, “il mercato”, “la verità”) ci si accorge che l’operazione è impossibile.16 L’informatica della fase eroica degli anni ’50 e quella della fine del millennio (il web) sono diverse tanto quanto lo sono quella del 2000 da questa che stiamo appena imparando a conoscere. Sono cambiati paradigmi di programmazione e linguaggi; e poi computer, sistemi di conservazione dei dati e reti; ma anche professioni e ruoli. Ci sono programmi che servono a mandare razzi sulla Luna e videogiochi che non servono a niente; programmi che sanno fare una sola cosa e sistemi operativi che in teoria possono supportate tutto. Insomma, non c’è uno spirito Digitale unico, con delle proprietà definite una volta per tutte, che evolve e prende forme diverse; ci sono stati invece dagli anni ’50 in poi tante pratiche digitali diverse, pensate per fare cose diverse, e che hanno alcune caratteristiche in comune. Per semplificare, le mettiamo sotto una categoria unica, ma questo non significa che abbiano tutte le stesse caratteristiche. E’ la forma di somiglianza dei cugini: A condivide alcune caratteristiche con B, e B con C; ma A e C sono molto diversi. Non sono tutti stupidi e meccanici, più di quanto non siano intelligenti e creativi; non sono di destra o di sinistra, non sono maschili o femminili.
Non era tutta colpa mia: i manuali di informatica che ho letto hanno contributo a questa visione astorica, semplicistica, di una disciplina astratta che produce occorrenze concrete. Si fa fatica a ricordarsi che l’informatica – come la grammatica – arriva dopo, a tentare di fare ordine in un mondo composto di pratiche molto diverse. Un piccolo esempio: la definizione di algoritmo come anima profonda di un programma che risolve un problema. Una definizione che riprende un termine nobile della matematica e lo adatta. La potete trovare ovunque: è poetica, profonda, chiara ma sbagliata; appunto perché matematica e informatica sono cose molto diverse. Prima di tutto un algoritmo non sta dentro un programma, non è il suo significato profondo, ma è una maniera di descrivere il funzionamento di un programma attraverso un linguaggio diverso (che sia grafico o formalizzato o più simile ad una lingua naturale). Gli algoritmi sono utili perché permettono di controllare certe caratteristiche dei programmi rispettivi senza doverli eseguire e perché permettono di tradurre un programma da un linguaggio all’altro; ma sono, a loro volta, solo traduzioni. La loro aura di perfezione matematica andrebbe un po’ smontata: ci sono algoritmi sbagliati o che non terminano mai, o algoritmi che terminano, ma non sappiamo se hanno risolto il problema o meno. Anche la favola per cui prima si pensa l’algoritmo e poi si realizza il programma relativo non corrisponde a quello che accade nella pratica confusa e ricorsiva della programmazione.17 Infine, non tutti i programmi risolvono problemi: alcuni sono stati scritti per gioco, o per creare opere d’arte, senza nessuno scopo predefinito. Non tutta l’informatica è al servizio dell’efficientamento.
2. Un errore peggiore, o almeno un rischio grave, era quello di conferire al “digitale” lo stato di soggetto autonomo. Non solo non ne esiste una sola versione, ma non è qualcuno, non ha nessun desiderio, nessuna tensione verso un destino. Andavo dicendo – adattando il concetto di remediation di Bolter e Grusin – che la metafora migliore per descrivere il digitale era quella del virus: un organismo che non ha una volontà propria, ma che punta a riprodursi entrando nel corpo degli altri organismi e clonandoli; ma era un errore. Dietro i cambiamenti, gli sviluppi, anche spettacolari come quello dei Large Language Model, non c’è la spinta evolutiva del digitale che punta alla coscienza (la “singolarità”) ma più banalmente analisti, progettisti, programmatori; e, dietro a loro, società e centri di ricerca, con i loro consigli d’amministrazione, gli stakeholders, gli azionisti. Che la ricerca e la sperimentazione sull’intelligenza artificiale abbiano preso la strada generativa che oggi vediamo riportata all’infinito sui media non dipende da una supposta natura evolutiva del Digitale, né da una legge che fa seguire ciclicamente ai freddi inverni dell’IA le rosee primavere, ma da un calcolo economico, che può rivelarsi giusto per qualcuno e sbagliato per altri.
Allo stesso modo, il termine “algoritmo” ha recentemente assunto un altro significato: quello di Ente malvagio in grado di decidere il futuro delle persone sulla base dei loro profili.18 Ma gli algoritmi non fanno niente da soli e meno che mai controllano la nostra vita. Semmai sono le concrete istanze di software in esecuzione in un certo contesto a decidere se concederci il prestito sulla base dei nostri ultimi acquisti; ma anche in quel caso la responsabilità è di chi ha deciso i pesi da assegnare ai rami decisionali e, in ultima analisi, di chi ne accetta il responso senza discuterlo.19
3. Il terzo errore, variante del secondo, era relativo alla necessità storica di certi usi. A me sembrava ovvio che di fronte ad una soluzione più potente, liberatoria, aperta al futuro, molti, se non tutti, l’avrebbero capita e adottata festosamente. Non è stato così.
In potenza, un documento salvato da un computer in un certo formato può essere modificato all’infinito da più autori diversi; nell’atto occorre la volontà dell’autore iniziale a farlo circolare in un formato aperto. Lo stesso vale per i codici sorgenti: tutti devono essere leggibili per poter essere modificati, ma in pratica non tutti sono rilasciati con una licenza open source. Queste scelte si comprendono in termini di protezione dei propri investimenti cognitivi precedenti, di difesa del proprio status professionale: essere capaci di scrivere (che si tratti di romanzi o programmi) conferisce un potere a cui non si vuole rinunciare.20 Insomma, confondevo un’intenzione e una pratica possibile con la natura necessaria dello strumento che determinerebbe la maniera in cui verrà usato. Non era vero: si possono fare sistemi operativi liberi, ma ci sarà sempre chi invece ne fa di proprietari. Si possono distribuire documenti in formato ODT con licenza Creative Commons, ma anche in PDF con copyright tradizionale. O anche dimenticarsi di apporre una licenza e non prendere posizione, se non per ricordarsene oggi per gelosia di fronte ai prodotti dell’Intelligenza Artificiale Generativa.
Una forma particolarmente antipatica e diffusa di questo errore è quella per cui si prende in prestito una qualità potenziale (la libertà, l’apertura, la creatività, etc) e la si usa come etichetta vuota per connotare una realtà ben diversa. Si possono presentare gli strumenti basati sull’IA per la produzione di artefatti come strumenti di supporto alla creatività umana senza dichiarare che in realtà si punta a sostituire e non a supportare competenze. Si può permettere l’uso di servizi online e presentarli come strumenti “free” quando sono solo gratuiti al momento, in attesa di diventare “freemium”. O persino creare una società che costruisce modelli chiusi con “Open” nel nome.21
2.2 Virtuale non è reale22
Anche la descrizione degli oggetti digitali in termini di dati, struttura e interfaccia era un po’ troppo schematica e “platonica”, nel senso deleterio del termine.
1. In maniera simile a quanto notato sopra, il fatto che dati, struttura e interfaccia siano separati in teoria non implica il fatto che lo siano nella realtà. Lo si vede nel caso degli e-book attuali: è vero che si può modificare l’interfaccia senza toccare dati e struttura, ma non si può modificare la struttura né si possono aggiornare i dati. Per ragioni non tecniche (il formato digitale lo consentirebbe) ma commerciali, le possibilità di azione mirata degli ebook moderni non vengono rese disponibili agli utenti. Chi acquista o noleggia un ebook non è messo in condizione di modificare nulla se non la maniera di apparire di quel contenuto. Di nuovo, la possibilità non implica la necessità.
Anche la reticolarità, cioè la possibilità di ristrutturare qualsiasi insieme di dati in funzione del centro di interesse, in fondo non interessa più di tanto le persone. Gli insegnanti – a cui erano rivolti indirettamente i nostri software – alla fine preferiscono la linearità rassicurante del libro e del film (o delle slides) anche quando gli si da la possibilità di creare strutture più complesse. La metafora della ragnatela,23 che avrebbe dovuto suggerire una libertà di percorso attraverso Internet, spaventa: si ha paura di perdersi o di rimanere invischiati. Meglio usare sempre un unica porta, che di solito porta scritto sulla soglia “Google”. Certo, intesa a livello fisico, la reticolarità esiste eccome: tutti i nostri dispositivi sono connessi tramite una rete. Ma non ne siamo consapevoli e non siamo in grado, nella grande maggioranza dei casi, di controllarla e modificarla.
La diatriba sull’accessibilità mancata dei siti web degli enti pubblici dimostra, senza che siano necessarie altre parole, quanto il sogno di rendere un contenuto svincolato dalla sua presentazione sia sostanzialmente fallito.
2. All’epoca non avevo approfondito una questione epistemologica che invece ora mi pare importante: i tre elementi della descrizione non preesistono ad essa. I programmatori non sono scienziati classici che vanno alla ricerca delle regolarità dell’esperienza: non ci sono, prima, i dati, che poi vengono individuati e connessi e infine resi accessibili dall’esterno. C’è un processo di selezione dei dati che dipende dalle relazioni che cerchiamo di applicare, le quali a loro volta dipendono dalle pressioni o dai bisogni del mondo esterno. E’ un fenomeno che oggi prende il nome di bias: gli enormi set di dati necessari per il machine learning non sono neutri, ma vengono selezionati in funzione di certe relazioni che ci interessano. Non è un processo puramente induttivo, come ci piacerebbe credere, ma se proprio vogliamo abduttivo. Prendiamo i dati che ci servono per giustificare le ipotesi; e scegliamo le ipotesi in funzione dei bisogni, che siano pratici o teorici. Non lo facciamo una volta per tutte, ma ripetiamo questo processo finché non siamo soddisfatti.
Questo loop ha per me un’evidenza forte nel processo concreto di creazione di un software, distinto da quello idealizzato: un continuo e faticoso ripensamento dei confini dei dati, della generalità delle relazioni e delle possibilità di uso da parte dei soggetti esterni. Succede anche che le strutture diventino dati, o che le interfacce diventino strutture: in questi trent’anni di studio e scrittura di codice ho capito che dati, struttura e interfaccia sono istantanee catturate in un certo momento da uno sviluppo a spirale che può continuare indefinitamente nella vita di un software.
Ma non tutti hanno avuto questa fortunata esperienza pratica mentre tutti, da utenti, tendiamo a scambiare l’interfaccia per la cosa stessa (in termini di marketing si chiama “trasparenza dell’interfaccia” o affordance). Se mai dovessimo accorgerci che sotto c’è qualcos’altro, comunque pensiamo a quei dati e quella struttura come naturali e definitivi. “E’ così che vanno le cose”, pensiamo, e se non riusciamo a orientarci nelle interfacce ci sentiamo colpevoli, invece di criticare il manico della caffettiera.24
3. Il terzo errore è quello più rilevante per il discorso che intendo fare in questo contributo. Quella descrizione era sensata in un’epoca – gli inizi degli anni ’90 – in cui i computer erano sostanzialmente isolati. Prima e dopo, le cose erano e sono diverse: negli anni ’60 e ’70 quello che veniva messo in mano alle persone era un semplice “terminale stupido” (un’interfaccia) per agire su dati e strutture che erano centralizzate sui mainframe; oggi nessun dispositivo digitale può esistere senza essere collegato agli altri. Essere è essere collegati.
Naturalmente il concetto (e la realizzazione pratica) di “rete di dispositivi” è molto più vecchio del World Wide Web e di Internet come li conosciamo oggi; ma il suo significato è cambiato profondamente: da possibilità di scambio di informazioni tra pari a necessità di acquisizione di dati per fini diversi.
“Un programma struttura i suoi dati e li mette a disposizione dell’utente che usa il programma tramite un’interfaccia”, dicevo: è ancora vero, solo che i dati non sono per forza lì. Il programma usa un’altra interfaccia, non visibile a noi, per ottenere questi dati dovunque essi siano. Questo è ovvio nel caso di software vuoti, come i browser, che sono “clienti” che effettuano richieste al loro “cameriere”. Ad esempio un browser richiede ad un web server – oltre al contenuto della pagina web che l’utente vuole visitare – anche le librerie o le definizioni di stile necessarie per rappresentarlo, che possono essere ovunque in Internet. Anche un’app semplicissima, come un orologio, chiede in continuazione il tempo a qualche server remoto collegato ad un orologio atomico.25
Ma il programma usa l’interfaccia anche per raccogliere i dati dall’utente: i suoi click, le parole che scrive, le URL che visita, i destinatari dei suoi messaggi. Questi dati possono essere usati per migliorare l’interazione o monitorare l’apprendimento, come nei software educativi che andavo progettando io; oppure per profilare l’utente, per categorizzarlo sulla base di questi comportamenti. I dati raccolti vengono inviati a qualche altra interfaccia in ascolto da qualche parte, per essere strutturati e diventare dati di altri programmi.
In conclusione: quella descrizione nasceva dalla mia limitata esperienza e rappresentava il mio desiderio e non la realtà; la quale soprattutto nel caso delle attuali applicazioni di “intelligenza generativa” è molto lontana da quel sogno:
- esistono software aperti, ma molti sono chiusi e non c’è nessun convergenza all’orizzonte
- non tutti i dati vengono tradotti nel linguaggio più adatto per essere comprensibili
- gli oggetti “intelligenti” (cioè in grado di auto-modificarsi) non mutano per cederci il controllo dell’ambiente; al contrario, cambiano per farsi carico sempre di più di compiti e competenze che erano nostri
- i dispositivi digitali non sono mai isolati; anche quando non ce ne rendiamo conto sono ponti dove transitano colonne di dati
- lo sviluppo degli oggetti digitali non segue una legge naturale ma gli stereotipi sociali della classe dominante e obbedisce alle esigenze di chi lo finanzia.26
Il discorso mediatico sugli oggetti digitali li presenta come simpatici robot, cioè servitori intelligenti, evoluzione degli elettrodomestici. Ma non dice tutto: se il loro scopo apparente è soddisfare i bisogni e i desideri dell’utente, quello primario è creare valore a partire dai dati scambiati.
3. La dipendenza
Vorrei approfondire quest’ultimo punto sotto il termine “dipendenza”.
Nel contesto di cui ci stiamo occupando, “dipendenza” viene usato spesso per indicare la dipendenza dal digitale, in particolare, degli adolescenti. Una dipendenza nel senso psicologico o fisico di equilibrio precario che deve essere ricostruito ogni volta più in alto.27
Sappiamo bene che quando la loro identità è in via di costruzione,28 le persone soffrono della dipendenza dai (servizi social erogati tramite) dispositivi digitali:
- controllo compulsivo delle notifiche dei social media
- condivisione continua delle rappresentazioni dell’istante
In generale:
- da un lato, un vuoto che deve essere riempito
- dall’altro, un’identità virtuale pubblica che deve essere mantenuta.
In entrambi i casi, questa dipendenza del novello Tantalo si traduce nel bisogno insaziabile di ricevere e inviare dati.
Pensiamo quindi alla dipendenza in termini di persone dipendenti dalla rete. O meglio, per non incorrere nell’errore di prima, dipendenti dai servizi digitali venduti tramite Web. Non è “internet”, non è “il web”, ma certi servizi che usano internet e/o il web per le interazioni con noi e che sono costruiti appositamente per impedirci di farne a meno. Sono servizi tossici.
Ma di questo sapete senz’altro più e meglio di me. Io invece, da filosofo prestato all’informatica, provo a fare un ragionamento diverso.
3.1 Programmi dipendenti
Vi propongo di cambiare prospettiva e applicare questo concetto – anche solo per gioco – in una maniera inaspettata. Prima di tutto, vi invito a considerare i dispositivi digitali dei soggetti. Non il “digitale” in quanto tale, ma questi particolari e univoci dispositivi che maneggiamo ogni giorno. Non perché abbiano coscienza, intelligenza, singolarità; ma perché li trattiamo da soggetti. Certo, alcuni di noi lo fanno in misura più rilevante: i bambini e i bambini un po’ cresciutelli come i programmatori. Ma tutti noi siamo affezionai ai dispositivi digitali con cui condividiamo una parte di vita. Ci dispiace spegnerli, ci dispiace buttarli e sostituirli. Ci litighiamo, facciamo pace, siamo contenti ogni mattina quando ci accolgono con la stessa ottusa allegria di un cane. Siamo sinceri: siamo noi che attribuiamo lo status di soggetti a questi oggetti. Ci basta molto poco: una lucina che lampeggia, qualche suono, il fatto che ogni tanto si impuntano. Il lessico che usiamo in questi casi è rivelatore: “non vuole, non mi lascia fare, si rifiuta, ce l’ha con me”. Soffriamo, chi più chi meno, di animismo digitale; ma meglio questo che l’idealismo digitale di cui scrivevo sopra.
Questo premesso: possiamo parlare per analogia di una dipendenza dei dispositivi stessi?
Forse i dispositivi digitali sono ancora adolescenti in cerca di identità. Anche qui troviamo controllo compulsivo delle novità e condivisione continua dello stato. I dispositivi non possono fare a meno di dire “io sono qui, tu dove sei?” e chiedere conferme in continuazione, come gli anatroccoli di Konrad Lorenz o come astronavi perse nelle spazio chiamano la base Terra.
Perché? Tecnicamente:
- per aggiornare i dati obsoleti
- per aggiornare struttura e interfaccia
- per tenere sotto controllo le dimensioni dei dati gestiti.
Ma la ragione tecnica è sempre solo una parte del discorso. I dispositivi devono dialogare tra loro non solo per ottenere, ma anche per fornire dati, in maniera trasparente per l’utente: questa è la loro ragione d’essere primaria, che ne giustifica l’esistenza. I dispositivi hanno la necessità di essere il punto dove scorre un flusso di dati continuo, in entrambi i sensi. Ne va della loro vita, anzi della loro identità. Portato all’estremo, i dispositivi non esistono per se stessi, ma sono funzioni del flusso dei dati; servono per ottenere dati, esattamente come le formiche che raccolgono semi sono funzioni del formicaio.
La cosiddetta “Internet delle cose” è proprio una realizzazione di questo modello: i dispositivi che raccolgono temperatura, pressione, umidità o numero di macchine in transito non hanno un’identità propria, ma servono a garantire un flusso di dati continuo. Flusso che a sua volta è funzionale a qualcos’altro, tipicamente un software di machine learning che senza dati è cieco.
Rapidamente l’Internet tradizionale si sta modellando sulla Internet Of Things: le app gratuite che installiamo allegramente e raccomandiamo agli amici esistono (quasi sempre) con lo scopo preciso di raccogliere e inviare dati. E’ famoso il caso di un’app gratuita che offriva funzioni di torcia multicolore ma nel frattempo raccoglieva e inviava tonnellate di dati allo sviluppatore.
Anche quando non si tratta di trappole, la connessione è ugualmente obbligatoria e costante. Ad esempio, ad ogni esecuzione, l’antivirus si “sveglia” e cerca di aggiornarsi connettendosi alla sua casa madre. Perché? Perché non può semplicemente restare com’era al momento dell’installazione?
Per le ragioni viste sopra: perché i suoi dati potrebbero non essere più adeguati al mondo che cambia, potrebbero essere nati nuovi virus le cui “firme” gli sono sconosciute. Allo stesso modo, le mappe di un navigatore devono essere aggiornate o non terranno conto delle strade chiuse per lavori, degli autovelox, del traffico. Il gemello digitale, come quello di Einstein, si distacca progressivamente da quello reale.
Ma anche se si trattasse di una territorio immutabile, non è detto che i dati possano essere installati una volta per tutte sul dispositivo insieme al resto del programma. Da progettista di software posso dire che avere tutti i dati sul dispositivo non è sempre una scelta possibile, perché l’utente che installa l’app potrebbe semplicemente non avere lo spazio sufficiente sul dispositivo; oppure perché lo costringerebbe a creare spazio vuoto buttando qualche altra cosa; oppure a comprare un nuovo dispositivo. Questo è un effetto collaterale di qualcosa che si dimentica spesso quando si parla di onlife, infosfera, cyberspazio, metaverso e simili: le risorse digitali sono finite, nel senso di non-infinite. Gli indirizzi IP,29 la memoria sui server, i domini di primo livello in Internet, sono limitati anche se vengono immaginati come infiniti. Di conseguenza, la crescita felice non è possibile.
Insomma vengono scaricati solo i dati necessari per la visualizzazione della posizione e della storia di quel particolare monumento, in quella posizione, in quel momento. Ma naturalmente ci possono essere altri filtri che vengono applicati. La mappa non è il territorio; nel senso che è il territorio per me, con i soli negozi e ristoranti che mi potrebbero interessare, o che hanno pagato per mostrarmi la pubblicità. L’interfaccia definisce ciò che esiste per noi, esattamente come il Motore di Ricerca per eccellenza ha l’effetto di cancellare dall’esistente quello che non è in grado di trovare: se non appare, non esiste.30
In tutti questi casi c’è un accordo implicito: fornire servizi basati sui dati in cambio di dati. Non solo i dati di quell’utente (per questo il modello input/elaborazione/output non è corretto): il navigatore fornisce le indicazioni sul percorso migliore sulla base dei dati di posizione e velocità forniti dai sensori sui dispositivi degli altri utenti che usano in quel momento il navigatore in quella zona. Vale anche per dati più personali come il battito cardiaco, il numero dei passi, la pressione, usati per monitorare la nostra salute e consigliarci un’attività fisica o il riposo.31
Più utenti usano il servizio, più la qualità è alta.
Più la qualità è alta, più utenti usano il servizio.
Da questa, che non è una linea ma una spirale, oltre una certa dimensione nasce il valore di mercato: i dati possono essere rivenduti a terzi, per esempio all’ente pubblico che gestisce le strade e la circolazione.
3.2 Cambio di identità
Ma c’è un’altra possibilità che giustifica la necessità di una connessione continua del dispositivo al “cloud” al di là dell’aggiornamento dei dati: ad un certo punto la struttura del programma è risultata scorretta, o imprecisa, o limitata. Le persone che usano il software hanno riportato dei bug da correggere; oppure gli sviluppatori hanno avuto dal management l’ok per apportare dei miglioramenti che non erano stati realizzati all’inizio per questioni di tempo o di risorse umane limitate; oppure gli addetti del marketing lamentano che qualche concorrente ha aggiunto la millesima funzione al suo dispositivo e il divario va colmato velocemente.
Non è qualcosa che succede raramente, oppure ogni tanto: succede sempre. E come sempre succede (non solo per i dispositivi digitali, ma anche per le teorie e i rapporti) ci sono due strade: buttare tutto o provare a riusare almeno una parte.
L’aggiornamento continuo dell’hardware sta creando un disastro ambientale che forse non percepiamo adeguatamente. Visto che è troppo complicato riciclare i componenti dell’hardware, e visto che bisogna rispettare la vecchia legge di Moore per cui ogni 18 mesi le prestazioni dei computer devono raddoppiare, ogni anno buttiamo 62 milioni di tonnellate di rifiuti digitali.32 Il fenomeno del “trashware” (il ricondizionamento di vecchi computer usando sistemi operativi liberi) è ancora troppo limitato per avere un impatto significativo sul pianeta.
Ma anche il software si ammala e deve essere buttato33 o curato. E se i rifiuti software non fanno notizia, è perché non si vedono, non sono misurabili in tonnellate e non se ne percepisce l’enorme valore negativo sull’economia e sull’ecologia. Una parte della fatica e dello dello stress che risentiamo utilizzando gli ambienti digitali deriva probabilmente proprio dall’essere costretti a comprendere e adattarsi continuamente a nuove interfacce.34 Di tutti questi aspetti naturalmente non c’è traccia nell’immagine edulcorata dell’infosfera, che fluttua libera e pulita nello spazio verso nuovi orizzonti.
In ogni caso, nella realtà non esiste software che non contenga errori: malgrado tutti i tentativi di sviluppare linguaggi e strumenti di scrittura del codice a prova di errore, i software che usiamo sono entità troppo complesse per essere verificati completamente prima di rilasciarli.35 Detto in altri termini, i software (ovvero: tutte le copie identiche dello stesso software) sono malati per costituzione e hanno regolarmente bisogno di una terapia chirurgica, che consiste nella sostituzione della parte difettosa; quindi anche la struttura va aggiornata.
Lo stesso si può dire per l’interfaccia: un certo modo di disporre icone, linee, aree, colori, ombre, un certo giorno non è più accettabile e va modificato. Questioni di pura moda, si dirà, ma che esistono e governano anche nel mondo dei dispositivi digitali. Il valore economico di questi parametri è enorme: basti pensare a quello che è riuscita a fare la società Apple inventando di fatto la “user experience”. Non occorre aspettare che l’utente si stanchi e butti programma e dispositivo: glielo si può aggiornare sotto il naso, prima ancora che se ne accorga. E’ come se il taglio dei jeans che indossiamo venisse modificato mentre camminiamo.
Naturalmente per evitare gli effetti negativi di questa malattia non si può fare conto sulla prevenzione, sulla consapevolezza e buona volontà dell’utente che periodicamente faccia manutenzione del proprio dispositivo. Non che occorra intervenire manualmente: basta sfruttare la connessione perenne e trasferire la struttura e l’interfaccia in forma di dati in tutti i dispositivi che le contengono. Bisogna perciò rendere il software capace di aggiornarsi da solo. All’utente è richiesto solo di tenere sempre aperta la connessione alla rete e di abilitare apriori l’auto-aggiornamento. E’ chiaro così che l’utente è solo una appendice del software, non il suo proprietario.
C’è un punto in cui questo aggiornamento non può più essere nascosto: si tratta del “cambio di versione”, per cui quel software mantiene il nome ma cambia numero.36 Da quel punto in poi, fa migliaia di altre cose ma, ahimè, non funziona più come prima. E’ come avere un brutto frullatore che entra in un bozzolo (l’aggiornamento) e ne esce come splendida lavatrice. E’ il software di prima e insieme non è più quello. Questo è ovviamente preoccupante soprattutto nel caso di software proprietario: ho scelto e comprato qualcosa e mi ritrovo con qualcos’altro, ma non ho modo di sapere esattamente cos’è. Una rosa è una rosa è una… cosa?
In fondo è lo stesso passaggio a cui stiamo assistendo per le intelligenze artificiali generative: un motore di ricerca tradizionale (che è una specie di Oracolo che fornisce risposte ad enigmi) viene trasformato in un assistente personale (che è una specie di Aedo, che inventa storie nuove andando a pescare nella memoria della comunità). Un cambiamento sottile che è l’effetto non di un progresso naturale ma di miliardi di dollari di investimenti. L’Oracolo deve rispondere solo la verità, anche se occorre del lavoro interpretativo per apprezzarla; invece l’Aedo risponde sempre, ma non è detto che le sue risposte siano attendibili. Usare un servizio di Intelligenza Generativa come se fosse un motore di ricerca è allettante ma pone sicuramente dei problemi, se non altro per le persone più fragili che non sono in grado di verificarne le produzioni.37
Viene voglia di dire: certo, è la natura del digitale quella di essere flessibile, plasmabile, trasformabile all’infinito. Ma non è “il digitale”; è questa specifica forma che è stata concepita e realizzata come un iper-cavallo di Troia, un cavallo matrioska che può contenere altri cavalli.
3.3 Dimensioni e intelligenza
Dicevamo che la materia, a differenza della forma, ha dei limiti. I servizi basati sul machine learning devono necessariamente affrontare la questione della limitazione delle dimensioni, oltre a quella dell’aggiornamento dei dati e dell’autoterapia. Sono software che funzionano bene solo se hanno grandi moli di dati dietro. La loro natura statistica ne rende l’efficacia proporzionale alla quantità di dati acquisiti, ripuliti, marcati e strutturati in un modello.38 Ovviamente per costruire questi grandi laghi di dati occorre prenderli da qualche parte, cioè dove li mettiamo noi: da Wikipedia, da Instagram, oppure dai dispositivi che usiamo quotidianamente.
Tuttavia non si può immaginare di distribuire questi oggetti enormi. Ma come scrivevo sopra, dati struttura e interfaccia non devono stare necessariamente sullo stesso dispositivo fisico. Il termine “cloud” nasconde appunto questa diversa collocazione: dati e struttura possono essere segmentati e distribuiti su macchine, fisiche e virtuali, differenti e distanti. Il concetto chiave è quello di Application Programming Interface (API): dei rubinetti remoti a cui ci si può rivolgere per avere servizi.
Non è pensabile che un semplice smartphone contenga tutte le risorse necessarie per addestrare e far girare un Large Language Model. Di conseguenza, tutti questi servizi sono fatti di due parti: una complessa, su giganteschi computer di proprietà del gestore del servizio, e una più semplice, sul minuscolo dispositivo fisico che abbiamo in mano. In mezzo, le API.
Quella che oggi chiamiamo “intelligenza artificiale generativa” corrisponde ad una distribuzione di dati, struttura e interfaccia in cui la sola interfaccia (testuale) è accessibile, tramite browser che apre una pagina web (il “prompt”), com’era una volta ai tempi dei mainframe e dei terminali “stupidi”. Il resto sta “nel cloud”, che è il modo per dire che non sono affari nostri.
Ma questo è solo uno dei molti modi possibili. Pensare che questa sia l’essenza del nostro rapporto con le intelligenze generative (fino al punto di inventare e proporre “didattiche conversazionali”) è francamente ingenuo.39
Cominciano ad esserci delle varianti a questo schema, in termini di distribuzione diversa di interfaccia, struttura e dati tra i “nostri” dispositivi e quelli remoti; ne vedo almeno tre.
1. La prima è la variante per gli smanettoni: sono disponibili dei modelli di dimensioni limitate (pochi Gigabyte), scaricabili su un PC di fascia alta, insieme a librerie opensource capaci di eseguire i modelli.40 I dati originali e i parametri di training ovviamente non sono accessibili ma questo al programmatore medio non importa: non è un fan a tutti i costi della libertà al di sopra dell’utilizzabilità.
2. Una seconda, più recente, è dedicata ai programmatori “pigri”: i servizi vengono forniti in forma di librerie che si connettono alle API dei modelli e permettono di inserire funzionalità “intelligenti” nelle applicazioni. Per esempio, l’ultima versione della piattaforma di e-learning Moodle è dotata di AI-Subsystem, che consentirà agli amministratori di sfruttare i servizi di ChatGPT all’interno dei corsi. Ma ad un livello più fine, anche gli editor di testo che vengono inglobati come componenti dentro le altre applicazioni forniscono già le funzionalità “creative”.
3. La terza è la variante per le persone normali, gli utenti finali: le interfacce cominciano ad essere specializzate. Non più semplici finestre per scrivere prompt, ma funzioni secondarie di altri software. I software tradizionali per la produttività personale (un word processor, un foglio di calcolo, un presentatore di slide, un editor di immagini o di video) vengono dotati di ganci per accedere in maniera trasparente ai servizi intelligenti remoti e tramite questi ottenere la traduzione di un testo, realizzare schemi grafici o immagini da inserire nel proprio documento, scrivere frammenti di codice sorgente a partire dalle specifiche eccetera. Niente più dialogo socratico, ma una voce di menù tra le altre. Presto avremo un servizio equivalente in altri campi: il navigatore, il client di posta, il browser personalizzato che ci proporranno itinerari personalizzati sulla base dei nostri gusti, riscriveranno in maniera efficace le nostre email, sintetizzeranno e tradurranno le pagine web senza bisogno che le leggiamo.
Ci sono differenze tra queste varianti, in termini di valore di mercato, di potere residuo all’utente, di trasparenza. Non c’è bisogno di essere troppo luddisti, a mio parere, per immaginare che la direzione di sviluppo non è quella di evitarci i compiti burocratici e ripetitivi e lasciarci il tempo per filosofare, ma quella di permettere all’azienda o all’ente pubblico di risparmiare facendo a meno di certi ruoli secondari, in particolare nel campo della scrittura e della comunicazione in generale.
In ogni caso, perché questi servizi siano in grado di modellare il mondo (in termini di discorsi, di immagini, di suoni) devono essere nutriti continuamente di enormi quantità di dati. Ai dati che i servizi forniscono ai dispositivi – sotto forma di prodotti creativi – corrispondono dati che vengono restituiti nell’altra direzione a chi fornisce il servizio “intelligente”.
L’intelligenza artificiale è connessione, ma non nel senso immaginato da Pierre Lévy.
4. E dunque?
In chiusura, tre piccole constatazioni e una possibilità.
1. Tutti i computer, anche quelli nascosti nelle lavatrici, sono dipendenti dai dati che vanno e vengono da altri computer.
I dispositivi digitali sono funzionali a soddisfare l’insaziabile fame dei dati dei grandi modelli che simulano il mondo, quelli che oggi chiamiamo “intelligenze artificiali”.
2. L’identità di questi dispositivi (o meglio, le diverse identità di tutti i software che coesistono dentro questi dispositivi) è ridefinita in continuazione.
Dove noi vediamo dispositivi sostanzialmente statici, c’è un brulichio continuo di tentativi di connessione, un dialogo tra soggetti che arriva fino a modificarne l’identità a forza di sostituzioni.
3. Questo processo è trasparente e spesso fuori dal nostro controllo. Noi non siamo proprietari dei nostri software.
Quando installiamo un’applicazione (o acquistiamo un dispositivo dove è già installata) non diventiamo proprietari di niente: al massimo potremmo parlare di adozione.
Ma gli errori che ho evidenziato nella prima parte mi permettono, oggi, di riconoscere che non c’è nessuna naturale necessità di sviluppo in una certa direzione. Se non era necessario che i software si sviluppassero naturalmente per diventare sempre più attenti e adatti alla persona che li usa (e infatti non sempre lo hanno fatto), non è nemmeno necessario che diventino delle appendici alla ricerca di dati per nutrire i grandi frullatori che vivono negli spazi siderali del cloud. E’ possibile, persino probabile, ma non necessario.
Se il Digitale è uno spettro che non esiste, esistono però tante pratiche diverse, alcune delle quali magari poco conosciute e di nicchia. Per esempio, quasi nessuno sa che esistono motori di ricerca, calendari condivisi, elaboratori di testo e persino sistemi di videoconferenza alternativi a quelli che che oggi usiamo come se fossero frutti naturali dell’Eden digitale.41
Ci sono tentativi di sviluppare applicazioni di intelligenza artificiale collettiva, dal basso, in maniera democratica.42
Se non vogliamo portarci a casa un frullatore per vederlo trasformato in lavatrice, magari dobbiamo scegliere una marca di frullatore diversa, e prenderci cura di lui.43
Il punto è sempre quello dell’autonomia, della capacità di distacco, della decisione di riservarsi sempre la possibilità di scelta; ovvero della nostra voglia di rispondere alla richiesta:
“This software is going to be updated. Proceed?”
con un:
“I would prefer not to”.
5. Riferimenti bibliografici
Trovate raccolti qui una parte dei testi apparsi in Italia negli anni ’90 – per la precisione tra il ’92 e il 2001 – che introducono i concetti discussi nella prima parte di questo contributo. Non è facile reperirli e paradossalmente non esiste un’edizione digitale.
T. Nelson, Literary machines 90.1. Il progetto Xanadu. Franco Muzzio Editore, Padova 1992
J. D. Bolter, Lo spazio dello scrivere. Computer, ipertesti e storia della scrittura. Vita e pensiero, 1993.
T. Maldonado, Reale e virtuale. Feltrinelli, 1993
S. Penge, Io bambino, tu computer. Anicia, 1993.
S. Penge, “Virtualità del reale”. In: R. Maragliano, O. Martini, S. Penge, I media e la formazione. La Nuova Italia Scientifica, 1994
S. Penge, Storia di un ipertesto. Leggere, scrivere e pensare in forma di rete, La Nuova Italia, 1996.
P. Levy, L’intelligenza collettiva. Per un’antropologia del cyberspazio. Feltrinelli, 1996
G. Rawlins, Le seduzioni del computer. Il Mulino, 1997
P. Lévy, Il virtuale. Raffaello Cortina, 1997.
G.P. Landow, L’ipertesto: tecnologie digitali e critica letteraria. Bruno Mondadori ed., 1998.
G. O. Longo, Il nuovo golem. Come il computer cambia la nostra cultura. Laterza, 1998.
N. Negroponte, Essere digitali. Sperling&Kupfer, 1998.
A. Cecchini, Meglio meno, ma meglio. Automi cellulari e analisi territoriale. Franco Angeli, 1999.
C. Stoll, Confessioni di un eretico high-tech. Garzanti, 2001
D. Parisi, Simulazioni. La realtà rifatta al computer. Il Mulino, 2001
Note
1Come diceva un informatico teorico molto famoso, Edsger Wybe Dijkstra: “l’informatica non riguarda i computer più di quanto l’astronomia riguardi i telescopi”.
2Questo approccio può ricordare l’ottimismo futuribile d Nicholas Negroponte in “Being digital” (1995). Va detto però che il creatore del MIT descriveva il digitale dall’esterno, in termini di effetti sociali, mentre io cercavo di descriverlo dall’interno, in termini di possibilità da sfruttare.
3D’altra parte il mio percorso filosofico era fortemente legato all’operazionalismo di Percy W. Bridgman.
4All’epoca non sapevo, chiuso com’ero nel bozzolo italiano della ricerca sulle applicazioni educative dei computer, che una distinzione simile era alla base del modello architetturale Model/Controller/View, nato nei laboratori Xerox di Palo Alto negli anni ’80 e che a partire dagli anni 2000 sarebbe diventato uno standard di progettazione dei software.
5Sugli usi educativi delle simulazioni lavoravano in quegli stessi anni Domenico Parisi e Arnaldo Cecchini, solo per fare due nomi noti a tutti. Non necessariamente i modelli devono essere enormi.
6Si capirà quindi perché curo una piccola collana per Anicia (https://www.anicialab.it/coding/) che indaga gli usi educativi del coding al di là delle banalità sui gattini e sulla preparazione dei futuri informatici.
7Qualche decina di anni più tardi questo è diventato un tema di ricerca più comune. Vedi ad es. Abrahão, S., Insfran, E., Sluÿters, A. et al. Model-based intelligent user interface adaptation: challenges and future directions. Softw Syst Model 20, 1335–1349 (2021). https://doi.org/10.1007/s10270-021-00909-7
8Per esempio avevo lavorato a WinScribo, un word processor per bambini che partiva da un’interfaccia minimalissima ma permetteva di modificarla e aggiungere funzionalità man mano che il bambino diventava più sicuro e curioso.
9Un piccolo elenco di questi riferimenti è in fondo al contributo.
10Ho collaborato con l’LTA dal 1992 al 1999. Devo molto a quel periodo aureo e ho provato a descriverlo più volte, sia in maniera romanzata che realistica. Si trattava di uno spazio libero in cui convergevano competenze e passioni diverse e in cui era possibile sperimentare e creare software ma anche animazioni e video. Da quell’esperienza, insieme con alcuni colleghi (Maurizio Mazzoneschi, Pino Moscato, Romano Vallasciani, Felice Zingarelli) è nata una “startup”, Lynx, che ancora per tanti anni ha mantenuto questo carattere di libertà creativa.
11Niente impedisce di immaginare e realizzare computer a base ternaria anziché binaria (https://it.wikipedia.org/wiki/Calcolatore_ternario), ma che non per questo sarebbero più creativi.
12Può essere interessante leggere il paragrafo dedicato al digital labour in C. Milani, V. Garcia. “L’evoluzione dell’Intelligenza Artificiale: dall’automazione del lavoro al condizionamento reciproco”. Mondo Digitale, 2-2023. https://mondodigitale.aicanet.net/2023-1/ARTICOLI/02_AI-automazione_Milani.pdf
13Di sicuro non la vedono come una Technologie, secondo la definizione articolata da Roberto Finelli riprendendola dai Grundrisse nel suo Filosofia e tecnologia. Rosenberg & Sellier, 2022. pag. 76-104.
14https://www.stefanopenge.it/wp/strumenti-digitali-usati-analogicamente/
15Con Marco Guastavigna: https://www.stefanopenge.it/wp/tecnologie-digitali-per-lo-sviluppo-umano/
16Una prospettiva storica sulla nascita del termine “digitale” e sul ruolo che hanno avuto Negroponte e la sua rivista Wired si può trovare in questo articolo di Thomas Haigh, We have never been digital. Commun. ACM 57, 9 (September 2014), 24–28. (https://dl.acm.org/doi/pdf/10.1145/2644148)
17In passato, visti i costi dell’uso di un mainframe, quella pratica aveva senso. Si legga questa bell’intervista a Elsie Shutt a proposito del suo lavoro e della sua impresa di programmatrici negli anni ’50: https://ethw.org/Oral-History:Elsie_Shutt
18In Italia a partire almeno da “L’algoritmo al potere” di Francesco Antinucci (Laterza, 2009) che però aveva un intento critico.
19https://www.stefanopenge.it/wp/ancora-sugli-algoritmi/
20Si potrebbe dire che la differenza tra l’opensource e il software proprietario è tutta lì: chi scrive software chiuso assume che il valore sia nel prodotto finito, chi scrive software aperto ha fiducia che il valore sia nella competenza dimostrata nello scriverlo. Un po’ diverso il discorso per il software libero.
21Un osservatorio su usi e abusi dei termini principali del discorso sull’IA è mantenuto da Marco Guastavigna nel suo blog https://concetticontrastivi.org/category/intelligenza-artificiale/
22Il titolo di questo capitolo rovescia quello di un capitolo del volume “I media e la formazione” (La Nuova Italia Scientifica, 1994), in cui grossomodo sostenevo invece che virtuale è reale.
23Il software che esplora il web alla ricerca di nuovi contenuti da indicizzare si chiama “spider” o “crawler” (insetto che striscia). Il primo è stato battezzato “worm” dal suo autore, Oliver McBryan, nel 1993.
24Il riferimento è all’immagine di Carelman (dal suo “Catalogo di oggetti introvabili”) che campeggia nella copertina di “La caffettiera del masochista” di Donald Norman, edizione italiana del 1996. Trovo la traduzione italiana del più freddo titolo originale “Psychology of Everyday Things” davvero geniale.
25Un tempo artificiale e “sbagliato”. Forse non è noto a tutti che il tempo usato in Internet (UTC), basato su orologi atomici, non è identico al tempo astronomico (GMT), che è calcolato sulla rotazione della Terra.
26Con le parole di qualcuno più attendibile di me: “Quello che ho scoperto è che i tipi di interattività e intelligenza incorporati nei dispositivi che usiamo ogni giorno non sono gli unici possibili. Quelle che oggi consideriamo caratteristiche inevitabili e naturali del panorama digitale sono in realtà il risultato di feroci lotte di potere tra opposte scuole di pensiero. Oggi sappiamo che la Silicon valley alla fine ha scelto il percorso più conservatore. L’Homo technologicus rispecchia l’Homo economicus moderno, che apprezza la razionalità e la coerenza ed evita la flessibilità, la fluidità e la casualità. I sistemi tecnologici personalizzati di oggi, un tempo strumenti degli anticonformisti, è più facile che restringano le nostre opportunità di essere creativi invece di espanderle.” E. Morozov, Internazionale (origine: Financial Times, 5 Settembre 2024). https://www.internazionale.it/magazine/evgeny-morozov/2024/09/05/il-futuro-che-potevamo-avere
27Come parecchi dei concetti che usiamo oggi, anche questo nasce negli anni ’90 con le ricerche di Kimberly Young all’Università di Pittsburg a Bradford.
28Anche da adulti, non possiamo fare più a meno del navigatore, del motore di ricerca, del supermercato globale. Cominciamo ad affezionarci all’assistente vocale e al confessore virtuale. Abbiamo bisogno di essere ascoltati e amati senza critiche, di tornare bambini ma con dei genitori compiacenti.
29Non è solo una questione di hardware: per come è stato definito il protocollo TCP/IP, ci sono solo 4,2 miliardi di indirizzi IPv4 teorici, che sono appena sufficienti già ora.
30Di qui l’importanza dei dati aperti, che dovrebbero il linea di principio permetterci di utilizzare la versione non filtrata, e dell’acquisizione delle competenze necessarie per estrarli ed elaborarli, come provo a sostenere in Dati, cittadinanza e coding, Anicia, 2021.
31Come racconto, fantasticando, qui: https://www.stefanopenge.it/wp/smart-breath/
32Val la pena di leggere il rapporto 2024 sugli e-waste: https://globalewaste.org/ .
33Una ricerca del Pew Research Center, un’organizzazione indipendente statunitense, ha riportato che il 38% delle pagine web sono scomparse negli ultimi 10 anni: https://www.pewresearch.org/data-labs/2024/05/17/when-online-content-disappears/
34Ad esempio, si veda lo studio di B.De Carolis et al., Analyzing Stress Responses Related to Usability of User Interfaces. Proceedings of the 15th Biannual Conference of the Italian SIGCHI Chapter (CHItaly ’23). https://doi.org/10.1145/3605390.3605399
35Gregory Rawlins nel 1996 dedicava ai danni prodotti dagli errori contenuti nei software ben 17 pagine sulle 200 dell’edizione italiana del suo “Le seduzioni del computer”.
36Questo sistema non è naturale, ma ha una storia: è stato usato per la prima volta per il sistema operativo TENEX dei computer PDP-10 all’inizio degli anni ’70.
37E’ quello che si propone di fare Google, almeno ad ascoltare Sundar Pichai nel suo discorso sull’Era Gemini: https://blog.google/inside-google/message-ceo/google-io-2024-keynote-sundar-pichai/
38Di conseguenza, si può permettere di averne il controllo solo chi ha a disposizione risorse smisurate: di calcolo, di potenza elettrica, umane. Big data, big companies.
39Alcune tesi critiche relative all’attuale discorso sulla cosiddetta “Intelligenza Artificiale Generative” le potete leggere (e se volete, sottoscrivere) qui: https://www.licia.org/manifesto/
40Come https://www.nomic.ai/gpt4all. La questione del significato di “apertura” per i software e dati che stanno sotto il cappello dell’intelligenza artificiale è però ancora controversa. Si veda il tentativo di darne una definizione: https://opensource.org/deepdive/drafts/open-source-ai-definition-draft-v-0-0-9
41Alcuni di questi servizi sono offerti dall’associazione francese Framasoft https://framasoft.org/it/
42Come propongono, in maniera utopica, Stefano Puglia e Davide Lamanna in “Decrescita digitale nell’era
dell’intelligenza artificiale Big Tech”: https://quadernidelladecrescita.it/2024/08/25/decrescita-digitale-nellera-dellintelligenza-artificiale-big-tech/
43Per quanto l’espressione possa sembrare curiosa, fa parte del lessico della “pedagogia hacker”. Vedi il lavoro di CIRCE e in particolare questo articolo di Stefano Borroni Barale e Rinaldo Mattera: https://circex.org/it/news/pedagogia-hacker-educazione-aperta