Centro San Domenico

Piazza San Domenico 12

40124 BOLOGNA

tel. 051 581718



http://www.csdricerca.com/




Bologna, 17 gennaio 2022


Agli amici degli

Incontri Interdisciplinari


Carissimi,

ci rivedremo lunedì 24 gennaio, alle ore 21, presso il Convento San Domenico, che ci ospiterà nella sua “sala del fuoco”, cui si accede da Via San Domenico 1.

Animerà l’incontro il prof. Gabriele Falciasecca, che ringraziamo a nome di tutti, sul tema:

informazione come modificazione”.

Dobbiamo incontrarci nel pieno rispetto delle norme contro il contagio da coronavirus: certificato verde e mascherina per accedere.

La sala è grande, ma il rispetto delle distanze impone un limite alle presenze. Le norme prevedono la necessità di prenotarsi: fatelo entro il venerdì precedente, 21 gennaio, per poter avvisare gli altri se il limite è stato raggiunto.

Vi preghiamo di ottemperare a questo obbligo, con un sms o inviando una mail a padre Sergio Parenti.

C’è anche la possibilità di partecipare on-line tramite Google-Meet. Si deve avere un account Google (è gratuito). Anche in questo caso, ma solo per chi non ha ancora partecipato in questo modo, è indispensabile prenotarsi, via mail, a padre Sergio Parenti, sempre entro il venerdì 21, per ricevere il collegamento (link). Il collegamento verrà inviato alle 20,50.



In attesa di incontrarci, un cordiale saluto



fra Giovanni Bertuzzi O.P.        fra Sergio Parenti O.P.





Breve resoconto dell’Incontro Interdisciplinare del 24 gennaio 2022

a cura di fra Sergio Parenti O.P.



FALCIASECCA - All’inizio degli anni ‘90, ad un gruppo di lavoro sulla “informazione” in cui partecipavo con esperti di varie discipline, c’era anche Giorgio Prodi, che partecipava non solo in quanto oncologo, ma in quanto studioso di semiosi. Le sue idee, a proposito del campo biologico, influirono sul mio lavoro successivo a proposito della informazione in campo artificiale. Le note di lavoro che vi ho mandato risentono però della mia riflessione, maturata successivamente.

Il punto fondamentale è che non c’è passaggio di informazione o acquisizione di informazione senza che ci sia una modificazione. Ho poi distinto tre operazioni: acquisizione, comunicazione ed elaborazione.

Occorre uno stimolo, che arriva dall’ambiente naturale o da un altro vivente, che provoca una modificazione in chi acquisisce l’informazione. Questo vuol dire che questi ha una struttura adattata a quello stimolo: per lui quello stimolo diventa un segnale, perché lo fa distinguere dal “rumore” degli altri stimoli. L’osservatore si modifica in qualche cosa, ma si modifica anche l’oggetto che ha mandato lo stimolo, mandandolo. Questa comunicazione può anche avvenire attraverso uno strumento, la cosa non cambia. Per esempio: un sensore all’infrarosso ci consente di far diventare segnale qualcosa che non lo era, in quanto l’infrarosso per noi non è visibile.

Però potremmo anche fidarci dello strumento, mettendo in questo una elaborazione che faccia distinguere, ad esempio in un allarme all’infrarosso, un intruso. Il passaggio è delicato: la prima modificazione avviene nello strumento, poi lo strumento si relaziona con noi comunicandoci qualcosa, ed in noi avviene una modificazione ulteriore. Dalla natura arrivano segnali per cui l’informazione passa a noi come elaborata dallo strumento. Perché il passaggio è delicato? Perché noi non siamo in grado di controllare lo strumento: ha deciso lui se c’è o non c’è l’intruso. Noi ne prendiamo atto. La nostra modificazione è avvenuta attraverso qualcosa che ci toglie qualcos’altro. Questo è ciò che ho sviluppato nel mio libro “Dopo Marconi il diluvio”. Quando la macchina acquisisce l’informazione la elabora, magari comunicando con altre macchine, e ci dice il risultato, come fa il navigatore dell’automobile; noi restiamo l’attuatore di ciò che ci dice la macchina. Ma non siamo in grado di controllare il processo fatto dalla macchina: anche quando fosse possibile, sarebbe troppo complesso e dovremmo servirci di altre macchine.

Tornando al discorso naturale (nell’artificiale c’è l’uomo dietro alla progettazione dello strumento), ci interroghiamo sul progetto: ad esempio perché l’occhio non sia fatto per l’infrarosso. Si parla di bio-semiosi. Certe modificazioni dell’oggetto sono tali che non lo cambiano veramente: perde un poco di energia che magari riacquista in altro modo. In questo caso all’esterno c’è un ambiente stabile. Piano piano, per successive modificazioni nell’evoluzione, le strutture che sono in grado di accogliere gli stimoli e farne dei segnali si formano. A livello primordiale, dice Prodi, c’è il batterio, che riconosce il substrato che gli serve per sopravvivere e, se è in grado di muoversi, lo va a cercare per metabolizzarlo. Piano piano la presenza di una realtà esterna abbastanza stabile (se non è stabile è un caos) ha formato le varie strutture che gli osservatori usano per far diventare degli stimoli dei segnali. L’occhio si presta molto bene come esempio, perché non c’è “un” occhio, ma ci sono tanti occhi: gli occhi sono molto diversi tra i viventi, e così pure le orecchie, a seconda delle strategie di sopravvivenza delle singole specie. Questo processo di aggiustamento della struttura osservante, che fa diventare uno stimolo un segnale, è avvenuta in modi diversi. Gli insetti hanno occhi dalle strutture strane, ma è quella che loro serve. Man mano che si sale nella scala evolutiva, i viventi hanno messo in campo strutture via via più complesse per elaborare gli stimoli che provengono dall’ambiente, quasi che l’ambiente, abbastanza stabile, producesse lui le strutture che poi serviranno ad interpretare l’ambiente stesso. Quando si arriva all’uomo abbiamo l’apoteosi della capacità di acquisire segnali dall’ambiente, ma tutto è nato molto dal basso. Dov’è che finisce questo processo? Un sasso che rotola dalla montagna si modifica, ma senza partecipare a questo processo informativo. Esiste informazione senza che esista un essere vivente? Ci può essere informazione nella natura senza che ci sia un osservatore che interpreta? Quando qualche cosa è diventata significativa per un’altra ed è cominciato questo processo informativo?

Nell’ambiente naturale ci sono stimoli, ma per avere un segnale ci vuole un osservatore che abbia la “chiave” giusta per “aprire quella serratura” (così diceva Prodi). Inoltre l’osservatore deve avere una struttura tale da mantenere, anche dopo che è stato modificato, lo stimolo diventato segnale. Noi, se scaviamo a fondo, abbiamo difficoltà a definire un vivente. Una macchina capace di riprodursi sarebbe vivente?

La conoscenza è una sublimazione del processo che produce con l’acquisizione di informazioni elementari. In base all’insieme dei segnali che ci arrivano dai sensori che abbiamo ci creiamo la nostra rappresentazione del reale, che è del tutto dipendente dai sensori che abbiamo e dalle informazioni che ci arrivano. La vista è importantissima per noi; altri viventi hanno olfatto e udito altrettanto preponderanti e, se potessimo entrare nella testa di un cane per capire come lui si rappresenta il mondo, vedremmo che la sua rappresentazione del mondo è molto diversa dalla nostra; ma a lui va benissimo, perché è quella che gli serve per campare.

Questa rappresentazione del mondo dipende non solo dai sensori, ma anche dalle strutture interne che si sono costruite via via nella sua vita per elaborare l’informazione in un certo modo. Noi abbiamo un’area del cervello destinata al linguaggio, ma se non viene fatta un’esposizione del bambino a stimoli di linguaggio entro un certo numero di anni, quella struttura, dopo, non funziona più. Lo stesso vale per altri stimoli che ci arrivano dall’ambiente. La nostra rappresentazione del mondo dipende da questo.

Quando vediamo da lontano una persona, anche se non la vediamo bene la riconosciamo. Così riconosciamo una persona che non vedevamo da anni, anche se è cambiata, con l’elaborazione che riusciamo a fare di quanto abbiamo nella memoria. La terza dimensione, la profondità, non esiste nell’immagine che ci viene dai due occhi, che portano un’immagine bidimensionale, ma la facciamo nel cervello elaborando la differenza lievissima di parallasse. Diciamo di conoscere un tavolo: nel passato una delle cose più difficili era far capire ad un computer che “questo è un tavolo”. Noi non riusciamo ad elencare tutte le caratteristiche che deve avere un tavolo per poter dire: “questo è un tavolo”. Vedo il tavolo, non la “tavolinità” (per citare Platone). Così, facendo vedere ad una macchina tanti tavoli, cerchiamo di fargliene riconoscere un altro; non avendo potuto definire a priori la tavolinità, capita che la macchina sbagli, come sbagliamo anche noi. Inoltre noi non possiamo dire di conoscere un tavolo se non sappiamo quale interesse abbiamo di conoscerlo. Se è per metterlo in una sala da pranzo, ci bastano le sue dimensioni. Invece un falegname, se deve fare una copia di un tavolo, deve osservare moltissimi particolari. Se poi osserviamo il tavolo al microscopio elettronico vediamo altre cose che però non ci interessano. Lo scopo della conoscenza è l’unica maniera che abbiamo per dire che, ad un certo livello, noi abbiamo conoscenza di una certa cosa. Ci accontentiamo, senza avere una conoscenza completa di tutti i punti di vista possibili.

Sulla “intelligenza” sono andato a riprendere il discorso di Alan Turing. Il problema dell’intelligenza artificiale è che noi non sappiamo che cosa sia l’intelligenza naturale. Noi ne abbiamo una, i cani ne hanno un’altra… Possiamo dire che è intelligente uno che ha la stessa nostra intelligenza. Turing usa la parola “pensare” e dice di far interagire una macchina con uomini: se l’uomo non riesce a distinguere la macchina, diremo che essa è intelligente. Si tratta di una misura per sostituzione, metodo usato in fisica. Come facciamo a sapere che un altro uomo è intelligente? Gli chiediamo di fare qualcosa che sappiamo fare: se non ci riesce, diciamo che non è intelligente. Ma l’intelligenza che cos’è? La capacità di rispondere, secondo la media, ad un test? Faggin diceva che la mente umana non è clonabile. Quindi non possiamo sapere, se non in maniera molto limitata, attraverso la comunicazione, che cosa succede dentro al cervello di un altro. Per questo motivo nell’ultimo libro ho tolto la parola “intelligenza” e ho parlato di utilizzo più o meno avanzato delle proprie azioni. Cerchiamo di far fare ad una macchina una serie di cose che noi consideriamo cose da persona umana intelligente: riconoscimento di un rumore, di una pericolosità, di un parlato da mettere in uno scritto … Ci sono macchine che intrecciano le tre operazioni dell’informazione per ottenere certi risultati. Non voglio dire che se una macchina è capace di ottenere n risultati che anche l’uomo è capace di ottenere, allora è intelligente. Mi accontento di dire che la macchina è una SINCO (sistema informativo completo, così l’ho chiamata): capace di imparare, fare operazioni, acquisire informazioni in un certo modo, comunicare con noi. Il SINCO è definibile, la macchina intelligente la lascio lì. Molti studiosi di Intelligenza Artificiale sono molto più interessati, come me, a capire come si possano fare le funzioni, che non ad attribuire a quella funzione il cosiddetto “comportamento intelligente”.

Venendo al discorso dibattuto sulla meccanica quantistica e l’osservatore, la meraviglia è piuttosto che ci sia qualcosa che, quando viene conosciuto, non viene alterato: se ha dato informazione deve subire modificazione. L’oggetto osservato, normalmente, si modifica. Può sembrare sconvolgente che, a seconda di come osserviamo l’elettrone, ci mostri un comportamento ondulatorio oppure particellare. Semplicemente: abbiamo fissato dei punti di vista che non possiamo usare contemporaneamente; ed una volta che ne abbiamo usato uno, non possiamo più usare l’altro, perché l’oggetto si è modificato. Si potrebbe proseguire facendo vedere che a livello teorico generale tutta la nostra conoscenza è probabilistica. In alcune circostanze possiamo avere leggi deterministiche, ma la situazione più normale è quella di avere a che fare con conoscenze che non ci dicono esattamente “succederà questo”, ma che c’è una certa probabilità che succeda: tutto il mondo della comunicazione digitale è basata su questo concetto.

JULVE - Necessariamente o no, si devono modificare il ricevente ed il mittente dell’informazione. A volte lo stimolo naturale viene semplicemente amplificato, ma quando gli strumenti fanno una trasduzione del segnale (es.: nel passaggio dal sensore ad infrarosso al segnale acustico o ottico) l’evoluzione dello stimolo è comunque con una forma analogica. Questo lei ha detto nel suo contributo. Nel paradigma quantistico ogni scambio di informazione tra un atomo ed un altro è attraverso dei mediatori, cioè una emissione di fotoni: uno emette e l’altro riceve. La forma è analogica, anche se i fotoni sono quantizzati (non posso emettere una frazione di fotone). Ma essendo particelle mediatrici a massa nulla (fotoni, gluoni, ipotetici gravitoni…), posso inviare particelle con energia bassa quanto voglio: il sistema è analogico.

FALCIASECCA - Io usavo “analogico” pensando alla teoria dei segnali ed alla scala mesoscopica: un conto è che l’uomo abbia il controllo del segnale-stimolo così come arriva, un conto è invece che riceva solo la forma elaborata. Il radar tradizionale permette di “vedere” l’eco di una massa metallica lontana che l’occhio non arriva a vedere; ma c’è un radar più evoluto che osserva gli aerei e le auto che si muovono nell’area aeroportuale e ne dà una certa rappresentazione all’operatore. Questi era in grado, vedendo il segnale, di capire anche che tipo di aereo fosse quello che stava rullando. Il segnale era analogico nel senso che portava maggior informazione rispetto ai radar tradizionali che davano solo un segnale di “sì o no”. In questo senso parlavo di “analogico”. Una videocamera all’infrarosso mi manda un segnale che cerca di riprodurre più fedelmente possibile quello che vedrei se avessi una vista all’infrarosso. Ma una videocamera digitale mi elabora il segnale. Non intendevo parlare del problema che in natura noi vediamo un continuo, mentre in realtà non è così.

JULVE - Io volevo dire che c’è l’analogicità del continuo anche in ambito quantistico. Inoltre si è detto che lo strumento di osservazione è caratterizzato da uno scopo che seleziona quello che interessa. Noi usiamo i sensi primari scegliendo quello che ci interessa per la sopravvivenza: lunghezze d’onda per la vista, frequenze per l’udito … Poi si è introdotto il concetto degli strumenti mediatori. Lei dice che l’uomo è colui che determina lo scopo dello strumento, ed in questo senso lo strumento non è mai autonomo, ma risponde al suo progettista. In altri incontri si era parlato del collasso della funzione d’onda: si era detto che per causare il collasso non importa la conoscenza, ma basta un computer o uno strumento. Ma lo strumento risponde al progettista: allora, anche se non c’è il progettista che sta ad osservare, basta la presenza dello scopo. Infine mi ricordo le tre leggi della robotica di cui parla Asimov. Tramite i test di Turing, come potrebbe fare una macchina a distinguere se ha di fronte un umano o un altro robot?

FALCIASECCA - Il test di Turing inverso è proprio questo: come fa una macchina a distinguere un umano? Qui siamo in una storia di guardie e ladri: si fa un test che viene superato da macchine più complicate ed allora si propone un ulteriore test ancora più complicato … Nel campo della sicurezza il problema resta aperto; nella teoria dei codici crittografici si dice non esiste un codice che non si possa rendere inefficace. Si usano codici che valgono per un breve tempo, per evitare che diventino superati.

JULVE - La speranza di poter affidare ad un computer la scoperta delle fake-news è inutile?

FALCIASECCA - Si fa già. L’affidabilità è abbastanza alta, ma non perfetta.

CASADIO - Sapevo che si rintracciava la sorgente delle informazioni per vedere se è attendibile.

FALCIASECCA - Lo si fa. Ma ci sono anche altri criteri.

JULVE - Si parlava di modifica minima inevitabile in uno scambio di informazione. Quando si tratta di informazione digitale il discorso è chiaro: per trasmettere un bit c’è sempre un minimo di energia coinvolta. Ma nello scambio analogico c’è una soglia minima?

FALCIASECCA - Che sappia io, no. In campo analogico c’è molta arbitrarietà, mentre in campo digitale c’è il teorema di Shannon. Per il segnale telefonico si sono fatte prove per vedere se, oltre a capire il messaggio, si potesse riconoscere anche l’autore. In campo digitale questo riconoscimento si fa anche attraverso una serie di protocolli. Sull’autenticazione, quando si usavano le trasmissioni Morse, c’era la cosiddetta “firma” dell’operatore, perché ognuno aveva il suo modo di battere il tasto. Quando si sono studiati i compressori per ridurre il bit-rate dei segnali vocali, per decidere a che punto fermarsi si è ricorsi ancora una volta al metodo di far valutare la qualità del segnale dagli uditori.

CASADIO - Chi riceve l’informazione si adatta a quell’informazione. Quando ricevo qualche cosa, le mie sinapsi si modificano: quindi io elaboro, recepisco e modifico l’interazione tra i miei neuroni. L’informazione diventa la madre per la mia memoria, perché io potrei nascere con una struttura cerebrale tale per cui sono già in grado di avere un certo background per poter recepire alcune cose ed altre no. Parliamo allora della quantità di informazioni che posso trattenere e poi anche dell’evoluzione. Una macchina in qualche modo è programmata a ricevere certe informazioni e si modifica, come fa il cervello. Ma io, come essere vivente, posso riprodurmi. La macchina si riproduce?

In una macchina che riceve e si modifica, la modificazione si ferma all’algoritmo o riguarda anche l’hardware come in un vivente?

FALCIASECCA - Alcune macchine imparano ed altre no. Restiamo all’esempio del tavolo. La macchina che impara ha un sensore e le viene detto: “questo è un tavolo”. Memorizzando queste informazioni si modifica la sua capacità di decidere se un oggetto sia un tavolo o no. Noi abbiamo nel cervello sia informazioni che memorizziamo perché poi ci serviranno, sia informazioni che servono al cervello per organizzarsi in modo opportuno per poter funzionare. Il bimbo appena nato ha gli occhi, ma ci mette del tempo per distinguere le cose. I bimbi nati nella giungla non riescono più ad imparare il linguaggio. Non c’è quindi dubbio che noi, attraverso gli stimoli che riceviamo, modifichiamo il cervello e questa è la struttura che poi ci permette di parlare. Fino ad un certo punto questo può farlo anche una macchina in grado di evolversi. Alla macchina, però, diciamo noi: “quello è un tavolo”. Invece, quando noi impariamo a distinguere i tavoli, sentiamo un vicino che dice: “quello è un tavolo”, ma sono i bambini che arrivano a capire che quello è un tavolo senza che venga loro insegnato con una informazione strutturata. Su questo punto le macchine sono ancora indietro. Potrebbero farlo. Anche nel prendere decisioni: noi le prendiamo e poi, dall’esito positivo o negativo, ci modifichiamo senza che qualcuno ci dia istruzione. Anche questo non mi risulta che le macchine, per ora, riescano a farlo.

CASADIO - Quando si dice “macchina”, per me essa è un meccanismo. Ma parlando di macchine intelligenti intendo l’algoritmo. Tu intendi l’hardware o il software?

FALCIASECCA - Nell’hardware ci sono anche i sensori, che sono molto importanti per il software. L’algoritmo, da solo, non fa niente. Anche noi pensiamo con tutto il corpo, non con la sola testa.

BERTUZZI - Noi distinguiamo il processo di acquisizione di una conoscenza dal riconoscimento di ciò che ci arriva attraverso questo procedimento. Oggi la scienza ha come traguardo quello di conoscere veramente un oggetto quando lo può riprodurre. Ma nell’intelligenza, dice Faggin, c’è la coscienza: la consapevolezza che quello che ricevo è conforme alla realtà, cioè la “verità”. Questa capacità di riflessione, cioè di padroneggiare l’oggetto della conoscenza mettendolo in rapporto con noi e con la realtà, per Faggin non sarà mai possibile ad una macchina.

FALCIASECCA - Sono d’accordo con te e per questo ho tolto la parola “intelligenza”. Figuriamoci poi per la “coscienza”. Su queste cose non dico nulla. Quello che sto cercando di fare, e che mi sembra ci sia in parte anche nel modo di vedere le cose di Prodi, è costruire per vedere fino a che punto posso arrivare. Sono lontano, con i miei ragionamenti, dall’autocoscienza. Credo che una delle condizioni per poter parlare di autocoscienza sia che si crei in qualche modo l’individuo, diverso da qualsiasi altro individuo. Siamo persone diverse, anche se appartenenti ad una stessa specie. Per le macchine il discorso è aperto, perché le macchine che apprendono hanno una base uguale, come i gemelli, ma poi hanno storie diverse. Ma che se ne possano rendere conto e sviluppino un io… da questo sono lontanissimo. Noi potremmo avere, ora, macchine che noi riconosciamo come individui, ma non ho idea di che cosa esse pensino di se stesse.

PARENTI - All’inizio degli incontri interdisciplinari venne anche Giorgio Prodi, che parlò della conoscenza, se ben ricordo, come “metabolizzazione rispettosa” (perché quello che “metabolizzo” non lo distruggo). Questa non è la coscienza, ma un tentativo di mettere a fuoco la conoscenza. Cioè io possiedo le caratteristiche di un’altra cosa, ma lasciandola nella sua alterità. Quando mangio acquisto cose da ciò che assimilo distruggendolo, invece la conoscenza è una assimilazione che non distrugge l’assimilato. Aristotele diceva che è venire a possedere una caratteristica non come qualcosa che viene modificato, ma come un’attuazione viene a possedere un’altra attuazione: cioè non come una materia (ciò che si trasforma) viene a possedere una forma, ma come una forma viene a possedere un’altra forma. La metabolizzazione è atto di un vivente. La conoscenza è una forma meno materiale di vita. E parlo della conoscenza anche dei sensi, dove è necessaria la trasformazione fisica di un organo. Allora la mia domanda era la seguente. Io non so se si possa dire che la tagliola ha riconosciuto il piede della volpe. Ho l’impressione che, quando parliamo di “informazione”, usiamo, con una certa ambiguità, il linguaggio della conoscenza per comunicazione di notizia con altri tipi di comunicazione: perché io posso dire che la macchina fotografica, la cinepresa, il microfono nascosto per spiare ... mi comunica … Ma mi sembra un linguaggio un poco metaforico. C’è un po’ di metafora?

FALCIASECCA - No! La metabolizzazione diventa rispettosa andando avanti nella scala evolutiva. Non serve distruggere l’oggetto e basta pochissima energia per l’informazione, a differenza del mondo fisico normale. Dell’oggetto mi basta prendere molto poco: ci facciamo una mappa del territorio, una rappresentazione del gatto o dell’elettrone, ma la mappa non è il territorio e può essere migliorata finché si vuole e fin dove ci serve. La tagliola non acquisisce informazione quando prende la zampa della lepre, però chi ha costruito la tagliola sa com’è fatta la zampa della lepre, perché ha costruito la tagliola apposta perché la potesse prendere. Nel mondo fisico non c’è informazione fino a quando non c’è un disegno, piccolo o grande che sia. Non c’è informazione finché non arriva un essere, che ha caratteristiche diverse da tutti gli altri, che riesce a tenere un ordine in un mondo che va verso il disordine. La riproduzione è la caratteristica fondamentale del vivente. Noi riusciamo a mantenere un ordine relativamente costante nonostante tutt’attorno abbiamo una quantità di cose che ci porterebbero a disordinarci, e quando non ci riusciamo più … è andata!

CAPELLA - Mio marito, il prof. Anio Arigoni, che si occupava di Intelligenza Artificiale, sosteneva che l’informazione era tale quando toglieva entropia. Poi si orientò verso la “decisione”. Rivedendo i suoi interventi ai convegni “Scienza e metafisica” fino dal 1999, diceva che l’informazione serve a togliere incertezza. Lui cercava un algoritmo per arrivare ad aiutare l’uomo a prendere decisioni (diagnosi mediche, finanziarie … dovunque ci fosse una situazione complessa di informazioni). Purtroppo ci ha lasciati senza terminare il suo libro.

FALCIASECCA - L’informazione è stata chiamata anche “neg-entropia” o entropia negativa: qualcosa che riesce a ridurre l’entropia. L’essere umano ha un involucro dentro al quale l’entropia non cresce e si mantiene un certo ordine, mentre intorno a lui l’entropia cresce. Lo fa attraverso l’informazione. E’ molto interessante anche il discorso della decisione. Ma, finché si tratta di decisioni di basso livello, ci risparmia fatica, come nella distribuzione della posta; quando però si usano gli algoritmi per fare cose di alto livello e che a noi fa comodo che sia una macchina a prenderle, comincio a preoccuparmi, perché non possiamo da soli arrivare a capire perché la macchina l’ha presa. Rischiamo di perdere qualcosa di essenziale. Una volta si confrontava il risultato delle simulazioni col risultato trovato da noi, per valutare l’affidabilità della macchina. Ma oggi diventa sempre più difficile fare qualcosa di questo genere. E siccome vedo che in tanti campi diamo responsabilità alle macchine, dico che è un guaio: le responsabilità dobbiamo tenerle noi.

CAPELLA - La grande preoccupazione di Anio era che all’intelligenza artificiale affluissero immense quantità di dati statistici senza il filtro di un algoritmo che valutasse e calcolasse la rilevanza degli attributi dei dati informativi. Studiava il processo delle decisioni nell’uomo per poterlo trasferire in un algoritmo.

PARENTI - Il guaio è che la macchina la si può montare e smontare, mentre il vivente no ... L’esistere dell’orologio dipende dai suoi pezzi, mentre invece io sono partito che ero un’unica cellula, e l’esistere delle mie parti dipende dall’esistere del tutto.

FRATTINI - Quando insegni, tu non perdi niente!