software,

Ma le reti neurali sognano panda elettrici?

Sabino Maggi Sabino Maggi Segui 18-Oct-2019 · 3 minuti di lettura
Condividi

Le reti neurali sono dappertutto. Le usiamo ogni volta che Gmail ci suggerisce le parole da scrivere in una email. O quando interagiamo con Siri o Alexa. Oppure quando facciamo tradurre un testo da Google Traduttore – qualche anno fa era una l’occasione per farsi quattro risate, ora il risultato è più che buono.1

Ma le reti neurali servono anche ad insegnare ad una macchina a guidare da sola, a riconoscere la scrittura, a controllare se si libera un posto auto, a trascrivere il parlato. E questi sono solo esempi nel campo del fai-da-te (o quasi), i progetti avanzati sono letteralmente stupefacenti, basti pensare alla ricerca predittiva di Google, che è in grado di suggerirci le parole da cercare proprio mentre le stiamo scrivendo.

Dieci anni fa la ricerca in questo campo sembrava arrivata ad un punto morto, la potenza di calcolo non era sufficiente e non erano disponibili abbastanza dati per addestrare le reti neurali. Poi sono arrivati i giganti dell’informatica, prima di tutti Microsoft e Google, hanno investito vagonate di dollari e il panorama è cambiato in pochissimi anni, portando ai risultati che sono sotto gli occhi di tutti.

Nonostante i tanti successi ottenuti con le reti neurali, ci sono delle ombre di cui è bene tenere conto.

Douglas Heaven ci racconta in un bell’articolo su Nature, Why deep-learning AIs are so easy to fool, come sia facile imbrogliare una rete neurale. La rivista è pesante, Nature è una delle più importanti riviste scientifiche, ma l’articolo è scritto molto bene ed è piuttosto facile da leggere. Ed è bene farlo, per scoprire che con pochi adesivi ben piazzati si può ingannare una rete neurale facendole credere che un normale segnale di stop sia un limite di velocità. Oppure farle vedere una scimmia al posto di un panda.

Fonte: Nature (2019).

Tutto ciò succede perché le reti neurali usate per riconoscere gli oggetti non creano un modello astratto di quello che vedono, come fa il cervello umano, ma utilizzano la forza bruta per classificare velocemente milioni e milioni di immagini diverse. Per noi una mela rimane tale anche se è morsicata o è tagliata a spicchi o è senza buccia, ma una rete neurale a cui sono state mostrate solo delle mele intere non potrà mai riconoscerne una tagliata e mangiucchiata. Basta poco allora per mettere in crisi una rete neurale, e nessuno sa se tutto ciò sia colpa degli algoritmi utilizzati per il riconoscimento oppure sia un limite intrinseco dell’architettura delle reti neurali stesse.

Ancora più interessante l’articolo di John Seabrook sul New Yorker, The Next Word: Where will predictive text take us? che, come dice il titolo, discute in grande dettaglio il problema della generazione automatica del testo. Oggi è possibile generare automaticamente dei brani di testo che possono essere distinti con molta fatica da quelli prodotti da uno scrittore umano. Ma la rete neurale non ragiona, mette solo una parola dopo l’altra, e quando tenta di generare dei testi più lunghi perde rapidamente il filo del discorso. Insomma, “[la macchina] sembra una persona che parla costantemente ma non dice nulla. I discorsi politici potrebbero essere un campo naturale [di utilizzo].

Ma cosa potrà succedere domani, quando avremo a disposizione dei computer ancora più potenti? Come potremo distinguere il vero dal falso, come potremo capire se quello che leggiamo è stato scritto da un uomo o da una macchina? Magari avremo la fortuna di scoprire che una macchina capace di comprendere e di ragionare come un uomo deve necessariamente essere altrettanto complessa del cervello umano. E che, proprio come con il cervello umano, non abbiamo la minima idea di come funzioni. Game over.

  1. Ho provato a far tradurre questo post a Google Traduttore, senza toccare minimamente quello che veniva fuori. La traduzione non è perfetta ma di sicuro è un punto di partenza molto interessante. 

Sabino Maggi
Pubblicato da Sabino Maggi Segui
Commenti

Aggiungi un commento