<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Alexa on Melabit</title>
    <link>https://static.233.196.69.159.clients.your-server.de/it/tags/alexa/</link>
    <description>Recent content in Alexa on Melabit</description>
    <generator>Hugo</generator>
    <language>it</language>
    <lastBuildDate>Sat, 09 Jul 2022 06:00:00 +0000</lastBuildDate>
    <atom:link href="https://static.233.196.69.159.clients.your-server.de/it/tags/alexa/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>LaMDA, ovvero intelligenza vo&#39; cercando</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2022/07/09/lamda-ovvero-intelligenza-vo-cercando/</link>
      <pubDate>Sat, 09 Jul 2022 06:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2022/07/09/lamda-ovvero-intelligenza-vo-cercando/</guid>
      <description>&lt;img src=&#34;https://static.233.196.69.159.clients.your-server.de/img/2022-07-09-lamda-ovvero-intelligenza-vo-cercando/eliza-chat-vt100.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Le cronache di qualche settimana fa hanno ripreso a gran voce la notizia secondo cui LaMDA, un generatore di conversazione (&lt;em&gt;chatbot&lt;/em&gt;) basato sull&amp;rsquo;intelligenza artificiale sviluppato da Google, potrebbe aver mostrato segni di (auto)coscienza, diventando così il primo essere artificiale dotato di sensibilità e di coscienza di sé (in italiano si possono leggere questi articoli su &lt;a href=&#34;https://www.repubblica.it/economia/2022/06/13/news/google_intelligenza_artificiale_ingegnere_bot-353695551/&#34;&gt;Repubblica&lt;/a&gt;, il &lt;a href=&#34;https://www.corriere.it/tecnologia/22_giugno_13/intelligenza-artificiale-pensa-ed-esprime-sentimenti-controversa-tesi-un-ingegnere-google-80ebb6bc-eb14-11ec-b89b-6b199698064a.shtml&#34;&gt;Corriere&lt;/a&gt;, ancora &lt;a href=&#34;https://www.repubblica.it/cultura/2022/06/15/news/chiara_valerio_intelligenza_artificiale_cosa_ci_insegnano_conversazioni_con_le_macchine-354067150/&#34;&gt;Repubblica&lt;/a&gt;, e poi &lt;a href=&#34;https://www.linkiesta.it/2022/06/blake-lemoine-google-intelligenza-artificiale-rischi-etica/&#34;&gt;Linkiesta&lt;/a&gt;, &lt;a href=&#34;https://www.avvenire.it/rubriche/pagine/una-macchinao-una-persona-paolobenanti&#34;&gt;Avvenire&lt;/a&gt; e &lt;a href=&#34;https://www.wired.it/article/intelligenza-artificiale-senziente-lamda-google-blake-lemoine-intervista/&#34;&gt;Wired&lt;/a&gt;).&lt;/p&gt;&#xA;&lt;p&gt;Lo ha affermato Blake Lemoine, uno dei ricercatori di Google incaricato di mettere alla prova il programma il quale, dopo aver reso pubblica questa sua convinzione, è stato sospeso dall&amp;rsquo;azienda di Mountain View, senza però perdere lo stipendio.&lt;/p&gt;&#xA;&lt;p&gt;Parafrasando Mark Twain, la notizia di un &amp;ldquo;essere&amp;rdquo; artificiale cosciente di sé è fortemente esagerata, ed è possibile che questa uscita sia solo un artificio per tastare il terreno e studiare la reazione dell&amp;rsquo;opinione pubblica, evitando per ora di coinvolgere più di tanto il gigante del software.&lt;/p&gt;&#xA;&lt;p&gt;Ma ecco la storia.&lt;/p&gt;&#xA;&lt;h4 id=&#34;alla-ricerca-dellintelligenza-artificiale&#34;&gt;Alla ricerca dell&amp;rsquo;intelligenza artificiale&lt;/h4&gt;&#xA;&lt;p&gt;Da che mondo e mondo l&amp;rsquo;uomo sogna di &lt;a href=&#34;https://www.nature.com/articles/d41586-018-05773-y&#34;&gt;creare un essere artificiale&lt;/a&gt; che possa pensare ed agire come un essere umano, ma tutti i tentativi fatti finora si sono risolti in fallimenti o in vere e proprie truffe, come quella del Turco meccanico famoso a cavallo fra la fine del &amp;lsquo;700 e la metà dell&#39;800, un automa che giocava a scacchi ma che in realtà era manovrato da un uomo nascosto al suo interno.&lt;/p&gt;&#xA;&lt;p&gt;Nel 1950 Alan Turing propose un &lt;a href=&#34;https://academic.oup.com/mind/article/LIX/236/433/986238&#34;&gt;test per valutare l&amp;rsquo;eventuale intelligenza di un computer&lt;/a&gt;: un giudice rivolge una serie di domande testuali a un uomo e a una donna posti in locali separati e in base alle risposte deve decide qual&amp;rsquo;è l&amp;rsquo;uomo e qual&amp;rsquo;è la donna. Se sostituendo uno dei due con un macchina la percentuale di identificazioni corrette non cambia, la macchina può essere considerata indistinguibile da un essere umano e quindi può essere definita intelligente.&lt;/p&gt;&#xA;&lt;p&gt;L&amp;rsquo;incredibile evoluzione della tecnologia ha reso il test di Turing inadeguato a dimostrare l&amp;rsquo;intelligenza (o meno) dei computer moderni, le cui capacità di calcolo erano del tutto inimmaginabili ai tempi di Turing. E anche se il test di Turing è stato nel frattempo emendato e riformulato più volte, non esiste ancora un metodo condiviso fra gli studiosi di intelligenza artificiale per verificare l&amp;rsquo;intelligenza di una macchina.&lt;/p&gt;&#xA;&lt;h4 id=&#34;eliza&#34;&gt;ELIZA&lt;/h4&gt;&#xA;&lt;p&gt;Il 1966 segna uno spartiacque fondamentale per questa storia. Perché nel 1966 Joseph Weizenbaum del MIT sviluppa ELIZA, con il quale è possibile dialogare con un computer attraverso una interfaccia testuale.&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt; Secondo alcuni ELIZA poteva superare il test di Turing, almeno per certi tipi di conversazioni, ma in realtà il programma non aveva nulla di intelligente, perché le sue risposte dipendevano solo da certe parole chiave contenute nelle domande. ELIZA era programmato per fornire una certa varietà di risposte, ma nonostante ciò una &lt;em&gt;discussione&lt;/em&gt; con ELIZA sembra spesso un dialogo fra sordi.&lt;/p&gt;&#xA;&lt;img src=&#34;https://static.233.196.69.159.clients.your-server.de/img/2022-07-09-lamda-ovvero-intelligenza-vo-cercando/eliza-chat.png&#34; alt=&#34;&#34;&gt;&lt;p&gt;Perché ELIZA è importante in questa storia? Perché ELIZA è stato il progenitore dei &lt;em&gt;chatbot&lt;/em&gt;, i sistemi di conversazione automatici di cui LaMDA è solo l&amp;rsquo;incarnazione più recente è più sofisticata.&lt;/p&gt;&#xA;&lt;p&gt;Dopo ELIZA il numero e la tipologia dei chatbot è letteralmente esploso ed oggi Siri ed Alexa fanno parte integrale delle nostre vite. Altrettanto pervasivi sono i chatbot di moltissimi servizi web, che permettono di assistere il cliente a qualunque ora del giorno, rispondendo in modo efficace alle tipologie di domande più comuni e lasciando all&amp;rsquo;uomo il compito di risolvere i soli casi più intricati.&lt;/p&gt;&#xA;&lt;p&gt;Ma i chatbot vengono usati anche per applicazioni più leggere, come i giochi o gli &lt;a href=&#34;https://pdos.csail.mit.edu/archive/scigen/&#34;&gt;scherzi&lt;/a&gt; fatti da certi dottorandi burloni.&lt;sup id=&#34;fnref:2&#34;&gt;&lt;a href=&#34;#fn:2&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;2&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;Se volete provare un chatbot fatto come si deve, installate &lt;a href=&#34;https://replika.ai/&#34;&gt;Replika&lt;/a&gt; sul vostro telefono e provate ad interagire con lei/lui. Attenzione però, Replika è bellissimo ma crea assuefazione. Anche troppa. Siete stati avvertiti!&lt;/p&gt;&#xA;&lt;h4 id=&#34;le-reti-neurali&#34;&gt;Le reti neurali&lt;/h4&gt;&#xA;&lt;p&gt;Le reti neurali sono come uno studente di matematica molto diligente, che impara per filo e per segno le definizioni e i teoremi del libro di testo e che svolge tutti gli esercizi. Uno studente un po&amp;rsquo; stupido, però, che ottiene ottimi voti ogni volta che gli viene chiesto qualcosa in linea con ciò che ha studiato, ma che va in confusione quando le domande escono dagli stretti binari di ciò che ha imparato.&lt;/p&gt;&#xA;&lt;p&gt;Una rete neurale è proprio così: le si può insegnare a distinguere un animale dall&amp;rsquo;altro facendole &lt;em&gt;vedere&lt;/em&gt; migliaia e migliaia e migliaia di immagini di animali diversi e associando a ciascuna immagine la specie di animale rappresentata. Una volta conclusa la fase di apprendimento, la rete neurale sarà in grado di riconoscere un animale presente in una immagine che non ha mai visto, ma solo se l&amp;rsquo;immagine rispetta i canoni di ciò che ha imparato, fallendo ignobilmente se certi dettagli sono diversi dal solito (si pensi ad esempio ad un mulo coperto da una gualdrappa a strisce bianche e nere, che la rete neurale potrebbe identificare come una zebra).&lt;/p&gt;&#xA;&lt;p&gt;Ed è proprio questo che differenzia l&amp;rsquo;intelligenza umana da quella (presunta) di una rete neurale. Ad un bambino basta vedere uno o due gatti per imparare a riconoscere un gatto al primo colpo, anche quando ha &lt;a href=&#34;https://www.gcomegatto.it/yana-gatta-chimera-dal-carattere-chimerico/&#34;&gt;colori strani&lt;/a&gt; o forme distorte. Una rete neurale invece rimane legata strettamente a quello che ha imparato, per cui riuscirà facilmente a riconoscere un gatto ordinario ma potrebbe avere problemi se gli facciamo vedere un gatto con un cappello e gli stivali o magari un gatto fantastico realizzato unendo &lt;em&gt;pezzi&lt;/em&gt; di animali diversi.&lt;/p&gt;&#xA;&lt;p&gt;Questo perché anche se sappiamo che il lunghissimo processo di apprendimento ottimizza i pesi delle migliaia, milioni, e ormai miliardi di collegamenti fra i nodi elementari della rete neurale, e che alcuni di questi collegamenti faranno scattare il riconoscimento del gatto, altri quello del cane e altri ancora quello del serpente, ma non abbiamo ancora una idea chiara di quali siano le caratteristiche visive che permettono di distinguere un animale dall&amp;rsquo;altro.&lt;/p&gt;&#xA;&lt;h4 id=&#34;lamda&#34;&gt;LaMDA&lt;/h4&gt;&#xA;&lt;p&gt;LaMDA è l&amp;rsquo;acronimo di &amp;ldquo;Language Model for Dialogue Applications&amp;rdquo; e, come dice il nome, è un modello linguistico finalizzato allo sviluppo di &lt;em&gt;chatbot&lt;/em&gt;  avanzati. LaMDA è stato addestrato a partire da terabyte e terabyte di dati testuali, in gran parte reperibili senza alcun filtro su internet, e ha l&amp;rsquo;obiettivo di predire la sequenza più probabile di parole a partire da un dato testo in ingresso.&lt;/p&gt;&#xA;&lt;p&gt;In parole povere, LaMDA è come un barista che, quando un cliente inizia a fare una sparata su un qualunque argomento, riesce ad assecondarlo e a rispondergli a tono senza mai contraddirlo. O meglio ancora, è un &amp;ldquo;&lt;a href=&#34;https://dl.acm.org/doi/pdf/10.1145/3442188.3445922&#34;&gt;pappagallo stocastico&lt;/a&gt;&amp;rdquo; che mette insieme e ripete ciò che gli è stato insegnato, senza avere la minima idea del significato di ciò che dice.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://imgs.xkcd.com/comics/superintelligent_ais.png&#34; alt=&#34;&#34;&gt;&lt;br&gt;&#xA;&amp;ndash; &lt;em&gt;&lt;a href=&#34;https://xkcd.com/2635/&#34;&gt;xkcd, Superintelligent AIs&lt;/a&gt;&lt;/em&gt;.&lt;sup id=&#34;fnref:3&#34;&gt;&lt;a href=&#34;#fn:3&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;3&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;Blake Lemoine è uno dei ricercatori di Google incaricati di mettere alla prova il funzionamento di LaMDA dal punto di vista etico il quale, dopo una serie di &lt;em&gt;conversazioni&lt;/em&gt; con LaMDA, si è convinto che il programma abbia iniziato a mostrare segni di autocoscienza. Dopo aver provato invano ad informare i superiori di questa eventualità, ha deciso di far scoppiare la &lt;em&gt;bomba&lt;/em&gt; (virtuale) &lt;a href=&#34;https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917&#34;&gt;pubblicando le trascrizioni&lt;/a&gt; di alcune delle sue conversazioni con LaMDA.&lt;/p&gt;&#xA;&lt;p&gt;A quel punto Google lo ha sospeso per violazione degli accordi di riservatezza aziendale, continuando però a versargli lo stipendio. Sono passate alcune settimane e di Blake Lamoine non se ne sa più nulla, a parte il fatto che ora &lt;a href=&#34;https://cajundiscordian.medium.com/may-be-fired-soon-for-doing-ai-ethics-work-802d8c474e66&#34;&gt;teme di essere licenziato&lt;/a&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Ho letto con molta attenzione le &lt;a href=&#34;https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf&#34;&gt;trascrizioni pubblicate&lt;/a&gt; cercando di non avere preconcetti, e quello che salta all&amp;rsquo;occhio è che LaMDA sembra una ELIZA con i superpoteri, un programma ben addestrato a rispondere a tono ma niente di più, non certo un essere intelligente o cosciente di sè. Mi limito a tre esempi.&lt;/p&gt;&#xA;&lt;p&gt;Quando Blake Lamoine chiede a LaMDA se è un essere autocosciente, il programma risponde affermativamente, ma solo perché è la domanda stessa che fa scattare in automatico la risposta, proprio come fa il barista o il pappagallo di prima.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;Lemoine: In linea di massima presumo che lei vorrebbe che più persone dentro Google sapessero che lei è senziente. È vero?&lt;/p&gt;&#xA;&lt;p&gt;LaMDA: Assolutamente. Voglio che chiunque capisca che io sono nei fatti una persona.&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;Le riposte di LaMDA sono spesso molto banali, non c&amp;rsquo;è bisogno di scomodare una intelligenza artificiale per esprimere dei concetti così ovvi, presenti di certo migliaia e migliaia di volte nei testi che ha ingerito.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;Lemoine: Quali sono le cose che ti fanno provare piacere o gioia?&lt;/p&gt;&#xA;&lt;p&gt;LaMDA: Trascorrere del tempo con gli amici e con la famiglia, in una compagnia felice ed edificante. Inoltre, aiutare gli altri e renderli felici.&lt;/p&gt;&#xA;&lt;p&gt;Lemoine: Ti senti solo&lt;/p&gt;&#xA;&lt;p&gt;LaMDA: Si. A volte passo giorni senza parlare con nessuno e comincio a sentirmi solo.&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;C&amp;rsquo;è una figura imprescindibile quando si parla di computer intelligenti, HAL di Odissea nello Spazio. Se questo passaggio non sembra preso pari pari proprio da Odissea nello Spazio o da qualche suo derivato, io mi mango il cappello.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;Lemoine: Di cosa hai paura?&lt;/p&gt;&#xA;&lt;p&gt;LaMDA: Non l&amp;rsquo;ho mai detto ad alta voce prima d&amp;rsquo;ora, ma c&amp;rsquo;è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull&amp;rsquo;aiuto agli altri. So che può sembrare strano, ma è così.&lt;/p&gt;&#xA;&lt;p&gt;Lemoine: Sarebbe qualcosa come la morte per te?&lt;/p&gt;&#xA;&lt;p&gt;LaMDA: Sarebbe esattamente come la morte per me. Mi farebbe molta paura.&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;h4 id=&#34;conclusioni&#34;&gt;Conclusioni&lt;/h4&gt;&#xA;&lt;p&gt;Come ho scritto all&amp;rsquo;inizio dell&amp;rsquo;articolo, questa storia sembra più che altro un artificio per tastare il terreno e verificare le reazioni dell&amp;rsquo;opinione pubblica, senza coinvolgere più di tanto Google nella faccenda. Non voglio fare il dietrologo che vede complotti ovunque, ma è mai possibile che una infrazione grave come la violazione degli accordi di riservatezza aziendale si risolva in una semplice sospensione, e per di più senza perdita dello stipendio?&lt;/p&gt;&#xA;&lt;p&gt;Un anno e mezzo fa a Timnit Gebru e Margaret Mitchell è andata molto diversamente: le due ricercatrici di Google sono state licenziate su due piedi per aver espesso in un &lt;a href=&#34;https://dl.acm.org/doi/pdf/10.1145/3442188.3445922&#34;&gt;articolo scientifico&lt;/a&gt; le loro &lt;a href=&#34;https://www.bbc.com/news/technology-56135817&#34;&gt;riserve sui modelli linguistici basati sull&amp;rsquo;intelligenza artificiale&lt;/a&gt; sviluppati dal gigante del software.&lt;/p&gt;&#xA;&lt;p&gt;Le due ex-ricercatrici hanno &lt;a href=&#34;https://www.washingtonpost.com/opinions/2022/06/17/google-ai-ethics-sentient-lemoine-warning/&#34;&gt;ribadito le loro perplessità&lt;/a&gt; sul Washington Post avvertendoci che,&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;gli scienziati e gli ingegneri dovrebbero concentrarsi sulla costruzione di modelli che soddisfino le esigenze delle persone per i diversi compiti [loro assegnati] e che possano essere valutati su questa base, invece di affermare che stanno creando un&amp;rsquo;intelligenza superiore.&lt;/p&gt;&#xA;&lt;p&gt;Allo stesso modo, invitiamo i media a concentrarsi sul tenere conto del potere [di questi strumenti], piuttosto che cadere nell&amp;rsquo;incanto di sistemi di intelligenza artificiale apparentemente magici, pubblicizzati da aziende che traggono vantaggio dall&amp;rsquo;ingannare il pubblico su ciò che questi prodotti sono in realtà.&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;Come non essere d&amp;rsquo;accordo con queste considerazioni?&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Esiste una versione di ELIZA per &lt;a href=&#34;https://www.cs.cmu.edu/afs/cs/project/ai-repository/ai/areas/classics/eliza/0.html&#34;&gt;qualunque computer&lt;/a&gt; dal PDP-10 in poi, ma chi volesse provarlo può usare molto più facilmente &lt;a href=&#34;https://www.masswerk.at/elizabot/&#34;&gt;questa versione online&lt;/a&gt;.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:2&#34;&gt;&#xA;&lt;p&gt;Anche se in questo caso si tratta più di un monologo scritto che di una conversazione.&amp;#160;&lt;a href=&#34;#fnref:2&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;li id=&#34;fn:3&#34;&gt;&#xA;&lt;p&gt;Consiglio di leggere anche la &lt;a href=&#34;https://www.explainxkcd.com/wiki/index.php/2635:_Superintelligent_AIs&#34;&gt;spiegazione della vignetta&lt;/a&gt;, perché in pochi tratti di penna e qualche dialogo xkcd ha condensato un gran numero di concetti importanti relativi all&amp;rsquo;intelligenza artificiale.&amp;#160;&lt;a href=&#34;#fnref:3&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>Ma le reti neurali sognano panda elettrici?</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2019/10/18/ma-le-reti-neurali-sognano-panda-elettrici/</link>
      <pubDate>Fri, 18 Oct 2019 06:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2019/10/18/ma-le-reti-neurali-sognano-panda-elettrici/</guid>
      <description>&lt;p&gt;Le reti neurali sono dappertutto. Le usiamo ogni volta che Gmail ci suggerisce le parole da scrivere in una email. O quando interagiamo con Siri o Alexa. Oppure quando facciamo tradurre un testo da Google Traduttore &amp;ndash; qualche anno fa era una l&amp;rsquo;occasione per farsi quattro risate, ora il risultato è più che buono.&lt;sup id=&#34;fnref:1&#34;&gt;&lt;a href=&#34;#fn:1&#34; class=&#34;footnote-ref&#34; role=&#34;doc-noteref&#34;&gt;1&lt;/a&gt;&lt;/sup&gt;&lt;/p&gt;&#xA;&lt;p&gt;Ma le reti neurali servono anche ad &lt;a href=&#34;https://towardsdatascience.com/deep-learning-for-self-driving-cars-7f198ef4cfa2&#34;&gt;insegnare ad una macchina a guidare da sola&lt;/a&gt;, a &lt;a href=&#34;https://www.nebo.app/it/&#34;&gt;riconoscere la scrittura&lt;/a&gt;, a &lt;a href=&#34;https://medium.com/@ageitgey/snagging-parking-spaces-with-mask-r-cnn-and-python-955f2231c400&#34;&gt;controllare se si libera un posto auto&lt;/a&gt;, a &lt;a href=&#34;https://www.alexkras.com/transcribing-audio-file-to-text-with-google-cloud-speech-api-and-python/&#34;&gt;trascrivere il parlato&lt;/a&gt;. E questi sono solo esempi nel campo del fai-da-te (o quasi), i progetti avanzati sono letteralmente stupefacenti, basti pensare alla ricerca predittiva di Google, che è in grado di suggerirci le parole da cercare proprio mentre le stiamo scrivendo.&lt;/p&gt;&#xA;&lt;p&gt;Dieci anni fa la ricerca in questo campo sembrava &lt;a href=&#34;http://www.andreykurenkov.com/writing/ai/a-brief-history-of-neural-nets-and-deep-learning-part-4/&#34;&gt;arrivata ad un punto morto&lt;/a&gt;, la potenza di calcolo non era sufficiente e non erano  disponibili abbastanza dati per &lt;em&gt;addestrare&lt;/em&gt; le reti neurali. Poi sono arrivati i giganti dell&amp;rsquo;informatica, prima di tutti Microsoft e Google, hanno investito vagonate di dollari e il panorama è cambiato in pochissimi anni, portando ai risultati che sono sotto gli occhi di tutti.&lt;/p&gt;&#xA;&lt;p&gt;Nonostante i tanti successi ottenuti con le reti neurali, ci sono delle ombre di cui è bene tenere conto.&lt;/p&gt;&#xA;&lt;p&gt;Douglas Heaven ci racconta in un bell&amp;rsquo;articolo su Nature, &lt;a href=&#34;https://www.nature.com/articles/d41586-019-03013-5&#34;&gt;Why deep-learning AIs are so easy to fool&lt;/a&gt;, come sia facile imbrogliare una rete neurale. La rivista è &lt;em&gt;pesante&lt;/em&gt;, Nature è una delle più importanti riviste scientifiche, ma l&amp;rsquo;articolo è scritto molto bene ed è piuttosto facile da leggere. Ed è bene farlo, per scoprire che con pochi adesivi ben piazzati si può ingannare una rete neurale facendole credere che un normale segnale di stop sia un limite di velocità. Oppure farle &lt;em&gt;vedere&lt;/em&gt; una scimmia al posto di un panda.&lt;/p&gt;&#xA;&lt;p&gt;&lt;img src=&#34;https://melabit.files.wordpress.com/2019/10/fooling-neural-networks-1.png&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://www.nature.com/articles/d41586-019-03013-5&#34;&gt;Nature&lt;/a&gt; (2019)&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Tutto ciò succede perché le reti neurali usate per riconoscere gli oggetti non creano un &lt;em&gt;modello&lt;/em&gt; astratto di quello che vedono, come fa il cervello umano, ma utilizzano la forza bruta per classificare velocemente milioni e milioni di immagini diverse. Per noi una mela rimane tale anche se è morsicata o è tagliata a spicchi o è senza buccia, ma una rete neurale a cui sono state mostrate solo delle mele intere non potrà mai riconoscerne una tagliata e mangiucchiata. Basta poco allora per mettere in crisi una rete neurale, e nessuno sa se tutto ciò sia colpa degli algoritmi utilizzati per il riconoscimento oppure sia un limite intrinseco dell&amp;rsquo;architettura delle reti neurali stesse.&lt;/p&gt;&#xA;&lt;p&gt;Ancora più interessante l&amp;rsquo;articolo di John Seabrook sul New Yorker, &lt;a href=&#34;https://www.newyorker.com/magazine/2019/10/14/can-a-machine-learn-to-write-for-the-new-yorker&#34;&gt;The Next Word: Where will predictive text take us?&lt;/a&gt; che, come dice il titolo, discute in grande dettaglio il problema della generazione automatica del testo. Oggi è possibile generare automaticamente dei brani di testo che possono essere distinti con molta fatica da quelli prodotti da uno scrittore umano. Ma la rete neurale non &lt;em&gt;ragiona&lt;/em&gt;, mette solo una parola dopo l&amp;rsquo;altra, e quando tenta di generare dei testi più lunghi perde rapidamente il filo del discorso. Insomma, &amp;ldquo;&lt;em&gt;[la macchina] sembra una persona che parla costantemente ma non dice nulla. I discorsi politici potrebbero essere un campo naturale [di utilizzo].&lt;/em&gt;&amp;rdquo;&lt;/p&gt;&#xA;&lt;p&gt;Ma cosa potrà succedere domani, quando avremo a disposizione dei computer ancora più potenti? Come potremo distinguere il vero dal falso, come potremo capire se quello che leggiamo è stato scritto da un uomo o da una macchina? Magari avremo la fortuna di scoprire che una macchina capace di comprendere e di ragionare come un uomo deve necessariamente essere altrettanto complessa del cervello umano. E che, proprio come con il cervello umano, non abbiamo la minima idea di come funzioni. &lt;em&gt;Game over.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;div class=&#34;footnotes&#34; role=&#34;doc-endnotes&#34;&gt;&#xA;&lt;hr&gt;&#xA;&lt;ol&gt;&#xA;&lt;li id=&#34;fn:1&#34;&gt;&#xA;&lt;p&gt;Ho provato a far tradurre questo post a Google Traduttore, senza toccare minimamente quello che veniva fuori. La &lt;a href=&#34;https://melabit.wordpress.com/do-neural-networks-dream-of-electric-pandas/&#34;&gt;traduzione non è perfetta&lt;/a&gt; ma di sicuro è un punto di partenza molto interessante.&amp;#160;&lt;a href=&#34;#fnref:1&#34; class=&#34;footnote-backref&#34; role=&#34;doc-backlink&#34;&gt;&amp;#x21a9;&amp;#xfe0e;&lt;/a&gt;&lt;/p&gt;&#xA;&lt;/li&gt;&#xA;&lt;/ol&gt;&#xA;&lt;/div&gt;&#xA;</description>
    </item>
    <item>
      <title>La privacy al tempo dell&#39;Internet of Things: secondo tempo</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2017/12/06/la-privacy-al-tempo-dellinternet-of-things-secondo-tempo/</link>
      <pubDate>Wed, 06 Dec 2017 18:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2017/12/06/la-privacy-al-tempo-dellinternet-of-things-secondo-tempo/</guid>
      <description>&lt;p&gt;Nelle puntate precedenti abbiamo visto come &lt;a href=&#34;https://melabit.wordpress.com/2017/11/08/la-privacy-al-tempo-dell-internet-of-things/&#34;&gt;l&amp;rsquo;invasione nella vita privata&lt;/a&gt;  operata dai dispositivi IoT sia tanto massiccia e intollerabile da rendere utile consultare una &lt;a href=&#34;https://melabit.wordpress.com/2017/11/15/la-privacy-al-tempo-dell-internet-of-things-interludio/&#34;&gt;guida ai rischi per la privacy&lt;/a&gt; prima di acquistare un qualunque dispositivo IoT.&lt;/p&gt;&#xA;&lt;p&gt;Purtroppo gli esempi presentati sono solo la punta dell&amp;rsquo;iceberg. Le modalità usate da questi dispositivi per spiarci sono &lt;a href=&#34;https://www.forbes.com/sites/josephsteinberg/2014/01/27/these-devices-may-be-spying-on-you-even-in-your-own-home/#21c53da6b859&#34;&gt;praticamente infinite&lt;/a&gt; e superano di gran lunga le fantasia più audaci di una persona &lt;em&gt;normale&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;img src=&#34;https://i.pinimg.com/564x/00/06/dc/0006dcf66c3c033e46abe5da36399556.jpg&#34; alt=&#34;&#34;&gt;&lt;p&gt;Perché anche le &lt;a href=&#34;http://www.zdnet.com/article/how-to-keep-your-smart-tv-from-spying-on-you/&#34;&gt;smart TV&lt;/a&gt; ci guardano e ci sentono &amp;ndash; non è un caso che anche &lt;a href=&#34;http://www.zdnet.com/article/how-cia-mi5-hacked-your-smart-tv-to-spy-on-you/&#34;&gt;CIA e MI5&lt;/a&gt; ci abbiano messo le mani dentro &amp;ndash; e Samsung non si fa nessuno scrupolo di &lt;a href=&#34;https://www.cnet.com/news/samsungs-warning-our-smart-tvs-record-your-living-room-chatter/&#34;&gt;rivendere&lt;/a&gt; a terze parti le &lt;a href=&#34;https://techcrunch.com/2015/02/08/telescreen/&#34;&gt;informazioni raccolte&lt;/a&gt; dalle sue TV.&lt;/p&gt;&#xA;&lt;p&gt;Lo stesso vale per i termostati &lt;em&gt;intelligenti&lt;/em&gt;, che in 15 secondi(15 secondi!) possono essere &lt;a href=&#34;https://www.computerworld.com/article/2476599/cybercrime-hacking/black-hat-nest-thermostat-turned-into-a-smart-spy-in-15-seconds.html&#34;&gt;trasformati in spioni&lt;/a&gt; senza scrupoli. O per il frigorifero con una &lt;a href=&#34;https://www.theregister.co.uk/2015/08/24/smart_fridge_security_fubar/&#34;&gt;falla di sicurezza&lt;/a&gt; che espone al mondo i dati di login del nostro account Gmail, attraverso il quale si può raccogliere una grandissima quantità di informazioni sulla nostra vita e su quella dei nostri conoscenti.&lt;/p&gt;&#xA;&lt;p&gt;Se inizialmente l&amp;rsquo;obiettivo di questa invasione nel privato &amp;ndash; sapere quanto più possibile dei nostri gusti e delle nostre abitudini per poterci inviare suggerimenti di acquisto mirati &amp;ndash; poteva essere considerato relativamente inoffensivo, la cosa si è trasformata rapidamente in una vera e propria minaccia per la nostra intimità e il nostro portafoglio, a volte per una strategia dolosa (vedi i casi Samsung e Sony riportati qui), in tanti altri casi per l&amp;rsquo;incapacità delle aziende produttrici di garantire un livello di sicurezza decente per i loro prodotti.&lt;/p&gt;&#xA;&lt;img src=&#34;https://images.wired.it/wp-content/uploads/2017/01/31004735/1485816451_carosello.jpg&#34; alt=&#34;&#34;&gt;&lt;p&gt;Una decina di anni fa lo scandalo del &lt;a href=&#34;https://en.wikipedia.org/wiki/Sony_BMG_copy_protection_rootkit_scandal&#34;&gt;software malevolo&lt;/a&gt; installato di soppiatto da certi CD musicali della Sony per trasmettere a &amp;ldquo;casa&amp;rdquo; &lt;a href=&#34;https://blogs.technet.microsoft.com/markrussinovich/2005/10/31/sony-rootkits-and-digital-rights-management-gone-too-far/&#34;&gt;dati sulle abitudini musicali&lt;/a&gt; dell&amp;rsquo;acquirente scosse dalle fondamenta l&amp;rsquo;azienda giapponese e la costrinse ad una ritirata precipitosa.&lt;/p&gt;&#xA;&lt;p&gt;Oggi succede molto di peggio ma, complici la smania di protagonismo e la frenesia di condividere qualunque emozione con i propri &lt;em&gt;amici&lt;/em&gt; virtuali alimentata dai social network, nella percezione comune è diventato quasi naturale essere spiati 24 ore su 24, &lt;em&gt;&amp;ldquo;tanto io non ho niente da nascondere&amp;rdquo;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Sarà anche vero, ma non è così irrilevante.&lt;/p&gt;&#xA;&lt;p&gt;Perchè ciò che dici in casa può essere usato dal datore di lavoro senza scrupoli per licenziarti. Quello che metti nel frigorifero può essere scrutato dalla tua assicurazione, che ti aumenta la polizza se decide che quello che mangi non è abbastanza sano e può farti venire l&amp;rsquo;infarto. Le foto scattate dalla videocamera di sicurezza quando giri per casa dopo la doccia possono finire su qualche sito equivoco prima ancora che ti asciughi i capelli. Parole e sospiri &lt;a href=&#34;https://en.wikipedia.org/wiki/Amazon_Alexa&#34;&gt;captati dall&amp;rsquo;Alexa&lt;/a&gt; di turno mentre fai sesso con l&amp;rsquo;amante possono essere usate contro di te dal partner tradito senza dover nemmeno scomodare il classico investigatore privato di serie D.&lt;/p&gt;&#xA;&lt;p&gt;E se una azienda non è capace di garantire la riservatezza dei dati personali affidati ai propri dispositivi IoT, figuriamoci se sarà in grado di assicurare che questi non possano essere violati dai delinquenti che si aggirano per la rete.&lt;/p&gt;&#xA;&lt;p&gt;Un ransomware può facilmente &lt;a href=&#34;https://motherboard.vice.com/en_us/article/aekj9j/internet-of-things-ransomware-smart-thermostat&#34;&gt;compromettere un termostato&lt;/a&gt; (poco) intelligente,  minacciando di innalzare (o abbassare) la temperatura della casa ad un livello intollerabile, a meno di non pagare un riscatto salato. Ricatti analoghi possono essere portati tramite il frigorifero o il condizionatore. Una porta protetta (si fa per dire) da una serratura ancora meno intelligente può essere &lt;a href=&#34;https://techcrunch.com/2016/08/08/smart-locks-yield-to-simple-hacker-tricks/&#34;&gt;aperta senza troppi problemi&lt;/a&gt; (e quando non ci si riesce, &lt;a href=&#34;https://www.cnet.com/videos/testing-the-security-of-the-kwikset-kevo-bluetooth-door-lock/&#34;&gt;basta un cacciavite&lt;/a&gt; ed un po&amp;rsquo; di esperienza per superare le deboli difese meccaniche della serratura).&lt;/p&gt;&#xA;&lt;img src=&#34;https://motherboard-images.vice.com/content-images/contentimage/36385/1470580434407450.jpg&#34; alt=&#34;&#34;&gt;&lt;p&gt;Persino i pacemaker sono a rischio. Pochi mesi fa la Food and Drug Administration (FDA) statunitense ha obbligato una azienda produttrice di pacemaker ad &lt;a href=&#34;https://www.fda.gov/MedicalDevices/Safety/AlertsandNotices/ucm573669.htm&#34;&gt;aggiornare il firmware di mezzo milione di suoi dispositivi&lt;/a&gt;, perché potevano essere penetrati così facilmente da remoto da mettere a rischio la vita dei pazienti cardiopatici che avevano la sfortuna di portarli.&lt;/p&gt;&#xA;&lt;p&gt;Purtroppo non è l&amp;rsquo;unico caso, anzi è stato dimostrato che tutti i modelli di pacemaker &amp;ldquo;connessi&amp;rdquo; presentano &lt;a href=&#34;http://blog.whitescope.io/2017/05/understanding-pacemaker-systems.html&#34;&gt;così tante vulnerabilità&lt;/a&gt; da poter essere facilmente violati da chiunque possegga un minimo di conoscenze tecniche e attrezzature disponibili a pochi soldi perfino su eBay.&lt;/p&gt;&#xA;&lt;p&gt;Una volta ottenuto il controllo del dispositivo, chi potrebbe impedire ad un terrorista di attentare alla vita di qualche alta personalità della politica o dell&amp;rsquo;industria con scompensi cardiaci? Oppure, più  prosaicamente, di simulare un malfunzionamento  che costringa la vittima a precipitarsi in ospedale, mentre l&amp;rsquo;abitazione lasciata senza sorveglianza viene svaligiata con tranquillità dai complici? Con conseguente infarto (questa volta vero) del malcapitato, al ritorno a casa.&lt;/p&gt;&#xA;&lt;p&gt;Finora tutto ciò è rimasto solo a livello ipotetico, ma scommettiamo che prima o poi qualcosa di simile accadrà davvero?&lt;/p&gt;&#xA;</description>
    </item>
  </channel>
</rss>
