<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Openai on Melabit</title>
    <link>https://static.233.196.69.159.clients.your-server.de/it/tags/openai/</link>
    <description>Recent content in Openai on Melabit</description>
    <generator>Hugo</generator>
    <language>it</language>
    <lastBuildDate>Mon, 24 Apr 2023 06:00:00 +0000</lastBuildDate>
    <atom:link href="https://static.233.196.69.159.clients.your-server.de/it/tags/openai/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>ChatGPT al capolinea</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2023/04/24/chatgpt-al-capolinea/</link>
      <pubDate>Mon, 24 Apr 2023 06:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2023/04/24/chatgpt-al-capolinea/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://static.233.196.69.159.clients.your-server.de/img/2023-04-24-chatgpt-al-capolinea/donald-giannatti-xI8cWGzAN5U-unsplash.jpg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://unsplash.com/@wizwow&#34;&gt;Donald Giannatti&lt;/a&gt; su &lt;a href=&#34;https://unsplash.com&#34;&gt;Unsplash&lt;/a&gt;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Chiunque ne sappia un po&amp;rsquo; di queste faccende lo aveva capito da tempo: i modelli linguistici di grandi dimensioni (&lt;em&gt;Large Language Models&lt;/em&gt;, LLM), come &lt;a href=&#34;https://openai.com/product/gpt-4&#34;&gt;GPT-3/4&lt;/a&gt; di OpenAI, da cui deriva la stella del momento &lt;a href=&#34;https://chat.openai.com/&#34;&gt;ChatGPT&lt;/a&gt;, o come &lt;a href=&#34;https://ai.facebook.com/blog/large-language-model-llama-meta-ai/&#34;&gt;LLaMA&lt;/a&gt; di Facebook, &lt;a href=&#34;https://crfm.stanford.edu/2023/03/13/alpaca.html&#34;&gt;Alpaca&lt;/a&gt; di Stanford e compagnia bella, non hanno un futuro, sono troppo complicati, avidi di risorse e costosi per essere sostenibili a lungo termine.&lt;/p&gt;&#xA;&lt;p&gt;Sembra di assistere alla riedizione della corsa al GHz nei processori di classe Pentium di una ventina di anni fa, conclusasi quando Intel ed AMD finirono per &lt;a href=&#34;https://www.theregister.com/2004/05/07/intel_cancels_tejas/&#34;&gt;sbattere contro un muro&lt;/a&gt; costituito dai limiti fisici della tecnologia dei semiconduttori, in particolare l&amp;rsquo;impossibilità di raffreddare adeguatamente la CPU, obbligando i produttori ad un cambio di prospettiva che ci ha portato ad avere processori molto più potenti ma allo stesso tempo infinitamente più efficienti.&lt;/p&gt;&#xA;&lt;p&gt;Anche gli LLM stanno per sbattere contro un muro analogo. Nel 2018, il modello GPT-1 contava 117 milioni di parametri, mentre nel 2019 il suo successore, GPT-2, ne contava già 1,5 miliardi. Nel 2020, GPT-3 ha raggiunto il numero strabiliante di 175 miliardi di parametri, mentre si stima che GPT-4, appena rilasciato, abbia circa 1000 miliardi di parametri e che il suo addestramento sia costato ben più di 100 milioni di dollari (i dati sono tratti da &lt;a href=&#34;https://medium.com/walmartglobaltech/the-journey-of-open-ai-gpt-models-32d95b7b7fb2&#34;&gt;questo articolo su Medium&lt;/a&gt;).&lt;/p&gt;&#xA;&lt;p&gt;In sostanza, in appena 5 anni  il numero di parametri del modello linguistico &lt;em&gt;Generative Pretrained Transformer&lt;/em&gt;, meglio noto come GPT, è cresciuto di ben 10.000 volte, quasi un ordine di grandezza all&amp;rsquo;anno, ma andare avanti a questo ritmo è fisicamente impossibile. E non lo dico io, lo dice &lt;a href=&#34;https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/&#34;&gt;Sam Altman, l&amp;rsquo;amministratore delegato di OpenAI&lt;/a&gt;, che è l&amp;rsquo;azienda che sta dietro ai modelli GPT-1/4 e a ChatGPT.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;&amp;ldquo;Penso che siamo alla fine dell&amp;rsquo;era in cui ci saranno questi modelli, diciamo, giganti, giganteschi. Li miglioreremo in altri modi&amp;rdquo;.&lt;/p&gt;&#xA;&lt;p&gt;“I think we&amp;rsquo;re at the end of the era where it&amp;rsquo;s going to be these, like, giant, giant models. We&amp;rsquo;ll make them better in other ways.”&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;Se lo sostiene perfino lui, è evidente che la gestione di questi modelli linguistici sia diventata insostenibile anche per una azienda piena di soldi come OpenAI. Non è un caso che nel frattempo lo sviluppo di GPT-5 sia in &lt;em&gt;standby&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Serve un cambio di rotta, perché nel campo dell&amp;rsquo;intelligenza artificiale non è affatto detto che &lt;a href=&#34;https://www.zdnet.com/article/amazons-alexa-scientists-demonstrate-bigger-ai-isnt-always-better/&#34;&gt;più grande significhi per forza di cose migliore&lt;/a&gt;.&lt;/p&gt;&#xA;</description>
    </item>
    <item>
      <title>L&#39;anniversario della presentazione dell&#39;iPad secondo ChatGPT</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2023/01/29/l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/</link>
      <pubDate>Sun, 29 Jan 2023 06:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2023/01/29/l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/</guid>
      <description>&lt;p&gt;Ho colto al volo l&amp;rsquo;occasione dell&amp;rsquo;anniversario della &lt;a href=&#34;https://www.youtube.com/watch?v=OBhYxj2SvRI&#34;&gt;presentazione dell&amp;rsquo;iPad&lt;/a&gt; per far scrivere a &lt;a href=&#34;https://chat.openai.com&#34;&gt;ChatGPT&lt;/a&gt; un post sull&amp;rsquo;argomento. Io mi sono limitato a qualche notarella tecnica e a un breve commento finale.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;&lt;strong&gt;Domanda&lt;/strong&gt;: Scrivi un post per un blog in tono tecnico sul recente anniversario della presentazione dell&amp;rsquo;iPad.&lt;/p&gt;&#xA;&lt;p&gt;&lt;strong&gt;Risposta&lt;/strong&gt;: &lt;em&gt;Il 27 gennaio 2010, Apple Inc. ha presentato il primo iPad, un tablet computer che utilizza un display multi-touch da 9,7 pollici e si basa sul sistema operativo iOS. Il dispositivo era alimentato dal chip A4 di Apple, che presentava un CPU Cortex-A8 da 1 GHz e una GPU PowerVR SGX535, fornendo all&amp;rsquo;iPad una notevole potenza computazionale per l&amp;rsquo;epoca. Il dispositivo è stato inizialmente rilasciato in tre capacità di archiviazione (16 GB, 32 GB e 64 GB) e con un prezzo di partenza di 499 dollari.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;Al momento del lancio, l&amp;rsquo;iPad ha ricevuto reazioni miste dalla comunità tecnologica, con alcuni che lodavano il suo potenziale come dispositivo rivoluzionario per la navigazione web, l&amp;rsquo;email, le foto e la visione di video, mentre altri lo respingevano come un &amp;ldquo;gigantesco iPhone&amp;rdquo; con un&amp;rsquo;appeal limitato. Tuttavia, questi dubbi sono stati presto dissipati in quanto l&amp;rsquo;iPad è diventato rapidamente un dispositivo popolare, con Apple che ha venduto oltre 15 milioni di unità nei primi nove mesi dal lancio.&lt;/em&gt;&#xA;&lt;em&gt;Uno dei fattori chiave che ha contribuito al successo dell&amp;rsquo;iPad è stata la sua capacità di eseguire una vasta gamma di app, grazie al suo hardware potente e al sistema operativo iOS. Ciò ha permesso di eseguire una varietà di compiti sul dispositivo, come la navigazione web, l&amp;rsquo;invio di email, la modifica di documenti, la visione di video e i giochi. Il display grande dell&amp;rsquo;iPad lo ha inoltre reso ideale per la fruizione di media, soprattutto per la lettura di libri, riviste e giornali.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;L&amp;rsquo;interfaccia touch dell&amp;rsquo;iPad, il suo design semplice e l&amp;rsquo;accessibilità hanno anche svolto un ruolo significativo nel suo successo. Ciò ha reso il dispositivo facile da usare per persone di tutte le età e livelli di abilità, espandendo così il mercato dei tablet, che era stato precedentemente limitato a nicchie come le imprese e i designer.&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;&lt;em&gt;La presentazione dell&amp;rsquo;iPad ha anche avuto un impatto significativo sul mercato dei tablet nel suo insieme. Prima dell&amp;rsquo;iPad, i dispositivi tablet venivano principalmente utilizzati per compiti specifici come l&amp;rsquo;inserimento di dati e la progettazione grafica. Tuttavia, il successo dell&amp;rsquo;iPad ha stabilito il tablet come un dispositivo a scopo generale, adatto a una vasta gamma di compiti. Ciò ha portato allo sviluppo di una var&lt;/em&gt;&lt;/p&gt;&#xA;&lt;p&gt;Come potete vedere la risposta si interrompe all&amp;rsquo;improvviso, ci sarà forse un limite tecnico sulla lunghezza delle risposte ma non è chiarissimo, visto che il testo contiene 366 parole  e 2267 caratteri.&#xA;Per verificare che non sia stato un problema tecnico (ChatGPT in questi giorni è ai limiti della sua capacità) ho anche provato a rigenerare il testo, ma anche questa volta il testo si interrompe a metà, dopo 358 parole e 2280 caratteri. In ogni caso la risposta è praticamente identica e ve la risparmio.&lt;/p&gt;&#xA;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Facendo scrivere a ChatGPT un post equivalente in inglese il risultato è, come prevedibile, praticamente uguale al testo in italiano, probabilmente perché ChatGPT può leggere e scrivere in qualunque lingua (o quasi) ma &lt;em&gt;pensa&lt;/em&gt; sempre e solo in inglese.&lt;/p&gt;&#xA;&lt;img src=&#34;https://static.233.196.69.159.clients.your-server.de/img/2023-01-29-l-anniversario-della-presentazione-dell-ipad-secondo-chatgpt/chatgpt-ipad.jpg&#34; alt=&#34;&#34;&gt;&lt;hr style = &#34;border: none; &#xA;            border-top: 3px double #333; &#xA;            color: #333; &#xA;            overflow: visible; &#xA;            height: 5px; &#xA;            width: 50%; &#xA;            margin-left: auto; &#xA;            margin-right: auto;&#34;&#xA;&gt;&#xA;&#xA;&lt;p&gt;Che dire del risultato? Francamente mi sembra più interessante leggere la lista della spesa, non c&amp;rsquo;è nessun calore, è tutto piatto e senza vita come un comunicato stampa. Il testo scritto da ChatGPT è un semplice elenco di fatti, una rielaborazione piatta di pagine e pagine di notizie presenti sul web, senza che questo elenco diventi una storia degna di essere letta. Un umano potrebbe fare sicuramente di meglio.&lt;/p&gt;&#xA;&lt;p&gt;Il problema con ChatGPT è che ce l&amp;rsquo;hanno &lt;em&gt;venduto&lt;/em&gt; come la soluzione per tutto, sostituito dello scrittore, terrore degli insegnanti (e manna per gli insegnati), sistema di sviluppo, motore di ricerca intelligente, manca solo che risolva il problema della fame nel mondo e siamo a posto.&lt;/p&gt;&#xA;&lt;p&gt;Invece ChatGPT è solo un software con un&amp;rsquo;ottima memoria, un software che ha letto e ricorda praticamente tutto lo scibile umano, un software che, quando risponde alle nostre domande, va a prendere una cosa da qui e una da lì, senza avere la minima idea di cosa significhi. ChatGPT è un perfetto robot statistico, nulla di più.&lt;/p&gt;&#xA;&lt;p&gt;Se gli si fanno fare cose adatte a &lt;em&gt;lui&lt;/em&gt;, ChatGPT è eccezionale, basta solo non chiedergli di essere creativo, non fa per lui. Direi che, per ora, noi scrittori in erba possiamo dormire sonni tranquilli.&lt;/p&gt;&#xA;</description>
    </item>
  </channel>
</rss>
