<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Llama on Melabit</title>
    <link>https://static.233.196.69.159.clients.your-server.de/it/tags/llama/</link>
    <description>Recent content in Llama on Melabit</description>
    <generator>Hugo</generator>
    <language>it</language>
    <lastBuildDate>Mon, 24 Apr 2023 06:00:00 +0000</lastBuildDate>
    <atom:link href="https://static.233.196.69.159.clients.your-server.de/it/tags/llama/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>ChatGPT al capolinea</title>
      <link>https://static.233.196.69.159.clients.your-server.de/it/2023/04/24/chatgpt-al-capolinea/</link>
      <pubDate>Mon, 24 Apr 2023 06:00:00 +0000</pubDate>
      <guid>https://static.233.196.69.159.clients.your-server.de/it/2023/04/24/chatgpt-al-capolinea/</guid>
      <description>&lt;p&gt;&lt;img src=&#34;https://static.233.196.69.159.clients.your-server.de/img/2023-04-24-chatgpt-al-capolinea/donald-giannatti-xI8cWGzAN5U-unsplash.jpg&#34; alt=&#34;&#34;&gt;&#xA;&amp;ndash; &lt;em&gt;Fonte: &lt;a href=&#34;https://unsplash.com/@wizwow&#34;&gt;Donald Giannatti&lt;/a&gt; su &lt;a href=&#34;https://unsplash.com&#34;&gt;Unsplash&lt;/a&gt;&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Chiunque ne sappia un po&amp;rsquo; di queste faccende lo aveva capito da tempo: i modelli linguistici di grandi dimensioni (&lt;em&gt;Large Language Models&lt;/em&gt;, LLM), come &lt;a href=&#34;https://openai.com/product/gpt-4&#34;&gt;GPT-3/4&lt;/a&gt; di OpenAI, da cui deriva la stella del momento &lt;a href=&#34;https://chat.openai.com/&#34;&gt;ChatGPT&lt;/a&gt;, o come &lt;a href=&#34;https://ai.facebook.com/blog/large-language-model-llama-meta-ai/&#34;&gt;LLaMA&lt;/a&gt; di Facebook, &lt;a href=&#34;https://crfm.stanford.edu/2023/03/13/alpaca.html&#34;&gt;Alpaca&lt;/a&gt; di Stanford e compagnia bella, non hanno un futuro, sono troppo complicati, avidi di risorse e costosi per essere sostenibili a lungo termine.&lt;/p&gt;&#xA;&lt;p&gt;Sembra di assistere alla riedizione della corsa al GHz nei processori di classe Pentium di una ventina di anni fa, conclusasi quando Intel ed AMD finirono per &lt;a href=&#34;https://www.theregister.com/2004/05/07/intel_cancels_tejas/&#34;&gt;sbattere contro un muro&lt;/a&gt; costituito dai limiti fisici della tecnologia dei semiconduttori, in particolare l&amp;rsquo;impossibilità di raffreddare adeguatamente la CPU, obbligando i produttori ad un cambio di prospettiva che ci ha portato ad avere processori molto più potenti ma allo stesso tempo infinitamente più efficienti.&lt;/p&gt;&#xA;&lt;p&gt;Anche gli LLM stanno per sbattere contro un muro analogo. Nel 2018, il modello GPT-1 contava 117 milioni di parametri, mentre nel 2019 il suo successore, GPT-2, ne contava già 1,5 miliardi. Nel 2020, GPT-3 ha raggiunto il numero strabiliante di 175 miliardi di parametri, mentre si stima che GPT-4, appena rilasciato, abbia circa 1000 miliardi di parametri e che il suo addestramento sia costato ben più di 100 milioni di dollari (i dati sono tratti da &lt;a href=&#34;https://medium.com/walmartglobaltech/the-journey-of-open-ai-gpt-models-32d95b7b7fb2&#34;&gt;questo articolo su Medium&lt;/a&gt;).&lt;/p&gt;&#xA;&lt;p&gt;In sostanza, in appena 5 anni  il numero di parametri del modello linguistico &lt;em&gt;Generative Pretrained Transformer&lt;/em&gt;, meglio noto come GPT, è cresciuto di ben 10.000 volte, quasi un ordine di grandezza all&amp;rsquo;anno, ma andare avanti a questo ritmo è fisicamente impossibile. E non lo dico io, lo dice &lt;a href=&#34;https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/&#34;&gt;Sam Altman, l&amp;rsquo;amministratore delegato di OpenAI&lt;/a&gt;, che è l&amp;rsquo;azienda che sta dietro ai modelli GPT-1/4 e a ChatGPT.&lt;/p&gt;&#xA;&lt;blockquote&gt;&#xA;&lt;p&gt;&amp;ldquo;Penso che siamo alla fine dell&amp;rsquo;era in cui ci saranno questi modelli, diciamo, giganti, giganteschi. Li miglioreremo in altri modi&amp;rdquo;.&lt;/p&gt;&#xA;&lt;p&gt;“I think we&amp;rsquo;re at the end of the era where it&amp;rsquo;s going to be these, like, giant, giant models. We&amp;rsquo;ll make them better in other ways.”&lt;/p&gt;&lt;/blockquote&gt;&#xA;&lt;p&gt;Se lo sostiene perfino lui, è evidente che la gestione di questi modelli linguistici sia diventata insostenibile anche per una azienda piena di soldi come OpenAI. Non è un caso che nel frattempo lo sviluppo di GPT-5 sia in &lt;em&gt;standby&lt;/em&gt;.&lt;/p&gt;&#xA;&lt;p&gt;Serve un cambio di rotta, perché nel campo dell&amp;rsquo;intelligenza artificiale non è affatto detto che &lt;a href=&#34;https://www.zdnet.com/article/amazons-alexa-scientists-demonstrate-bigger-ai-isnt-always-better/&#34;&gt;più grande significhi per forza di cose migliore&lt;/a&gt;.&lt;/p&gt;&#xA;</description>
    </item>
  </channel>
</rss>
