• Tutto con Bancomat. Scambi denaro, giochi ti premi.
  • Esprinet molto più di un distributore di tecnologia

Google restringe Gemini: addio API gratis mentre GPT-5.2 alza la posta

- di: Marta Giannoni
 
Google restringe Gemini: addio API gratis mentre GPT-5.2 alza la posta
Google restringe Gemini: addio API “gratis” mentre GPT-5.2 alza la posta
Tagli alle quote, 429 a raffica e pressione sul paid: l’AI entra nell’era del conto economico.

 La stagione del “prendete pure, poi vediamo” sta rapidamente diventando un ricordo. Google haristretto in modo significativo l’uso gratuito delle API legate a Gemini, con un effetto immediato su prototipi, automazioni e micro-servizi che vivevano (felici) di un equilibrio fragile: un po’ di potenza gratuita oggi, qualche progetto serio domani. Solo che domani, per molti, è arrivato sotto forma di un messaggio secco.

Nei forum ufficiali per sviluppatori si è accesa la protesta: più di un utente racconta di essersi trovato davanti a una sforbiciata drastica delle richieste giornaliere disponibili e di workflow “spezzati” senza troppi complimenti. Un post, diventato virale nella discussione, sintetizza lo shock con una frase che suona come un cartello sulla porta: "Da 250 richieste al giorno a 20: è inutilizzabile".

Il taglio che cambia la partita

Ridurre le quote gratuite non è un semplice ritocco tecnico: è una scelta di strategia. Google, come tutti i grandi player dell’AI generativa, deve tenere insieme tre forze che tirano in direzioni diverse: domanda in crescita, costi di calcolo elevatissimi e aspettative del mercato su ricavi e sostenibilità. E quando la domanda accelera, il free tier tende a diventare il primo rubinetto da stringere.

Il punto è che l’impatto non colpisce solo i curiosi. Colpisce soprattutto chi, per mestiere o necessità, aveva trasformato la “prova gratuita” in una piccola infrastruttura: automazioni su n8n, integrazioni in smart home, bot interni per assistenza e classificazione, script personali che fanno risparmiare ore. In molti casi, bastano pochi giorni di utilizzo reale per accorgersi che 20 chiamate al giorno non sono un assaggio: sono un cucchiaino.

La versione ufficiale: difesa da abusi e gestione della capacità

Sul piano formale, le motivazioni stanno dentro un perimetro noto: prevenire abusi, mantenere la qualità del servizio e garantire “fair usage”. La documentazione tecnica di Google chiarisce che i rate limit servono a proteggere il sistema e a distribuire capacità tra progetti e modelli. In parallelo, le pagine sulle quote in ambienti collegati (come l’integrazione in ambito Firebase) avvertono che modifiche alle quote possono provocare un aumento di errori 429 e comportamenti inattesi nei progetti.

Traduzione: se l’AI diventa un’autostrada trafficata, il casello gratuito non può restare spalancato come nei giorni di inaugurazione. Ma c’è anche un’altra traduzione, meno diplomatica e più concreta: la monetizzazione avanza.

Il sottotesto: l’AI non è più evangelizzazione, è ROI

Per mesi, l’AI generativa ha vissuto una fase quasi “promozionale”: modelli potenti, accessi facilitati, pricing spesso generoso nelle fasce d’ingresso. Era un modo per conquistare developer, accumulare casi d’uso, spingere ecosistemi. Ora il clima è diverso: l’industria sta cercando di dimostrare che l’AI non è solo una demo infinita ma un business che regge i costi.

E qui entra il fattore competizione: mentre Google calibra accessi e prezzi, OpenAI ha lanciato GPT-5.2 (in varianti orientate a velocità, ragionamento e affidabilità), puntando su miglioramenti in capacità generali, gestione di contesti lunghi e coding. La notizia è stata accompagnata anche da retroscena sul ritmo interno: un’accelerazione spinta dalla pressione competitiva e dalla necessità di rispondere ai progressi dei rivali.

Gemini 3, “spigoli” in meno e più carattere

Nel frattempo, Google spinge su Gemini 3 e sulle sue modalità di ragionamento avanzato, con un messaggio chiaro: più solidità, più consistenza, più capacità multimodali. Il racconto pubblico insiste su un modello che “regge” meglio l’uso quotidiano, non solo i benchmark. In varie interviste e uscite pubbliche, l’idea che filtra è che l’assistente debba essere meno servile e più capace di “tenere posizione” quando serve: non un esecutore passivo, ma un sistema che ragiona, contesta, propone alternative.

Chi paga davvero il conto del cambio di regole

La conseguenza più delicata non è la fine del “gratis”, ma la lezione che porta con sé: dipendere da un tier gratuito per processi importanti è un rischio operativo. Soprattutto per PMI e team piccoli, che spesso costruiscono prototipi “che poi diventano produzione” senza un vero passaggio di governance.

È la stessa dinamica che il mondo IT conosce fin troppo bene: licenze che cambiano, condizioni che si irrigidiscono, prodotti che si riposizionano. Solo che qui il ritmo è più rapido e l’impatto più trasversale: l’AI entra nelle email, nei CRM, nei ticket, nelle pipeline di sviluppo, e quando una quota scende, si ferma un pezzo di catena.

Che cosa fare adesso: tre mosse concrete

  • Rendere i workflow “quota-aware”: caching, batching delle richieste, retry con backoff, deduplica dei prompt e monitoraggio costante. Se l’errore 429 è diventato frequente, trattarlo come un evento normale (non eccezionale) è la differenza tra resilienza e blackout.
  • Separare prototipo e produzione: il free tier può restare utile per test e prove, ma la produzione va pianificata su un budget, anche minimo, e con un piano di continuità (secondo provider o fallback locale).
  • Valutare alternative e architetture ibride: per compiti ripetitivi o standardizzati, modelli più piccoli on-prem o su GPU “a consumo” possono ridurre la dipendenza dalle API generaliste. Non sempre conviene, ma sempre più spesso è un’opzione da mettere sul tavolo.

La domanda finale: siamo pronti al ritmo dell’AI?

C’è un paradosso che serpeggia in tutto il settore: si corre così in fretta da lasciare sul terreno una parte enorme delle possibilità di ogni modello, perché il ciclo successivo arriva prima che quello attuale sia davvero “digerito” dalle organizzazioni. E mentre gli assistenti diventano più bravi, il contesto attorno — costi, policy, quote, integrazioni — diventa più instabile.

Morale: non è solo una guerra di benchmark. È una guerra di affidabilità, prevedibilità e controllo. E per chi sviluppa, la domanda non è “qual è il modello migliore?”, ma “qual è il modello su cui posso costruire senza svegliarmi domani con il rubinetto chiuso?”.

Notizie dello stesso argomento
Trovati 4 record
04/01/2026
Google restringe Gemini: addio API gratis mentre GPT-5.2 alza la posta
Google riduce drasticamente le API gratuite di Gemini: automazioni in crisi, errori 429 e ...
31/12/2025
Filamenti caotici nella più grande culla di pianeti mai vista
Filamenti caotici nella più grande culla di pianeti mai vista
Trovati 4 record
  • Con Bancomat, scambi denaro, giochi e ti premi.
  • Punto di contatto tra produttori, rivenditori & fruitori di tecnologia