Un utente di Reddit ha espresso preoccupazione riguardo alle recenti modifiche apportate da Google ai suoi modelli Gemini, in particolare per quanto riguarda l'aumento dei costi e la diminuzione della qualità.

Aumento dei costi, calo della qualità

L'utente, che utilizzava Gemini 2.0 Flash per attività di OCR (Optical Character Recognition), estrazione dati e summarization, ha notato un aumento di circa sei volte nel costo di output con le versioni successive (Gemini 2.5/3). Allo stesso tempo, la precisione non è migliorata e, in alcuni test di fine-tuning, è addirittura peggiorata.

Fine del modello economico

L'opzione più economica, Gemini 2.5-flash-lite, è stata contrassegnata come EOL (End Of Life) senza che sia stato annunciato un successore 3-flash-lite. Questo rende difficile la pianificazione a lungo termine per chi si affida a questi modelli per attività specifiche.

Ricerca di alternative

L'utente ha aperto un ticket con Google per chiedere un'estensione dell'EOL per i modelli Gemini Flash o un successore a basso costo. Nel frattempo, è alla ricerca di un LLM alternativo per OCR ed estrazione dati che offra un fine-tuning semplice e gestito a un prezzo ragionevole.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.