## Introduzione Andrej Karpathy ha deciso di passare il weekend a leggere un libro, ma non voleva farlo da solo. Voleva leggerlo con una commissione di intelligenze artificiali che offrivano le loro prospettive e critiche reciproche. Per questo scopo, ha scritto un codice dietro una "vibecode" - un progetto di software scritto velocemente, per lo più grazie a assistenti AI, inteso per divertimento piuttosto che funzione. ## Dettagli Il progetto è stato pubblicato su GitHub con una forte dichiarazione di non supporto: "I non sosterrò in alcun modo questo codice. I codici sono eccessivamente evanescenti ora e le librerie sono obsolete". Tuttavia, per gli amministratori tecnici aziendali che attraversano l'orizzonte aziendale, guardare oltre il dichiarazione casuale rivelò qualcosa di molto più significativo del progetto: una architettura di referenza per la più critica, indeterminata struttura del software: la middleware di orchestrazione che si trova tra le applicazioni aziendali e l'ambiente mercato instabile dei modelli AI. ## Implicazioni pratiche L'architettura dell'applicazione è stata costruita su una "bolla" di tecnologie leggere: il backend usa FastAPI, un moderno framework di Python, mentre la finestra frontale è un'applicazione React costruita con Vite. I dati vengono immagazzinati su una semplice raccolta di file JSON sul disco locale. La chiave del tutto si trova nell'applicatore OpenRouter, che normalizza le differenze tra i fornitori diversi dei modelli. Così facendo, Karpathy evita di scrivere codice separato per ciascun fornitore, garantendo così la flessibilità e proteggendosi da eventuali vincoli di marchio. Il progetto dimostra come i modelli AI possano essere trattati in modo intercambiabile. Se un nuovo modello topa i leaderboards della settimana successiva, può essere aggiunto al consiglio con solo la modifica di una riga nel codice. ## Conclusioni L'LLM Council è un progetto che mette in luce come i modelli AI possano essere utilizzati per creare soluzioni interattive e flessibili. Questo approccio potrebbe rivelarsi utile non solo per gli sviluppatori, ma anche per le aziende che cercano di gestire un'ampia gamma di dati e richieste. L'industria è stata messa alla prova dal fatto che Karpathy abbia scritto il codice in poche ore. Ciò mette in discussione la strategia tradizionale delle aziende, che costruiscono librerie internazionali e struttture di gestione dei dati per affrontare le complesse questioni del software. Così come dimostra che un modello più efficiente, in grado di generare codici personalizzati rapidamente, potrebbe essere una strategia vincente. L'LLM Council attira l'attenzione su questo aspetto e ci porta a chiederci se sia possibile per le aziende ottenere il beneficio del lavoro con strumenti più flessibili. ## Altri progetti * LLM * Framework * Hardware * Mercato * Altro