Progamma con InDe sempre al TOP, penso che siamo tutti in attesa di metà Aprile!

Presentazione impeccabile ed entusiasmante che però aspetto di rivedere al rallenty quando verrà rilasciato il video. Andrea è molto veloce ma io ho un cervello diesel :wink:
Se tutto funzionerà come abbiamo sentito, e io non ho dubbi, sviluppare sarà un gran divertimento oltre che un modo per portare a casa i maccheroni.
Io non vedo l’ora di arrivare al 15 aprile. Dai, mancano “solo” circa 1.164 ore.

Immagino che verranno organizzati diversi webinar per imparare ad apprendere tutte queste novità. E’ così?

In attesa che che trascorrano le 1.164 ore mi sto documentando, non ricordo se è nel webinar che si è parlato di orchestratore, comunque ho chiesto a chatGPT.

:bullseye: Cos’è un orchestratore

Un orchestratore è il pezzo di software che:

Decide cosa deve succedere, in che ordine, usando quali strumenti.

Non è l’LLM.
È il regista.

:green_circle: :one: Orchestratore Minimo (base)

È quello che usa il 90% dei progetti.

Flusso:

Utente → LLM → (eventuale tool) → Risposta

Caratteristiche:

  • Una chiamata alla volta
  • Se il modello chiama un tool → lo esegui
  • Rimandi risultato al modello
  • Fine

Esempio tipico:

while(response.HasToolCall)
{
eseguiTool();
rimandaAlModello();
}

:check_mark: Semplice
:check_mark: Controllo manuale
:check_mark: Poco codice
:cross_mark: Nessuna logica complessa

:yellow_circle: :two: Orchestratore Intermedio (strutturato)

Qui iniziano le cose serie.

Aggiunge:

  • Validazione tool
  • Controllo ruoli
  • Stato della conversazione
  • Logging avanzato
  • Gestione errori tool
  • Limite chiamate
  • Retry automatico

Flusso diventa:

Utente

Valida contesto

LLM

Filtro sicurezza

Tool

Controllo output

LLM

Risposta

Qui inizi a:

  • Difenderti da tool pericolosi
  • Bloccare SQL rischiosi
  • Validare JSON prima di salvare

:backhand_index_pointing_right: Questo è il livello giusto per un agente reale.

:red_circle: :three: Orchestratore Avanzato / Enterprise

Qui entri nel territorio:

  • Multi-agent
  • Pianificazione automatica
  • Stato persistente su DB
  • Task queue
  • Workflow asincroni
  • Event driven
  • Versioning dei tool
  • Policy di sicurezza

Esempio:

Utente:

“Importa tutte le fatture di gennaio, controlla incongruenze e genera report PDF.”

L’orchestratore:

  1. Crea task
  2. Avvia agente parsing
  3. Avvia agente validazione
  4. Avvia agente contabile
  5. Genera PDF
  6. Notifica completamento

Qui non stai più facendo chatbot.
Stai costruendo un sistema operativo AI.

Orchestratori “pronti”

:large_blue_diamond: LangChain

LangChain è un framework open-source per costruire applicazioni con LLM.
È nato in Python (poi anche JS) e serve a fare una cosa precisa:

Collegare un modello AI a strumenti, database, memoria e flussi logici.

Non è un modello. È un orchestratore.

Semantic Kernel

:large_blue_diamond:Semantic Kernel è un framework di orchestrazione AI creato da Microsoft.

Non è:

  • :cross_mark: un modello
  • :cross_mark: un’alternativa a OpenAI
  • :cross_mark: un “cervello”

È un contenitore strutturato per integrare LLM dentro applicazioni software.

3 Mi Piace

Confermo, webinar molto interessante e davvero motivante: dà proprio la carica!

2 Mi Piace

Purtroppo non sono riuscito a partecipare :smiling_face_with_tear: , aspetto la registrazione perché sono veramente curioso di vedere tutte le novità.

1 Mi Piace

Ho visto la registrazione, confermo quanto detto dagli altri su aspettativa e opportunità, ma ho anche un mare di dubbi e paure.

A parte la questione privacy/GDPR, ci sono anche la necessità di ragionare bene la configurazione con cui può operare l’agent a livello DB (e probabilmente servirà una buona dose di studio), o assicurarsi l’effettiva esattezza dei dati calcolati da quello che viene messo in piedi dall’AI e non una cosa solo realistica (notizia di pochi giorni fa dove un’azienda per mesi ha usato dati realistici ma totalmente inventati da AI per il suo business model e le varie scelte di investimento).

Inoltre c’è la questione dei costi da non sottovalutare, già facciamo fatica ad acquistare server più grossi della taglia Small. Se poi non siamo sicuri di ammortizzare i costi della AI probabilmente non inizieremo neanche, e questo mi dispiace molto viste le potenzialità.

In ogni caso state facendo veramente un gran lavoro, grazie!

1 Mi Piace

Concordo, tutto il meccanismo non è semplice da capire e mettere in piedi secondo me.

Dal mio punto di vista, la funzionalità AI che attendo di più è l’integrazione con Claude Code per la generazione di un intero progetto da zero, codice, struttura db, definizione classi, frontend, backend, API… le potenzialità sono impressionanti.

3 Mi Piace

Stavo leggendo un articolo su Goose che fa sostanzialmente la stessa cosa di Claude, si può installare in locale usando un modello locale oppure collegarlo a Claude, ChatGPT…

Questo può essere interessante per chi ha necessità che il codice non lasci il perimetro aziendale.

Poi ok bisogna vedere requisiti hardware etc per ottenere prestazioni paragonabili, sicuramente non lo si fa girare “bene” sul pc da ufficio da 500€

GitHub - block/goose: an open source, extensible AI agent that goes beyond code suggestions - install, execute, edit, and test with any LLM · GitHub

1 Mi Piace

Quando abbinato a un modello locale tramite Ollama, Goose può operare senza account cloud, senza abbonamenti e senza rate limit. Tutti i prompt, il codice e gli output rimangono sul tuo sistema.

E` interessante, purtroppo la differenza di “qualità“ tra modelli LLM è ancora alta (a quanto ne so). Vibe coding ha senso quando il codice generato è buon codice, altrimenti perdi più tempo a litigare con l’agente che a fartelo da te :slight_smile:

3 Mi Piace