← Tutti gli articoli

MCP, il protocollo che cambia il modo di usare l'AI negli IDE

12 December 20242 min di lettura

A novembre Anthropic ha annunciato Model Context Protocol. Sembra un dettaglio tecnico, è un cambio di paradigma per chi sviluppa software con assistenti AI.

Il 25 novembre 2024, Anthropic ha annunciato il Model Context Protocol (MCP): uno standard aperto per collegare modelli AI a fonti di dati e a strumenti esterni. La notizia è circolata poco fuori dalla cerchia degli early adopter, ma per chi sviluppa software con assistenti AI è uno dei cambiamenti più rilevanti del 2024.

Il problema che MCP risolve

Fino al 2024, ogni assistente AI per il codice integrava le sue fonti dati con plugin proprietari: GitHub Copilot ha le sue, Cursor le sue, ChatGPT plugin completamente diversi. Il risultato è frammentazione: un fornitore costruisce un connettore per Linear → ognuno deve farlo separatamente.

MCP propone uno standard unico: un server MCP espone risorse e strumenti, un client MCP (Claude Desktop, Claude Code, Cursor, ecc.) si connette al server e mette a disposizione del modello quei dati e quegli strumenti. Stessa interfaccia, riusabile.

Cosa significa concretamente

Significa che possiamo:

  • Far accedere all'AI il nostro database in sola lettura, con uno schema definito, senza copiare dati nel prompt.
  • Collegare l'AI a Linear, GitHub, Slack, Notion in modo standard.
  • Esporre tool interni (build, test, deploy) come strumenti utilizzabili dall'agente.
  • Avere un file system locale controllato visibile all'agente, con permessi granulari.

Il primo server MCP che abbiamo scritto

Per uno dei nostri clienti abbiamo scritto un server MCP che espone i log di produzione filtrati per servizio. Ora quando un dev chiede a Claude "perché l'API di checkout sta dando 500", l'assistente interroga il server MCP, riceve gli ultimi 100 errori e propone la diagnosi. Senza MCP, il flusso sarebbe stato: copia-incolla del log nel prompt — con i suoi rischi e i suoi limiti di token.

// pseudocodice di un server MCP
server.tool("get-recent-errors", {
  service: z.string(),
  limit: z.number().default(50),
}, async ({ service, limit }) => {
  const errors = await prisma.log.findMany({
    where: { service, level: "error" },
    orderBy: { timestamp: "desc" },
    take: limit,
  });
  return { errors };
});

Cosa cambia per chi sviluppa

Il cambiamento maggiore è culturale: l'AI smette di essere un cervello scollegato che riceve testo e diventa un agente che opera nel contesto reale del progetto. Sa cosa c'è nel database, sa cosa c'è nei ticket, sa cosa è successo in produzione l'ultima ora.

Per noi che facciamo software per altri, è un cambio di approccio anche commerciale: i nostri clienti potranno avere strumenti interni dove l'AI parla davvero con i loro dati, in modo controllato e auditabile.

Cosa non aspettarsi

MCP non sostituisce l'agente. È un protocollo, non un cervello. Le risposte restano buone solo quanto il modello che le genera, e i bug sono ancora i bug. Quello che cambia è il pavimento: prima parcellizzato, ora condiviso.

Per i prossimi 12 mesi MCP è la cosa più interessante da seguire nel mondo dell'AI tooling. Aspettiamoci una proliferazione di server MCP — ufficiali e di community — e una standardizzazione dei pattern di integrazione.