MCP Server för API Dokumentation
Table of Contents
Den här artikeln avser följande länder
- Alla länder
Överblick
Vi är stolta över att introducera vår Model Context Protocol (MCP) Server. Denna nya funktionalitet gör det möjligt för utvecklare att överbrygga klyftan mellan vår API-dokumentation och AI-baserade utvecklingsverktyg som Claude, ChatGPT, Cursor och GitHub Copilot. Istället för att manuellt söka igenom dokumentationssidor kan du nu ansluta din AI-assistent direkt till vår live-dokumentation för att få omedelbara, kontextuella svar och korrekta kodavsnitt.
Varför använda MCP?
Den traditionella ”läs-och-research”-metoden för integration utvecklas. Genom att använda vår MCP-server drar du nytta av:
- Zero-Search Integration: Ställ frågor på naturligt språk (t.ex. ”Hur synkar jag skattesatser?”) och få svar omedelbart.
- Kontextuell kodgenerering: Ta emot kodexempel som är skräddarsydda för din specifika fråga och som återspeglar det senaste API-schemat.
- Eliminerade inlärningskurvor: Nya teammedlemmar kan börja bygga omedelbart utan att först behöva behärska hela vår dokumentationsstruktur.
- Realtidsnoggrannhet: AI:n refererar till live-dokumentationen, vilket säkerställer att du aldrig bygger mot föråldrade slutpunkter.
- Minskat kontextbyte: Stanna kvar i din IDE eller AI-assistent utan att hoppa mellan dokumentation, flikar och kod - behåll ditt “flow” och leverera snabbare.
Hur det fungerar
MCP är en öppen standard som gör det möjligt för AI-modeller att få tillgång till externa datakällor på ett säkert sätt. Genom att vara värd för en MCP-server tillhandahåller vi en ”översättare” mellan vår tekniska dokumentation och dina LLM-baserade verktyg. För en partnerutvecklare som vill påskynda sitt arbetsflöde ser upplevelsen ut så här:
- Konfiguration: I ditt valda AI-verktyg (t.ex. Claude Desktop, Cursor, ChatGPT), lägg till MCP-serverns URL i din konfiguration.
- Indexering: AI-verktyget ansluter till servern och indexerar den tillgängliga dokumentationen automatiskt. Frågor: Du ställer frågor på naturligt språk — till exempel ”Hur tillhandahåller jag företagsdata; dimensioner och användare?”
- Vägledande svar: AI:n svarar med svar, kodexempel och vägledning baserad på den aktuella dokumentationen, inklusive referenser tillbaka till relevanta dokumentsidor.
- Konversationsiteration: Du förfinar integrationen, ställer följdfrågor och genererar kod — allt utan att lämna din utvecklingsmiljö.
Exempelscenarier
- Onboarding av nya partners: *Prompt: ”Hur integrerar jag med Admin API för att tillhandahålla användare?” Resultat: AI:n går igenom det relevanta flödet från början till slut.
-
Kodgenerering: *Prompt: ”Ge mig ett TypeScript-exempel för att anropa Dimensions-slutpunkten”
Resultat: AI:n genererar ett fungerande exempel med det senaste schemat. -
Felsökning: *"Varför får jag en 404 från den här endpointen?”
Resultat: AI:n förklarar möjliga orsaker baserat på dokumenterade regler för autentisering och auktorisering. -
Upptäckt: *Prompt: ”Vilka API:er finns tillgängliga för att hantera organisationer?”
Resultat: AI:n listar relevanta slutpunkter med korta beskrivningar och länkar.
Kom igång
Följ dessa steg för att börja använda AI-assistenten:
Hitta din MCP-config: Konfigurationen hittas i Developer portal. Konfigurera ditt verktyg:
I Cursor: Gå till Settings > Models > MCP och lägg till URL:en.
I Claude Desktop: Lägg till konfigurationen i din claude_desktop_config.json-fil.
Börja prompta: När du är ansluten är din AI redo att hjälpa till med specifika utvecklingsuppgifter.
Hur det ser ut
Ytterligare information
MCP-servern exponerar endast publik API-dokumentation - ingen partner-, kund- eller klientdata är tillgänglig via den.
Täckning: MCP-servern återspeglar det som för närvarande är publicerat i utvecklardokumentationen. När dokumentationen uppdateras uppdateras MAP-svaren automatiskt.
AI-centrerad utvecklarupplevelse: Snabbare integrationer, lägre onboarding-friktion och en modern användning av kraftfulla AI-verktyg.
