Diese Anleitung führt dich durch die Einrichtung von MCP (Model Context Protocol) Servern auf Mac und Windows.
- MCP Inspector
- MCP Server Setup mit Claude Desktop
- Setup mit VSCode
- Alternative: Lokaler MCP Server mit Ollama
- Troubleshooting
MCP Inspector ist ein Entwicklertool von Anthropic zum Testen und Debuggen von MCP-Servern. Es besteht aus einer React-basierten Web-UI (Inspector Client) und einem MCP Proxy, der den Browser mit MCP-Servern verbindet. Das Tool hilft Entwicklern, ihre MCP-Server-Implementierungen während der Integration oder Entwicklung zu validieren und Fehler zu beheben.
Bevor du MCP Inspector nutzen kannst, musst du Node.js installieren:
- Besuche https://nodejs.org/download/release/latest/
- Lade die LTS-Version für macOS herunter, auf "macOS Installer (.pkg)" klicken
- Öffne die heruntergeladene .pkg-Datei
- Folge den Installationsanweisungen
- Terminal öffnen (in der macOS Suche den Begriff Terminal eingeben)
- Überprüfe die Installation im Terminal:
node --version npm --version
- Bei erfolgreicher Installation wird das Terminal die Versionen ausgeben:
v22.18.0 10.9.3
Alternativ mit Homebrew:
- Terminal öffnen
- Folgenden Command ausführen:
brew install node
- Besuche https://nodejs.org/download/release/latest/
- Lade die LTS-Version .msi-Datei für Windows herunter
- Führe die .msi-Datei aus
- Folge dem Installationsassistenten
- In Startmenü nach Powershell suchen
- Überprüfe die Installation in der Eingabeaufforderung/Powershell:
node --version npm --version
Nach der Node.js Installation kannst du MCP Inspector einfach ausführen:
-
Terminal oder PowerShell öffnen
-
Folgenden Command ausführen:
npx @modelcontextprotocol/inspector
-
Installation der Packages bestätigen
-
Inspector wird in Browser Tab geöffnet, Streamable HTTP selektieren und URL https://unic-swiss-ai-weeks-mcp.azurewebsites.net/mcp/ eingeben
-
Connect drücken
Weitere Informationen findest du im offiziellen Repository: https://github.com/modelcontextprotocol/inspector
Besuche https://claude.ai/download und lade Claude Desktop für dein Betriebssystem herunter:
- Lade die .dmg-Datei herunter
- Öffne die .dmg-Datei
- Ziehe Claude in den Programme-Ordner
- Lade die .exe-Datei herunter
- Führe die Installation aus
- Folge den Installationsanweisungen
Starte Claude Desktop und logge dich mit deinem Anthropic-Konto ein oder registriere dich.
Öffne die Einstellungen in Claude Desktop.
Klicke in den Developer Settings auf "Edit Config".
Bearbeite die JSON-Konfiguration so, dass sie folgendermassen aussieht:
{
"mcpServers": {
"swiss-ai-weeks-mcp": {
"command": "npx",
"args": [
"mcp-remote",
"https://unic-swiss-ai-weeks-mcp.azurewebsites.net/mcp/"
]
}
}
}
Oder füge diesen Teil in eine bestehende Konfiguration ein:
"swiss-ai-weeks-mcp": {
"command": "npx",
"args": [
"mcp-remote",
"https://unic-swiss-ai-weeks-mcp.azurewebsites.net/mcp/"
]
}
Speichere die Konfiguration und starte Claude Desktop neu, damit die Änderungen wirksam werden.
Für Entwickler, die bereits VSCode nutzen, gibt es auch eine VSCode-Integration:
- Öffne die Command Palette mit
CMD + Shift + P
- Wähle "MCP: Add Server" aus
- Wähle "HTTP" als Art von Server aus
- Gib die URL ein (aus der JSON Konfiguration hier kopieren)
- Gib einen Namen ein, z.B.
unic-swiss-ai-weeks-mcp
- Wähle aus, ob der Server überall oder nur im Workspace verfügbar sein soll
- Mit Github Copilot Agent den MCP Server nutzen
Am Ende sollte der Server in der Konfiguration in mcp.json
so aussehen:
"unic-swiss-ai-weeks-mcp": {
"url": "https://unic-swiss-ai-weeks-mcp.azurewebsites.net/mcp/",
"type": "http"
}
Als Alternative kannst du auch einen MCP-Server mit einem lokalen LLM verbinden. Das ermöglicht dir mehr Kontrolle und erhöht den Schutz deiner Daten.
Ollama ist ein Tool, das es ermöglicht, große Sprachmodelle (LLMs) lokal auf deinem Computer auszuführen. In Kombination mit MCPHost kannst du MCP-Server mit lokalen LLMs verwenden.
Wir haben Installationsskripte erstellt, die den gesamten Prozess automatisieren:
Lade das Skript herunter und führe es aus:
curl -O https://raw.githubusercontent.com/unic/MCP-Setup-Instructions/main/mcp_install_mac.sh
chmod +x mcp_install_mac.sh
./mcp_install_mac.sh
Was macht das Skript:
- Installiert Homebrew (falls nicht vorhanden)
- Installiert Ollama und Go
- Startet den Ollama-Service
- Lädt das Qwen3:8b Modell herunter (unterstützt Tool-Calling)
- Installiert MCPHost über Go
- Erstellt die MCP-Konfigurationsdatei
- Konfiguriert die PATH-Variable
Voraussetzung: Installiere zuerst Ollama manuell von https://ollama.com/download/windows
Lade dann das PowerShell-Skript herunter und führe es als Administrator aus:
# PowerShell als Administrator öffnen
Invoke-WebRequest -Uri "https://raw.githubusercontent.com/unic/MCP-Setup-Instructions/main/mcp_install_windows.ps1" -OutFile "mcp_install_windows.ps1"
.\mcp_install_windows.ps1
Hinweis: Falls beim Ausführen des Skripts eine Fehlermeldung bezüglich Berechtigungen erscheint, setze die Ausführungsrichtlinie mit folgendem Befehl (nur einmal notwendig):
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser
Was macht das Skript:
- Prüft ob Go und Ollama installiert sind
- Installiert Go automatisch (über winget, falls verfügbar)
- Lädt das Qwen3:8b Modell herunter (unterstützt Tool-Calling)
- Installiert MCPHost über Go
- Erstellt die MCP-Konfigurationsdatei
- Konfiguriert die PATH-Variable
Mac:
brew install ollama
brew services start ollama
Windows: Lade Ollama von https://ollama.com/download/windows herunter und installiere es.
ollama run qwen2.5
# oder
ollama run qwen3:8b
Mac:
brew install go
Windows: Verwende winget oder lade Go von https://go.dev/doc/install herunter.
go install github.com/mark3labs/mcphost@latest
Erstelle eine mcp_config.json
Datei:
{
"mcpServers": {
"swiss-ai-weeks-mcp": {
"command": "npx",
"args": [
"mcp-remote",
"https://unic-swiss-ai-weeks-mcp.azurewebsites.net/mcp/"
]
}
}
}
mcphost -m ollama:qwen2.5 --config "pfad/zur/mcp_config.json"
- Privatsphäre: Alle Daten bleiben auf deinem Computer
- Offline-Nutzung: Funktioniert ohne Internetverbindung
- Anpassbar: Verschiedene Modelle und Konfigurationen möglich
- Kostenfrei: Keine API-Kosten für die Nutzung