Serveur MCP avec SpringBoot – Partie 2
Utiliser le serveur avec MCP Inspector en protocol HTTP
Jusqu’ici nous utilisions MCP inspector en STDIO ce qui ne peut faire fonctionner notre serveur quand local. Mais grâce au protocole HTTP on peut faire tourner notre serveur sur N clients et ce tuto est là pour vous montrer comment faire.
Etape 1 : modification de dépendance et de properties
Remplacer ces dépendances :
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-mcp-server</artifactId>
</dependency>
par celle là :
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-mcp-server-webflux</artifactId>
</dependency>
Puis recompiler. Dans les properties remplacer par ceci :
spring.application.name=mcp_server
spring.ai.mcp.server.name=mcp_server
spring.ai.mcp.server.version=0.0.1
spring.main.banner-mode=off
spring.ai.mcp.server.protocol=STREAMABLE
logging.file.name=./model-context-protocol/weather/starter-webflux-server/target/starter-webflux-server.log
sncf.api.base-url=https://api.sncf.com/v1/coverage/sncf/
sncf.api.token=YOUR_SNCF_TOKEN
Etape 2 : Lancer le serveur et MCP inspector
Faire cette commande pour lancer le serveur :
mvn clean install && java -jar ./target/mcp_server-0.0.1-SNAPSHOT.jar
Sur un autre terminal faire cette commande pour lancer MCP inspector :
npx @modelcontextprotocol/inspector
Cela nous permet d’avoir l’interface de debug des tools sans LLM.
Puis sur la redirection de MCP inspector, mettez un transport Streamable HTTP et en url http://localhost:8080/mcp, un type de connexion Via Proxy puis connectez-vous et allez dans list tools et testé vos tools.
Etape 3 : Tester avec un client MCP
Dans mon précédent tuto nous avions utilisé Claude Desktop, aujourd’hui nous allons voir avec Ollama. Mon tuto ce base sur cette source si vous voulez en savoir plus (ollama mcp client).
pré requis :
- Python 3.10+ (guide d’installation)
- Ollama running locally (guide d’installation)
- UV package manager (guide d’installation)
Télécharger un modèle ollama qui tournera sur votre machine. Si vous avez un windows, sans GPU nvidea, je vous conseille un llama3.2:3b pour avoir un temps correcte d’exécution, mais le model ne sera pas très intelligent, admettons vous posez une question nécessitant d’utiliser 2 tools, ce model n’y arrivera pas ^^ Pour les autres OS n’hésitez pas à tester différent modèles bien plus intelligent que celui ci.
ollama run <un_model>
Ensuite faite un /bye pour sortir de la conversation avec le modèle.
Puis faire cette commande pour installer le client MCP pour ollama :
pip install --upgrade ollmcp
S’assurer que le serveur est lancé avec la commande java -jar, puis écouter le port 8080 en streamable http :
ollmcp -u http://localhost:8080/mcp
Et pour choisir le model :
m
Puis tester votre client mcp avec une question.
Conclusion
Maintenant vous pouvez avoir un serveur qui fonctionne pour plusieurs clients et commencez à envisager de vrai cas de serveur MCP et pensé à des solutions qui sécurise vos serveurs MCP comme des gateways.

