Proxy multi-provider

Pourquoi Metrion ?

La plupart des devs sur-dépensent sur leurs APIs IA sans le savoir — mauvais modèle, pas de visibilité, aucun moyen d'optimiser. Metrion règle ça en 2 minutes.

Les devs utilisent souvent un modèle trop puissant pour leurs tâches

Classifier du texte avec Opus coûte 15× plus cher qu'avec Haiku — pour un résultat identique. Sans monitoring, ce gaspillage passe inaperçu des mois.

Vous sur-dépensez sans le savoir

Metrion identifie les modèles trop puissants pour vos tâches et chiffre l'économie possible.

Vous ne savez pas ce qui consomme quoi

Chaque requête est loggée avec modèle, tokens, coût, latence et source — en temps réel.

Vous analysez vos données à la main

Claude examine vos 30 derniers jours et génère des recommandations concrètes en un clic.

Intégrer un nouvel outil prend du temps

2 lignes à changer dans votre code. Pas de nouveau SDK, pas de refacto. Branché en 2 minutes.

Fonctionnement

Un proxy transparent — rien ne change pour votre code

Sans Metrion

💻

Votre application

Envoie une requête à l'IA

🤖

API IA

Répond

Aucune visibilité sur les tokens, les coûts ou les modèles utilisés.

Avec Metrion

💻

Votre application

Même code qu'avant

🛰️

Proxy Metrion

Compte · Calcule · Mesure

🤖

API IA

Répond normalement

Votre app reçoit la même réponse. Metrion travaille en arrière-plan, de façon invisible.

Intégration

2 lignes à changer dans votre code

// 1. Installez le SDK : npm install openai
import OpenAI from 'openai'

const client = new OpenAI({
  apiKey: 'VOTRE_CLE_API_METRION',
  baseURL: 'https://metrion.dev/api/proxy/openai/v1',
})

// 2. Utilisez exactement comme avant
const response = await client.chat.completions.create({
  model: 'gpt-4o',
  messages: [{ role: 'user', content: 'Hello!' }],
})

FAQ

Questions fréquentes

Commencer gratuitement

Gratuit · Aucune carte bancaire · 2 minutes pour brancher