1.9 KiB
1.9 KiB
Anthropic-Compatible Provider Check 2026-03-30
Fecha de prueba: 2026-03-30
Se probaron endpoints reales con payload POST /v1/messages y prompt minimo: Respond with exactly OK and nothing else.
Resultado
| Provider | Endpoint | Modelo | HTTP | Latencia aprox | Obediencia exacta |
|---|---|---|---|---|---|
| Z.ai | https://api.z.ai/api/anthropic/v1/messages |
glm-5.1 |
200 | ~2899 ms |
SI |
| DashScope | https://coding-intl.dashscope.aliyuncs.com/apps/anthropic/v1/messages |
glm-5 |
200 | ~5002 ms |
SI |
| DashScope | https://coding-intl.dashscope.aliyuncs.com/apps/anthropic/v1/messages |
qwen3.5-plus |
200 | ~6108 ms |
SI |
| DashScope | https://coding-intl.dashscope.aliyuncs.com/apps/anthropic/v1/messages |
MiniMax-M2.5 |
200 | ~5582 ms |
SI |
| Fireworks | https://api.fireworks.ai/inference/v1/messages |
accounts/fireworks/routers/kimi-k2p5-turbo |
200 | ~1398 ms |
NO |
Lectura practica
Z.ai / glm-5.1fue el mejor equilibrio entre latencia y obediencia.DashScopefunciona en modo Anthropic-compatible con los tres modelos probados.Fireworks / kimi-k2p5-turborespondio rapido, pero no obedecio una instruccion minima simple. En vez de devolver soloOK, devolvio razonamiento extra.
Recomendacion actual para el proyecto
- Usar
Z.ai / glm-5.1como provider principal para jueces. - Mantener
DashScope / glm-5como fallback serio si Z.ai empieza a devolver429. - No usar
Fireworks / kimi-k2p5-turbocomo arbitro principal de palettes mientras siga mostrando peor obediencia al contrato de salida.
Implicacion para Kimi
Si vas a tocar zai_judges.py, primero asume este orden:
glm-5.1 @ Z.aiglm-5 @ DashScopeqwen3.5-plus @ DashScope
No cambies el provider principal solo por latencia. Para este proyecto importa mas la obediencia del JSON y la disciplina del arbitro que ahorrar 1-3 segundos por llamado.