
Anthropic ha puesto en marcha nuevas medidas técnicas para frenar el uso no autorizado de Claude por parte de aplicaciones de terceros y laboratorios rivales, según la información publicada por VentureBeat. De acuerdo con estas fuentes, el cambio afecta sobre todo a los llamados “harnesses” o envoltorios de código, que conectaban cuentas de usuario de Claude con flujos de trabajo automatizados externos.
Qué está cambiando exactamente en Claude Code
Según los datos facilitados, Anthropic ha desplegado nuevos salvaguardas para impedir que apps de terceros suplanten a Claude Code, su cliente oficial de programación, con el objetivo de acceder a los modelos de Claude con mejores precios y límites de uso. De acuerdo con la compañía, este cambio ha cortado de golpe la conexión entre las suscripciones de consumo de Claude Pro o Max y entornos de desarrollo externos que se apoyaban en esos accesos.
La medida impacta directamente en herramientas como OpenCode, un agente de código open source muy popular que se apoyaba en la identidad de Claude Code para ejecutar tareas automatizadas a gran escala. Según la fuente, estos harnesses funcionaban enviando cabeceras que hacían creer a los servidores de Anthropic que las peticiones venían del CLI oficial de Claude Code, algo que ahora los nuevos controles buscan bloquear de forma sistemática.
Cómo funcionan los harnesses y por qué están en el punto de mira
De acuerdo con la información publicada, un harness actúa como puente entre una suscripción pensada para humanos y un flujo de trabajo completamente automatizado. En la práctica, esto permitía que una cuenta personal de Claude, contratada con tarifa plana, alimentara procesos masivos de programación y automatización que se ejecutaban desde otras herramientas, sin pasar por los canales comerciales de uso intensivo.
Según explica la fuente, Anthropic argumenta que estos envoltorios generan inestabilidad técnica y patrones de uso difíciles de diagnosticar, porque cuando algo falla los usuarios culpan al modelo y no al software intermedio. En esa línea, la compañía sostiene que retirar estos accesos es una forma de proteger la confianza en la plataforma y su soporte técnico, al asegurarse de que controla el entorno donde se ejecutan las llamadas a Claude.
- Puente entre suscripción y automatización: convierte una cuenta de usuario en motor de procesos automáticos.
- Suplantación del cliente oficial: las peticiones se disfrazan como si salieran de Claude Code.
- Riesgos de estabilidad y soporte: errores difíciles de rastrear y mala experiencia de usuario.
El trasfondo económico y el “buffet” de suscripción
Voces de la comunidad técnica citadas por la fuente apuntan además a un motivo económico de fondo en la decisión. Según los debates recogidos en foros como Hacker News, muchos desarrolladores comparan la suscripción de consumo a Claude Pro o Max con un “all you can eat buffet” de cómputo, en el que el precio plano permitía lanzar grandes volúmenes de trabajo siempre que se usara el cliente oficial.
La compañía estaría tratando de redirigir ese uso intensivo hacia dos vías “legítimas”, según la información disponible: por un lado, la API comercial con cobro por tokens, pensada precisamente para automatizaciones a gran escala; y por otro, el propio entorno gestionado de Claude Code, donde puede imponer límites de ritmo y parámetros de ejecución. Esta reordenación busca, siempre según la fuente, alinear mejor el coste de infraestructura con el tipo de uso que se hace del modelo.
Según los datos publicados, algunos desarrolladores admiten que parte del boom reciente de Claude Code se debía a usuarios que suplantaban el cliente para aprovechar el modelo más potente de Anthropic sin pagar tarifas empresariales.
Reacciones de la comunidad y movimientos de OpenCode
La respuesta de la comunidad de desarrolladores ha sido rápida y, en muchos casos, crítica con el giro de Anthropic. Según recoge la fuente, algunos programadores lo consideran un movimiento “hostil con el cliente”, mientras que otros entienden que la empresa quiera frenar los abusos de las credenciales de suscripción. En paralelo, una parte de los usuarios muestra preocupación por la dependencia de herramientas que pueden quedar bloqueadas de un día para otro.
OpenCode, uno de los proyectos más afectados, ha reaccionado lanzando OpenCode Black, una nueva capa premium de 200 dólares al mes que, según la compañía, canaliza el tráfico a través de un gateway empresarial para esquivar las restricciones de OAuth de consumo. De acuerdo con la información publicada, su creador también ha anunciado una colaboración con OpenAI para ofrecer integración con modelos y agentes alternativos, buscando así diversificar dependencias frente a los cambios de Anthropic.
- Críticas por ser “customer hostile”, según algunos desarrolladores citados en redes.
- Defensas que hablan de una “represión suave”, orientada a evitar sanciones más duras como cierres de cuenta o recargos retroactivos.
- Estrategias de salida como OpenCode Black, que apuestan por APIs empresariales y acuerdos con otros labs.
Choque con laboratorios rivales como xAI y OpenAI
Además del bloqueo a harnesses, la fuente explica que Anthropic ha limitado el uso de sus modelos por parte de laboratorios competidores como xAI, que utilizaba el IDE Cursor para entrenar sistemas alternativos a Claude Code. Según los detalles citados, la compañía se apoya en la sección de restricciones de sus términos de servicio, que prohíbe usar sus APIs para crear productos competidores o entrenar modelos rivales.
No sería la primera vez que actúa en este sentido: de acuerdo con la cronología recogida por VentureBeat, en agosto de 2025 Anthropic revocó el acceso de OpenAI a la API de Claude tras detectar que se utilizaba para benchmarks y pruebas de seguridad de modelos propios. También en 2025, el editor de código Windsurf sufrió un corte abrupto de acceso que obligó a migrar a un modelo “Bring Your Own Key” y a apoyarse en otras opciones como Google, antes de recuperar parte de la integración semanas después.
Un ecosistema de IA cada vez más cerrado
Según la interpretación que ofrece la fuente, el mensaje de Anthropic con este movimiento es claro: la compañía quiere marcar líneas rojas en cómo se usa Claude, tanto por los usuarios intensivos como por otros actores del sector. Estas decisiones encajan en una tendencia más amplia en la que los grandes labs de IA refuerzan el control sobre su propiedad intelectual y su computación, especialmente a medida que sus modelos se convierten en infraestructura crítica para terceros.
Para quienes desarrollan productos sobre estos sistemas, el cambio subraya la importancia de no depender únicamente de accesos de consumo ni de integraciones no oficiales. De acuerdo con la información disponible, el caso de Claude Code, OpenCode y los distintos bloqueos a herramientas como Cursor o Windsurf apunta a un futuro en el que los acuerdos de uso, las APIs comerciales y el cumplimiento estricto de términos de servicio serán piezas centrales del día a día en el desarrollo con IA generativa.
Fuente: https://venturebeat.com/technology/anthropic-cracks-down-on-unauthorized-claude-usage-by-third-party-harnesses