Anthropic wprowadziło techniczne ograniczenia, które zablokowały dostęp aplikacjom zewnętrznym. Oprogramowanie to podszywało się pod klienta Claude Code. Dzięki temu korzystało z modeli sztucznej inteligencji po stawkach konsumenckich zamiast przez płatne API. Zmiana uderzyła w programistów pracujących z narzędziami open source, takimi jak OpenCode. Jednocześnie dostęp stracili inżynierowie xAI, którzy używali Claude poprzez środowisko IDE Cursor.
Z tego powodu, firma skierowała działania przeciwko tak zwanym „harnesses”. Są to warstwy pośrednie, które wykorzystują OAuth do uwierzytelniania subskrypcji konsumenckich Claude. Następnie przekierowują one zapytania do zautomatyzowanych procesów. Dzięki podszywaniu się pod identyfikator klienta Claude Code narzędzia te umożliwiały intensywne sesje generowania kodu. Odbywały się one w ramach abonamentu Anthropic Max, który kosztuje dwieście dolarów miesięcznie. W normalnych warunkach taki wolumen zapytań oznaczałby koszt przekraczający tysiąc dolarów miesięcznie przy rozliczeniu przez Commercial API. Thariq Shihipar z zespołu technicznego Anthropic odpowiedzialnego za Claude Code przyznał na X, że firma „zaostrzyła zabezpieczenia przed podszywaniem się pod harness Claude Code”. Zaznaczył też, że filtry antyabuzywne błędnie oznaczyły część kont.
Walka o cenę w bufecie Claude Code
Użytkownicy Hacker News tłumaczyli sytuację za pomocą „analogii do bufetu”. Według nich Anthropic oferuje subskrypcję w modelu „jedz ile chcesz”. Tempo korzystania kontroluje jednak oficjalne narzędzie Claude Code. Rozwiązania tworzone przez firmy trzecie usuwały te ograniczenia. Pozwalało to autonomicznym agentom prowadzić wielogodzinne, nocne sesje programistyczne. W innym modelu byłyby one zbyt kosztowne.
„W ciągu miesiąca korzystania z Claude Code można łatwo zużyć tyle tokenów LLM, że kosztowałoby to ponad 1000 dolarów, gdyby płacić przez API”
– zauważył jeden z użytkowników.
Anthropic wskazało niestabilność techniczną jako główny powód wprowadzenia blokad. Thariq Shihipar podkreślił, że firma napotyka trudności diagnostyczne. Dotyczy to błędów oraz nietypowych wzorców użycia. Problem pojawia się wtedy, gdy narzędzia firm trzecich przechwytują żądania. Nowe ograniczenia kierują użytkowników o dużym zapotrzebowaniu obliczeniowym do dwóch zatwierdzonych rozwiązań. Pierwszym z nich pozostaje płatny Commercial API. Drugim jest środowisko Claude Code zarządzane bezpośrednio przez Anthropic, w którym firma zachowuje pełną kontrolę nad limitami.
Materiał powstał we współpracy z AI:






