Artikel top billede

(Foto: Anthropic / Screenshot)

AI-kæmpe indfører begrænsninger for de betalende brugere efter misbrug

Den amerikanske AI-udvikler Anthropic strammer nu grebet om sine mest ihærdige brugere.

Fra 28. august indfører Anthropic nye ugentlige begrænsninger for brugen af Claude Code, som selskabets populære AI-værktøj til softwareudvikling hedder.

Det sker i et forsøg på at begrænse ekstreme brugsmønstre og misbrug af abonnementer, oplyser selskabet i en mail til sine brugere og på X (tidligere Twitter).

Ændringen gælder både for Claude Pro-abonnementet til 20 dollar om måneden og de dyrere Max-abonnementer til henholdsvis 100 og 200 dollar.

Tiltaget skal ifølge Anthropic sikre en mere stabil oplevelse for det brede flertal af brugere og samtidig sætte ind mod en lille gruppe brugere, som enten kører Claude Code i døgndrift eller deler og videresælger deres konti, hvilket er i strid med selskabets politik.

"Claude Code har oplevet en hidtil uset efterspørgsel siden lanceringen," siger Anthropic-talskvinde Amie Rotherham i en udtalelse til TechCrunch.

Ifølge hende vil de fleste brugere ikke mærke nogen forskel, da ændringerne ifølge hende vil påvirke mindre end fem procent af abonnenterne baseret på nuværende brugsmønstre.

Flere begrænsninger

Claude-abonnementerne har allerede faste grænser for brugen, der nulstilles hver femte time. Med de nye regler tilføjes to ugentlige grænser, som nulstilles hver syvende dag, hvilket omfatter en samlet grænse for brug samt en særskilt grænse for brugen af selskabets mest avancerede model, der hedder Claude Opus 4.

Selskabet oplyser, at brugere på det højeste Max-abonnement vil kunne købe ekstra brug ud over de faste grænser til selskabets standard API-priser.

Ifølge de officielle tal kan Pro-brugere forvente mellem 40 og 80 timers adgang til Claude Sonnet 4 per uge, mens Max-brugere til 100 dollar får mellem 140 og 280 timer med Sonnet og 15 til 35 timer med Opus 4, lyder det.

For Max-abonnementet til 200 dollar øges det til 240 til 480 timers Sonnet-brug og 24 til 40 timers adgang til Opus 4.

Hvordan brugen præcis måles, har Anthropic dog ikke uddybet. Selskabet hævder, at Max 200-abonnementet giver 20 gange så meget adgang som Pro, men de offentliggjorte timeintervaller viser kun en faktor seks i forskel, lyder det.

Forskellen kan dog skyldes, at selskabet måler i tokens eller computekraft snarere end tid, men det er altså noget, Anthropic endnu ikke har bekræftet.

Brugte AI for tusindvis af dollar på et 200 dollar-abonnement

Anthropic har tidligere erkendt, at selskabet er begrænset af tilgængelige computationale ressourcer, hvilket er en udfordring som næsten alle AI-udbydere kæmper med i øjeblikket.

I takt med at efterspørgslen på store sprogmodeller vokser eksplosivt, arbejder branchen på at skalere deres AI-datacentre og sikre stabil adgang til beregningskraft.

I mellemtiden forsøger flere selskaber at justere deres forretningsmodeller og sætte grænser for de mest intensive brugere.

I juni ændrede både Replit og Cursor-prisstrukturen for deres AI-kodeassistenter.

Cursor-udvikleren Anysphere måtte senere undskylde for dårlig kommunikation, der førte til forvirring blandt de betalende brugere.

"Nogle af de største fans af Claude Code kører det i baggrunden døgnet rundt," oplyser Anthropic.

"Disse brugsscenarier er imponerende, og vi vil gerne understøtte dem. Men enkelte ekstreme tilfælde er meget dyre at understøtte. En bruger brugte eksempelvis modelressourcer for titusindvis af dollar på et abonnement til 200 dollar," lyder det videre.

Samtidig oplyser Anthropic, at nogle brugere overtræder vilkårene ved at dele konti og videresælge adgang, hvilket ifølge selskabet presser infrastrukturen og forringer servicen for andre.

Hvad så nu?

Anthropic fastholder, at det langsigtede mål er at understøtte mere krævende brugsscenarier med alternative løsninger fremover.

Ifølge selskabet er de nye grænser dog nødvendige i første omgang for at beskytte platformens stabilitet og sikre bred adgang.

"Vi undersøger stadig de bedste måder at sikre bred adgang til Claude Code," skriver Anthropic i en meddelelse på X.

"Hvis du er en powerbruger med feedback til, hvordan vi bedst kan understøtte din anvendelse, hører vi meget gerne fra dig," lyder opfordringen.