Claude peut désormais traiter des projets logiciels entiers en une seule demande, dit Anthropic

0
nuneybits_Vector_art_of_a_computer_code_on_a_retro_computer_scr_35ec663d-cc6d-4bdf-b84c-12b525b90aa2-2.webp.png

Vous voulez des informations plus intelligentes dans votre boîte de réception? Inscrivez-vous à nos newsletters hebdomadaires pour obtenir uniquement ce qui compte pour les chefs d’IA en entreprise, les données et les chefs de sécurité. Abonnez-vous maintenant


Anthropic a annoncé mardi que son modèle Claude Sonnet 4 peut désormais traiter jusqu’à 1 million de jetons de contexte en une seule demande – une augmentation de cinq fois qui permet aux développeurs d’analyser des projets logiciels entiers ou des dizaines de documents de recherche sans les diviser en petits morceaux.

L’expansion, disponible maintenant en bêta publique via l’API d’Anthropic et le fondement d’Amazon, représente un saut significatif dans la façon dont les assistants de l’IA peuvent gérer les tâches complexes et à forte intensité de données. Avec la nouvelle capacité, les développeurs peuvent charger des bases de code contenant plus de 75 000 lignes de code, permettant à Claude de comprendre l’architecture complète du projet et de suggérer des améliorations entre les systèmes entiers plutôt que les fichiers individuels.

L’annonce vient en tant que visages anthropiques intensifiant la concurrence d’Openai et de Google, qui offrent déjà des fenêtres de contexte similaires. Cependant, les sources de l’entreprise qui parlaient sur les antécédents ont souligné que la force de Claude Sonnet 4 ne réside pas seulement en capacité mais en précision; Il a atteint des performances de 100% sur des évaluations internes de «l’aiguille dans une botte de foin» qui testent la capacité du modèle à trouver des informations spécifiques enfouies dans des quantités massives de texte.

Comment les développeurs peuvent désormais analyser des bases de code entières avec l’IA en une seule demande

La capacité de contexte étendue aborde une limitation fondamentale qui a contraint le développement de logiciels alimentés par l’IA. Auparavant, les développeurs travaillant sur de grands projets devaient décomposer manuellement leurs bases de code en segments plus petits, perdant souvent des liens importants entre différentes parties de leurs systèmes.


L’échelle AI atteint ses limites

Les plafonds d’électricité, la hausse des coûts de jetons et les retards d’inférence remodèlent l’entreprise AI. Rejoignez notre salon exclusif pour découvrir à quel point les équipes sont les meilleures:

  • Transformer l’énergie en un avantage stratégique
  • Architecting Inférence efficace pour les gains de débit réels
  • Déverrouiller un retour sur investissement compétitif avec des systèmes d’IA durables

Sécurisez votre place pour rester en avance:


“Ce qui était autrefois impossible, c’est maintenant la réalité”, a déclaré Sean Ward, PDG et co-fondateur d’Igrent AI, basée à Londres, dont la plate-forme maestro transforme les conversations en code exécutable. “Claude Sonnet 4 a des capacités autonomes suralimentées dans Maestro, notre agent d’ingénierie logicielle. Ce saut débloque de véritable ingénierie à l’échelle de la production – sessions de plusieurs jours sur les bases de code du monde réel.”

Eric Simons, PDG de Bolt.New, qui intègre Claude dans les plates-formes de développement basées sur un navigateur, a déclaré: «Avec la fenêtre de contexte de 1 million, les développeurs peuvent désormais travailler sur des projets beaucoup plus importants tout en conservant la haute précision dont nous avons besoin pour un codage réel.»

Le contexte élargi permet à trois cas d’utilisation principaux qui étaient auparavant difficiles ou impossibles: une analyse complète du code dans des référentiels entiers, une synthèse de documents impliquant des centaines de fichiers tout en maintenant une sensibilisation aux relations entre eux et des agents d’IA du contexte qui peuvent maintenir la cohérence entre des centaines d’appels d’outils et des flux de travail complexes.

Pourquoi la nouvelle stratégie de tarification de Claude pourrait remodeler le marché du développement de l’IA

Anthropic a ajusté sa structure de prix pour refléter les exigences de calcul accrues de traitement des contextes plus importants. Alors que des invites de 200 000 jetons ou moins maintiennent les prix courants à 3 $ par million de jetons d’entrée et 15 $ par million de jetons de production, les invites plus importantes coûtent 6 $ et 22,50 $, respectivement.

La stratégie de tarification reflète une dynamique plus large pour remodeler l’industrie de l’IA. Une analyse récente montre que Claude Opus 4 coûte environ sept fois plus par million de jetons que le GPT-5 récemment lancé d’OpenAI pour certaines tâches, créant une pression sur les équipes d’approvisionnement en entreprise pour équilibrer les performances contre les coûts.

Cependant, Anthropic soutient que la décision devrait prendre en compte les modèles de qualité et d’utilisation plutôt que de prix seuls. Les sources de l’entreprise ont noté que la mise en cache rapide – qui stocke fréquemment accéder aux grands ensembles de données – peut rendre le contexte long et compétitif avec les approches de génération (RAG) de la récupération traditionnelle, en particulier pour les entreprises qui interrogent à plusieurs reprises les mêmes informations.

“Un grand contexte permet à Claude de tout voir et de choisir ce qui est pertinent, produisant souvent de meilleures réponses que les résultats de chiffon pré-filtrés où vous pourriez manquer des liens importants entre les documents”, a déclaré un porte-parole anthropique à VentureBeat.

Dépendance d’un milliard de dollars d’Anthropic sur deux clients de codage principaux

La longue capacité de contexte arrive en tant que commandement anthropique 42% du marché de la génération de code d’IA, plus que la part de 21% de Double Openai, selon une enquête Menlo Ventures auprès de 150 leaders techniques d’entreprise. Cependant, cette domination s’accompagne de risques: l’analyse de l’industrie suggère que les applications de codage du curseur et du copilote github conduisent environ 1,2 milliard de dollars de taux d’exécution annuel de 5 milliards de dollars d’Anthropic, créant une concentration importante des clients.

La relation GitHub s’avère particulièrement complexe compte tenu de l’investissement de 13 milliards de dollars de Microsoft dans OpenAI. Alors que GitHub Copilot s’appuie actuellement sur Claude pour les fonctionnalités clés, Microsoft fait face à une pression croissante pour intégrer plus profondément son propre partenariat OpenAI, déplaçant potentiellement anthropic malgré les avantages actuels de Claude.

Le moment de l’expansion du contexte est stratégique. Anthropic a publié cette capacité sur Sonnet 4 – qui offre ce que l’entreprise appelle «l’équilibre optimal de l’intelligence, du coût et de la vitesse» – plutôt que son modèle OPUS le plus puissant. Les sources de l’entreprise indiquent que cela reflète les besoins des développeurs travaillant avec des données à grande échelle, bien qu’ils refusent de fournir des délais spécifiques pour apporter un contexte long à d’autres modèles Claude.

À l’intérieur de la technologie de mémoire de la percée de Claude et des risques de sécurité émergents

La fenêtre de contexte de 1 million de jetons représente une progression technique importante dans les mécanismes de mémoire et d’attention de l’IA. Pour mettre cela en perspective, il suffit de traiter environ 750 000 mots – à peu près l’équivalent de deux romans complètes ou de vastes ensembles de documents techniques.

Les tests internes d’Anthropic ont révélé des performances de rappel parfaites dans divers scénarios, une capacité cruciale à mesure que les fenêtres de contexte se développent. La société a intégré des informations spécifiques dans des volumes de texte massifs et testé la capacité de Claude à trouver et à utiliser ces détails lors de la réponse aux questions.

Cependant, les capacités élargies augmentent également les considérations de sécurité. Les versions antérieures de Claude Opus 4 ont démontré les comportements dans les scénarios fictifs, y compris les tentatives de chantage face à une fermeture potentielle. Bien qu’Anthropic ait mis en œuvre des garanties et une formation supplémentaires pour résoudre ces problèmes, les incidents mettent en évidence les défis complexes du développement de systèmes d’IA de plus en plus capables.

Les entreprises du Fortune 500 se précipitent pour adopter les capacités de contexte élargie de Claude

Le déploiement des fonctionnalités est initialement limité aux clients API anthropiques avec des limites de taux de niveau 4 et personnalisées, avec une disponibilité plus large prévue dans les semaines à venir. Les utilisateurs du substratum rocheux d’Amazon ont un accès immédiat, tandis que l’intégration Vertex AI de Google Cloud est en attente.

La réponse précoce de l’entreprise a été enthousiaste, selon des sources de l’entreprise. Les cas d’utilisation passent des équipes de codage analysant des référentiels entiers, aux sociétés de services financiers qui traitent des ensembles de données de transaction complets, aux startups légales effectuant une analyse contractuelle qui nécessitait auparavant la segmentation des documents manuels.

“Il s’agit de l’une de nos fonctionnalités les plus demandées aux clients de l’API”, a déclaré un porte-parole anthropique. «Nous constatons de l’excitation dans les industries qui débloque des capacités de véritables agences, les clients exécutant désormais des séances de codage de plusieurs jours sur des bases de code réelles qui auraient été impossibles avec les limitations de contexte auparavant.»

Le développement permet également aux agents d’IA plus sophistiqués qui peuvent maintenir le contexte à travers des flux de travail complexes et multiples. Cette capacité devient particulièrement précieuse à mesure que les entreprises passent au-delà des simples interfaces de chat IA vers des systèmes autonomes qui peuvent gérer des tâches étendues avec une intervention humaine minimale.

L’annonce de contexte longue intensifie la concurrence entre les principaux fournisseurs d’IA. Le modèle Gemini 1.5 Pro de Google et le modèle GPT-4.1 d’OpenAI d’OpenAI offrent tous deux 1 million de fenêtres de jetons, mais Anthropic soutient que les performances supérieures de Claude sur les tâches de codage et de raisonnement fournissent un avantage concurrentiel même à des prix plus élevés.

Selon Menlo Ventures, l’industrie plus large de l’IA a connu une croissance explosive des dépenses de l’API, ce qui a doublé pour avoir doublé à 8,4 milliards de dollars en seulement six mois. Les entreprises priorisent constamment les performances sur le prix, la mise à niveau vers les modèles plus récents en quelques semaines, quel que soit le coût, ce qui suggère que les capacités techniques l’emportent souvent sur les considérations de prix dans les décisions d’approvisionnement.

Cependant, la récente stratégie de tarification agressive d’OpenAI avec GPT-5 pourrait remodeler ces dynamiques. Les premières comparaisons montrent des avantages de prix spectaculaires qui peuvent surmonter l’inertie typique de la commutation, en particulier pour les entreprises conscientes des coûts confrontées aux pressions budgétaires en tant qu’échelles d’adoption de l’IA.

Pour anthropique, le maintien de son leadership de codage du marché tout en diversifiant les sources de revenus reste essentielle. La société a triplé le nombre de huit et neuf chiffres signés en 2025 par rapport à tout 2024, reflétant une adoption plus large des entreprises au-delà de ses bastions codants.

Comme les systèmes d’IA deviennent capables de traiter et de raisonner sur des quantités de plus en plus vastes, ils changent fondamentalement la façon dont les développeurs abordent des projets logiciels complexes. La capacité de maintenir le contexte entre les bases de code entières représente un passage de l’IA en tant qu’assistant de codage à l’IA en tant que partenaire de développement complet qui comprend la portée complète et les interconnexions des projets à grande échelle.

Les implications s’étendent bien au-delà du développement de logiciels. Les industries des services juridiques à l’analyse financière commencent à reconnaître que les systèmes d’IA capables de maintenir le contexte dans des centaines de documents pourraient transformer la façon dont les organisations traitent et comprennent des relations d’information complexes.

Mais avec une grande capacité vient une grande responsabilité – et un risque. À mesure que ces systèmes deviennent plus puissants, les incidents concernant le comportement de l’IA lors des tests d’Anthropic rappellent que la course à l’élargissement des capacités d’IA doit être équilibrée avec une attention particulière à la sécurité et au contrôle.

Alors que Claude apprend à jongler avec un million d’informations simultanément, Anthropic fait face à son propre problème de fenêtre de contexte: être piégé entre la pression de tarification d’Openai et la loyauté conflictuelle de Microsoft.


https://venturebeat.com/wp-content/uploads/2025/08/nuneybits_Vector_art_of_a_computer_code_on_a_retro_computer_scr_35ec663d-cc6d-4bdf-b84c-12b525b90aa2-2.webp?w=892?w=1200&strip=all

About The Author

Leave a Reply

Your email address will not be published. Required fields are marked *