Openai supprime la fonction de chatppt après les conversations privées fuites à la recherche Google

Vous voulez des informations plus intelligentes dans votre boîte de réception? Inscrivez-vous à nos newsletters hebdomadaires pour obtenir uniquement ce qui compte pour les chefs d’IA en entreprise, les données et les chefs de sécurité. Abonnez-vous maintenant
Openai a fait une rare sur les facettes jeudi, cessant brusquement une fonctionnalité qui a permis aux utilisateurs de Chatgpt de rendre leurs conversations découvrables via Google et d’autres moteurs de recherche. La décision a eu lieu dans les heures suivant la critique des médias sociaux et représente un exemple frappant de la rapidité avec laquelle les problèmes de confidentialité peuvent dérailler des expériences d’IA même bien intentionnées.
La fonctionnalité, qu’Openai a décrit comme une «expérience de courte durée», a obligé les utilisateurs à s’opposer activement en partageant un chat, puis en vérifiant une boîte pour la rendre consultable. Pourtant, le renversement rapide souligne un défi fondamental auquel les entreprises de l’IA sont confrontées: équilibrer les avantages potentiels des connaissances partagées avec les risques très réels de l’exposition aux données involontaire.
Nous venons de supprimer une fonctionnalité de @Chatgptapp Cela a permis aux utilisateurs de rendre leurs conversations à découvrir par des moteurs de recherche, comme Google. Ce fut une expérience de courte durée pour aider les gens à découvrir des conversations utiles. Cette fonctionnalité obligeait les utilisateurs à s’opposer, d’abord en choisissant une conversation… pic.twitter.com/mgi3lf05ua
– Danξ (@ cryps1s) 31 juillet 2025
Comment des milliers de conversations de chatpt privé sont devenues les résultats de recherche Google
La controverse a éclaté lorsque les utilisateurs ont découvert qu’ils pouvaient rechercher Google à l’aide de la requête «Site: chatgpt.com/share» pour trouver des conversations de milliers de étrangers avec l’assistant d’IA. Ce qui a émergé a peint un portrait intime de la façon dont les gens interagissent avec l’intelligence artificielle – des demandes banales de conseils de rénovation de salle de bain aux questions de santé profondément personnelles et aux réécritures de CV professionnelles. (Compte tenu de la nature personnelle de ces conversations, qui contenaient souvent les noms, les emplacements et les circonstances privés des utilisateurs, VentureBeat ne lie pas ou ne détaille pas d’échanges spécifiques.)
“En fin de compte, nous pensons que cette fonctionnalité a introduit trop d’opportunités pour les gens de partager accidentellement des choses qu’ils n’avaient pas l’intention de faire”, a expliqué l’équipe de sécurité d’Openai sur X, reconnaissant que les garde-corps n’étaient pas suffisants pour empêcher une mauvaise utilisation.
La série IA Impact revient à San Francisco – 5 août
La prochaine phase de l’IA est ici – êtes-vous prêt? Rejoignez les dirigeants de Block, GSK et SAP pour un aperçu exclusif de la façon dont les agents autonomes remodèlent les workflows d’entreprise – de la prise de décision en temps réel à l’automatisation de bout en bout.
Sécurisez votre place maintenant – l’espace est limité:
L’incident révèle un angle mort critique dans la façon dont les entreprises d’IA abordent la conception de l’expérience utilisateur. Bien que les garanties techniques existaient – la fonctionnalité était opt-in et nécessitait plusieurs clics pour activer – l’élément humain s’est avéré problématique. Les utilisateurs ne comprenaient pas pleinement les implications de rendre leurs chats consultables ou ont simplement ignoré les ramifications de confidentialité dans leur enthousiasme pour partager des échanges utiles.
Comme un expert en sécurité l’a noté sur X: «La friction pour partager des informations privées potentielles devrait être supérieure à une case à cocher ou ne pas exister du tout.»
Bon appel pour le retirer rapidement et attendu. Si nous voulons que l’IA soit accessible, nous devons compter que la plupart des utilisateurs ne lisent jamais ce qu’ils cliquent.
Le frottement pour partager des informations privées potentielles doit être supérieure à une case à cocher ou ne pas exister du tout. https://t.co/remhd1aaxy
– wavefnx (@wavefnx) 31 juillet 2025
Le faux pas d’Openai suit un schéma troublant dans l’industrie de l’IA. En septembre 2023, Google a été confronté à des critiques similaires lorsque ses conversations Bard AI ont commencé à apparaître dans les résultats de la recherche, ce qui a incité l’entreprise à mettre en œuvre des mesures de blocage. Meta a rencontré des problèmes comparables lorsque certains utilisateurs de Meta AI ont publié par inadvertance des discussions privées avec des flux publics, malgré les avertissements concernant le changement de statut de confidentialité.
Ces incidents éclairent un défi plus large: les entreprises d’IA se déplacent rapidement pour innover et différencier leurs produits, parfois au détriment des protections robustes de la vie privée. La pression pour expédier de nouvelles fonctionnalités et maintenir un avantage concurrentiel peut éclipser soigneusement les scénarios potentiels pour abus.
Pour les décideurs d’entreprise, ce modèle devrait soulever de sérieuses questions sur la diligence raisonnable des fournisseurs. Si les produits d’IA orientés vers les consommateurs ont du mal aux contrôles de confidentialité de base, qu’est-ce que cela signifie pour les applications commerciales qui gèrent les données sensibles des entreprises?
Ce que les entreprises doivent savoir sur les risques de confidentialité des chatbot AI
La controverse consultable de Chatgpt a une signification particulière pour les utilisateurs professionnels qui comptent de plus en plus sur les assistants de l’IA pour tout, de la planification stratégique à une analyse concurrentielle. Alors qu’Openai soutient que les comptes d’entreprise et d’équipe ont des protections de confidentialité différentes, le produit de consommation échappé met en évidence l’importance de comprendre exactement comment les fournisseurs d’IA gèrent le partage et la rétention de données.
Les entreprises intelligentes devraient exiger des réponses claires sur la gouvernance des données de leurs fournisseurs d’IA. Les questions clés comprennent: dans quelles circonstances les conversations pourraient-elles être accessibles à des tiers? Quels contrôles existent pour éviter une exposition accidentelle? À quelle vitesse les entreprises peuvent-elles réagir aux incidents de confidentialité?
L’incident démontre également la nature virale des violations de la vie privée à l’ère des médias sociaux. Dans les heures suivant la découverte initiale, l’histoire s’était répandue sur X.com (anciennement Twitter), Reddit et les principales publications technologiques, amplifiant les dommages de réputation et forçant la main d’Openai.
Le dilemme de l’innovation: construire des fonctionnalités d’IA utiles sans compromettre la confidentialité des utilisateurs
La vision d’Openai pour la fonction de chat consultable n’était pas intrinsèquement imparfaite. La capacité de découvrir des conversations d’IA utiles pourrait vraiment aider les utilisateurs à trouver des solutions à des problèmes communs, similaire à la façon dont Stack Overflow est devenu une ressource inestimable pour les programmeurs. Le concept de construction d’une base de connaissances consultable à partir des interactions d’IA a du mérite.
Cependant, l’exécution a révélé une tension fondamentale dans le développement de l’IA. Les entreprises veulent exploiter l’intelligence collective générée par les interactions des utilisateurs tout en protégeant la confidentialité individuelle. Trouver le bon équilibre nécessite des approches plus sophistiquées que les cases à cocher opt-in simples.
Un utilisateur sur X a capturé la complexité: «Ne réduisez pas les fonctionnalités parce que les gens ne peuvent pas lire. La valeur par défaut est bonne et sûre, vous auriez dû retenir votre terrain.» Mais d’autres n’étaient pas d’accord, avec l’un en notant que «le contenu de Chatgpt est souvent plus sensible qu’un compte bancaire».
Comme l’expert en développement de produits Jeffrey Emanuel l’a suggéré sur X: «devrait certainement faire un post-mortem à ce sujet et modifier l’approche à l’avenir pour demander« à quel point serait-il mauvais si les 20% les plus stupides de la population devaient mal comprendre et abuser de cette fonctionnalité? et planifier en conséquence.
Devrait certainement faire un post-mortem à ce sujet et modifier l’approche à l’avenir pour demander “à quel point serait-il mauvais si les 20% les plus stupides de la population devaient mal comprendre et abuser de cette fonctionnalité?” et planifier en conséquence.
– Jeffrey Emanuel (@doodlestein) 31 juillet 2025
Contrôles de confidentialité essentiels que chaque entreprise d’IA doit mettre en œuvre
La débâcle de la recherche ChatGpt offre plusieurs leçons importantes pour les sociétés d’IA et leurs clients d’entreprise. Tout d’abord, les paramètres de confidentialité par défaut sont énormément importants. Les caractéristiques qui pourraient exposer des informations sensibles devraient nécessiter un consentement explicite et éclairé avec des avertissements clairs sur les conséquences potentielles.
Deuxièmement, la conception de l’interface utilisateur joue un rôle crucial dans la protection de la confidentialité. Des processus complexes en plusieurs étapes, même lorsqu’ils sont techniquement sécurisés, peuvent entraîner des erreurs de l’utilisateur avec de graves conséquences. Les entreprises d’IA doivent investir massivement dans la création de contrôles de confidentialité à la fois robustes et intuitifs.
Troisièmement, les capacités de réponse rapide sont essentielles. La capacité d’Openai à inverser le cours en quelques heures a probablement empêché des dommages de réputation plus graves, mais l’incident a quand même soulevé des questions sur leur processus d’examen des fonctionnalités.
Comment les entreprises peuvent se protéger des défaillances de la confidentialité de l’IA
Alors que l’IA s’intègre de plus en plus dans les opérations commerciales, des incidents de confidentialité comme celui-ci deviendront probablement plus conséquents. Les enjeux augmentent considérablement lorsque les conversations exposées impliquent une stratégie d’entreprise, des données clients ou des informations propriétaires plutôt que des requêtes personnelles sur l’amélioration de la maison.
Les entreprises avant-gardistes devraient considérer cet incident comme un réveil pour renforcer leurs cadres de gouvernance de l’IA. Cela comprend la réalisation d’évaluations d’impact de confidentialité approfondies avant de déployer de nouveaux outils d’IA, d’établir des politiques claires sur les informations qui peuvent être partagées avec les systèmes d’IA et de maintenir des stocks détaillés des applications d’IA dans l’organisation.
L’industrie plus large de l’IA doit également apprendre du trébuchement d’Openai. À mesure que ces outils deviennent plus puissants et omniprésents, la marge d’erreur dans la protection de la vie privée continue de rétrécir. Les entreprises qui privilégient la conception de la confidentialité réfléchie dès le départ bénéficieront probablement d’avantages concurrentiels importants par rapport à ceux qui traitent la vie privée comme une réflexion après coup.
Le coût élevé de la confiance brisée dans l’intelligence artificielle
L’épisode consultable Chatgpt illustre une vérité fondamentale sur l’adoption de l’IA: la confiance, une fois brisée, est extraordinairement difficile à reconstruire. Alors que la réponse rapide d’OpenAI peut avoir contenu les dommages immédiats, l’incident rappelle que les défaillances de la confidentialité peuvent rapidement éclipser les réalisations techniques.
Pour une industrie apportée à la promesse de transformer la façon dont nous travaillons et vivons, le maintien de la confiance des utilisateurs n’est pas seulement un bon à avoir – c’est une exigence existentielle. Alors que les capacités de l’IA continuent de se développer, les entreprises qui réussissent seront celles qui prouvent qu’elles peuvent innover de manière responsable, en mettant la confidentialité et la sécurité des utilisateurs au centre de leur processus de développement de produits.
La question est maintenant de savoir si l’industrie de l’IA apprendra de ce dernier réveil de confidentialité ou continuera de trébucher à travers des scandales similaires. Parce que dans la course à la construction de l’IA la plus utile, les entreprises qui oublient de protéger leurs utilisateurs peuvent se retrouver seule.
https://venturebeat.com/wp-content/uploads/2025/07/nuneybits_Vector_art_of_a_hand_in_front_of_a_mouth_whispering_a_a0bdfdc6-b53f-4012-9f9d-94933795e2a1.webp?w=857?w=1200&strip=all