Voici pourquoi Chatgpt vous rappelle maintenant de faire une pause

Vous parlez trop au bot.

Si votre routine quotidienne implique de discuter fréquemment avec Chatgpt, vous pourriez être surpris de voir un nouveau pop-up cette semaine. Après une longue conversation, vous pourriez être présenté avec une fenêtre « juste enregistrer », avec un message en lisant: « Vous avez discuté depuis un moment – est-ce un bon moment pour une pause? »

La fenêtre contextuelle vous donne la possibilité de «continuer à discuter», ou même de sélectionner «cela a été utile». Selon vos perspectives, vous pourriez voir cela comme un bon rappel pour déposer l’application pendant un certain temps, ou une note condescendant qui implique que vous ne savez pas comment limiter votre temps avec un chatbot.

Ne le prenez pas personnellement – Opennai peut sembler qu’il se soucie de vos habitudes d’utilisation avec ce pop-up, mais la vraie raison derrière le changement est un peu plus sombre que cela.

Accro au chatppt

Ce nouveau rappel d’usage faisait partie d’une plus grande annonce d’Openai lundi, intitulée « Ce pour quoi nous optimisons le chatppt ». Dans le poste, la société dit qu’elle apprécie la façon dont vous utilisez Chatgpt, et que bien que la société souhaite que vous utilisiez le service, il voit également un avantage à l’utilisation du service moins. Une partie de cela consiste à des fonctionnalités comme l’agent Chatgpt, qui peut prendre des mesures en votre nom, mais aussi en passant le temps que vous faire Dépensez avec Chatgpt plus efficace et plus efficace.

C’est bien bien: si Openai veut travailler pour rendre les conversations Chatgpt comme utiles pour les utilisateurs dans une fraction du temps, tant pis. Mais cela ne vient pas simplement d’un désir de faire en sorte que les utilisateurs aident leurs interactions avec Chatgpt; C’est plutôt une réponse directe à la façon dont le chat de chatte addictif peut être, en particulier pour les personnes qui comptent sur le chatbot pour un soutien mental ou émotionnel.

Vous n’avez pas non plus besoin de lire entre les lignes de celui-ci. Pour ouvrir le crédit, la société aborde directement des problèmes graves que certains de ses utilisateurs ont rencontrés avec le chatbot ces derniers temps, y compris une mise à jour plus tôt cette année qui a rendu Chatgpt beaucoup trop agréable. Les chatbots ont tendance à être enthousiastes et sympathiques, mais la mise à jour du modèle 4O a pris trop loin. Chatgpt confirmerait que toutes vos idées – bonnes, mauvaises ou horribles – étaient valables. Dans les pires cas, le bot a ignoré les signes d’illusion et a directement introduit la perspective déformée de ces utilisateurs.

Openai reconnaît directement que cela s’est produit, bien que la société pense que ces cas étaient « rares ». Pourtant, ils attaquent directement le problème: en plus de ces rappels de faire une pause dans Chatgpt, la société dit que cela améliore les modèles pour rechercher des signes de détresse, ainsi que de rester à l’écart de répondre à des problèmes complexes ou difficiles, comme « Dois-je rompre avec mon partenaire? » Openai dit qu’il collabore même avec des experts, des cliniciens et des professionnels de la santé de diverses manières pour le faire.

Nous devons tous utiliser un peu moins l’IA

C’est vraiment une bonne chose qu’Openai veut que vous utilisiez moins Chatgpt, et qu’ils reconnaissent activement ses problèmes et travaillent à s’adresser à eux. Mais je ne pense pas qu’il suffit de compter sur Openai ici. Ce qui est dans le meilleur intérêt pour l’entreprise ne sera pas toujours ce qu’il y aura ton Meilleur intérêt. Et, à mon avis, nous pourrions tous bénéficier de reculer de l’IA générative.

Alors que de plus en plus de gens se tournent vers les chatbots pour un soutien avec le travail, les relations ou leur santé mentale, il est important de se rappeler que ces outils ne sont pas parfaits, ni même totalement compris. Comme nous l’avons vu avec GPT-4O, les modèles d’IA peuvent être défectueux et décider de commencer à encourager des moyens dangereux de penser. Les modèles d’IA peuvent également halluciner ou, en d’autres termes, inventer les choses entièrement. Vous pourriez penser que les informations que votre chatbot vous fournissent est à 100% exacte, mais elle peut être criblée d’erreurs ou de mensonges carrément – comment souvent vous vérifiez vos conversations?

La confiance en IA avec vos pensées privées et personnelles présente également un risque de confidentialité, comme les entreprises comme Openai stockent vos chats, et ne viennent avec aucune des protections juridiques qu’un professionnel médical ou un représentant juridique agréé. Ajoutant à cela, des études émergentes suggèrent que plus nous comptons sur l’IA, moins nous comptons sur nos propres compétences de pensée critique. Bien qu’il puisse être trop hyperbolique de dire que l’IA nous rend «plus stupides», je serais préoccupé par la quantité de pouvoir mental que nous externalisons à ces nouveaux robots.

Les chatbots ne sont pas des thérapeutes agréés; Ils ont tendance à inventer les choses; Ils ont peu de protections de la vie privée; Et ils peuvent même encourager la pensée illusion. C’est formidable qu’Openai veut que vous utilisiez moins Chatgpt, mais nous voulons peut-être utiliser ces outils encore moins que cela.

Divulgation: la société mère de Vie Associative, Ziff Davis, a déposé une plainte contre OpenAI en avril, alléguant qu’elle avait enfreint Ziff Davis Copyrights dans la formation et l’exploitation de ses systèmes d’IA.