OpenAI (ChatGPT) admet ne pas savoir finalement si un texte a été rédigé par une IA
Au départ, OpenAI, la société derrière le chatbot ChatGPT, assurait être en mesure de détecter (du mieux possible) si un texte avait été rédigé ou non par une intelligence artificielle. Mais le groupe avoue aujourd’hui que son outil n’est en réalité pas efficace.
Sur son blog, OpenAI annonce avoir mis un terme à son classificateur censé distinguer l’écriture humaine de l’IA en raison d’un faible taux de précision. L’abandon a eu lieu le 20 juillet :
À compter du 20 juillet 2023, le classificateur d’IA n’est plus disponible en raison de son faible taux de précision. Nous nous efforçons d’intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par IA.
Après que ChatGPT a fait irruption sur la scène et est devenue l’un des services à la croissance la plus rapide, les internautes se sont précipités pour comprendre la technologie. Plusieurs secteurs ont tiré la sonnette d’alarme au sujet du texte et de l’art générés par IA, en particulier les professeurs qui craignaient que les élèves n’étudient plus et se contentent de laisser ChatGPT écrire leurs devoirs. Certaines écoles ont même interdit l’accès à ChatGPT dans l’enceinte de l’établissement en raison de préoccupations concernant l’exactitude, la sécurité et la tricherie.
La désinformation par intelligence artificielle est également un sujet de préoccupation, des études montrant que les textes générés par IA pourraient être plus convaincants que ceux rédigés par des humains.