Dernièrement, le site de technologie populaire CNET a admis avoir publié des dizaines d’articles de fonctionnalités entièrement générés par intelligence artificielle (IA), en présentant cela comme une simple expérience. Cependant, il semble que cette expérience ait dérapé, car les robots ont trahi les humains. En effet, il s’est avéré que les robots ne sont pas meilleurs en journalisme, et peut-être même un peu pires, que leurs maîtres humains prétendus. Mardi, CNET a commencé à ajouter des avis de correction importants à certains de ses articles générés par IA après que le site Futurism ait appelé les histoires à cause de certains « erreurs très stupides ».

Pour donner un exemple, un article automatisé sur l’intérêt composé a incorrectement déclaré qu’un dépôt de 10 000 $ avec un intérêt de 3 % rapporterait 10 300 $ après la première année. Faux. Un tel dépôt rapporterait en réalité seulement 300 $. Plus globalement, CNET et sa publication sœur Bankrate, qui ont également publié des histoires écrites par des robots, ont maintenant exprimé des doutes sur la précision des dizaines d’articles automatisés qu’ils ont publiés depuis novembre.

Les nouveaux avis ajoutés à plusieurs autres œuvres générées par IA indiquent que « nous examinons actuellement cette histoire pour vérifier sa précision » et que « si nous trouvons des erreurs, nous les corrigerons et les mettrons à jour ». L’utilisation de l’IA pour générer des histoires entières a suscité une onde d’anxiété dans les médias en raison de sa menace potentielle pour les journalistes. Les moteurs d’IA peuvent produire du contenu sans pause déjeuner ni pause toilette et ne font jamais grève.

Avant la semaine dernière, CNET avait attribué ses histoires écrites par des machines à « CNET Money Staff ». Seul en cliquant sur la ligne de signature, un lecteur aurait appris que l’article était produit par « technologie d’automatisation », un euphémisme pour l’IA. La société a finalement admis la vérité après qu’un directeur de marketing nommé Gael Breton ait attiré l’attention sur les étiquettes sur Twitter. CNET a ensuite modifié les signatures pour « CNET Money », ajouté une clarification (« cet article a été assisté par un moteur IA ») et précisé que les histoires ont été « soigneusement éditées et vérifiées par un éditeur de notre équipe éditoriale ».

Si cela est vrai, alors cela est principalement une erreur éditoriale, a déclaré Hany Farid, professeur d’ingénierie électrique et informatique à l’Université de Californie à Berkeley et expert en technologies de deepfake. Je me demande si la voix d’IA apparemment autoritaire a conduit les éditeurs à baisser leur garde et à être moins prudents qu’ils ne l’auraient été avec l’écriture d’un journaliste humain ».

En général, le texte écrit par des robots de CNET est indissociable de celui produit par des humains, bien que ce ne soit pas exactement vif ou étincelant. C’est, eh bien, robotique : fonctionnel mais lent, parsemé de lieux communs, manquant d’humour, de sass ou de tout ce qui ressemble à des émotions ou des idiosyncrasies.

L’utilisation de cette technologie intervient alors que les inquiétudes grandissent quant aux utilisations et aux abus potentiels des moteurs d’IA sophistiqués. Les capacités étonnantes de la technologie ont conduit certains district scolaires à envisager de l’interdire de peur que les élèves ne s’en servent pour tricher dans leurs travaux scolaires et leurs devoirs.