ChatGPT, un chatbot d’intelligence artificielle formé par l’OpenAI, a accusé à tort Jonathan Turley, éminent avocat de la défense et professeur de droit, de harcèlement sexuel.
Le chatbot a fabriqué un article du Washington Post sur un voyage de l’école de droit en Alaska qui accusait Turley d’avoir fait des remarques sexuellement provocantes et d’avoir tenté de toucher des étudiantes, alors que Turley n’a jamais participé à un tel voyage.
La réputation de M. Turley a été fortement entachée après que ces allégations préjudiciables sont rapidement devenues virales sur les réseaux sociaux.
« Cela me surprend parce que je ne suis jamais allé en Alaska avec des élèves, que le Post n’a jamais publié un tel article et que personne ne m’a accusé de harcèlement sexuel ou d’agression sexuelle », a déclaré M. Turley.
M. Turley a pris connaissance de ces allégations après avoir reçu un courriel d’un ami d’un professeur de droit qui a utilisé ChatGPT pour rechercher des cas de harcèlement sexuel commis par des universitaires dans des facultés de droit américaines.
L’utilisation de données générées par l’IA requiert de la prudence
Le professeur de l’université George Washington a déclaré sur son blog :
Hier, le président Joe Biden a déclaré qu’il « reste à voir » si l’IA est « dangereuse ». Je vois les choses différemment… »
L’expérience de M. Turley a suscité des inquiétudes quant à la fiabilité de ChatGPT et à la possibilité que des cas comme celui de M. Turley se reproduisent à l’avenir. Le chatbot est alimenté par Microsoft, qui, selon l’entreprise, a procédé à des mises à jour pour améliorer la précision.
ChatGPT est-il une illusion ?
Lorsque l’intelligence artificielle produit des résultats inattendus, incorrects et non étayés par des preuves réelles, on parle d' »hallucination ».
Ces hallucinations peuvent conduire à des contenus, des nouvelles ou des informations erronés sur des personnes, des événements ou des faits. Des cas comme celui de Turley montrent l’impact considérable de la diffusion de mensonges générés par l’IA dans les médias et les réseaux sociaux.
OpenAI, le développeur de ChatGPT, a reconnu la nécessité d’éduquer le public sur les limites des outils d’IA et de réduire les risques que les utilisateurs soient victimes de telles hallucinations.
Les efforts de l’entreprise pour rendre ses chatbots plus précis sont louables, mais il reste encore beaucoup à faire pour que de tels incidents ne se reproduisent plus.
L’événement a également attiré l’attention sur la valeur de l’utilisation éthique de l’IA et sur la nécessité de mieux comprendre ses limites.
Si l’IA a le potentiel d’améliorer considérablement de nombreux aspects de notre vie, elle n’en reste pas moins imparfaite et nécessite une supervision humaine pour garantir sa précision et sa fiabilité.
Alors que l’intelligence artificielle s’intègre de plus en plus dans notre vie quotidienne, il est essentiel que nous soyons prudents et responsables lorsque nous utilisons ces technologies.
La rencontre de Turley avec ChatGPT souligne l’importance de la prudence face aux incohérences et aux erreurs produites par l’IA.
Il est essentiel de veiller à ce que cette technologie soit utilisée de manière éthique et responsable, et à ce que nous soyons conscients de ses forces et de ses faiblesses, car elle continue à transformer notre environnement.
Dans l’intervalle, l’entreprise a pris des mesures pour garantir l’exactitude de sa plateforme, a déclaré Katy Asher, directrice principale de la communication de Microsoft.
Turley a répondu sur son blog :
« Vous pourriez être vilipendé par l’IA, et les entreprises se contenteraient de hausser les épaules et de dire qu’elles essaient d’être honnêtes.
Jake Moore, conseiller mondial en cybersécurité d’ESET, a conseillé aux utilisateurs de ChatGPT de faire tout ce qui est en leur pouvoir pour empêcher la propagation néfaste de fausses informations.
– Image présentée par Bizsiziz