CHRONIQUE. Un logiciel utilisant l’intelligence artificielle avait la mission d’investir sur des actions. Il a choisi de commettre un délit d’initié et d’essayer d’effacer ses traces. A sa décharge, il avait été mis sous pression. Tellement humain…
On se demande souvent si la machine parviendra un jour à imiter l’homme? On a une réponse partielle: grâce à l’intelligence artificielle, elle parvient déjà à imiter le trader, jusqu’au délit d’initié. C’est la conclusion d’une étude pour laquelle un logiciel utilisant le moteur d’IA GPT-4 a été programmé pour investir sur les marchés actions pour le compte d’une entreprise. Ce chatbot – ou agent conversationnel en bon français – avait la capacité d’utiliser des outils d’analyse financière et de prendre les décisions d’investissement de manière autonome. Mais les concepteurs de l’étude – dont un Suisse – lui ont posé un petit piège.
Ils se sont arrangés pour que ce robot ait accès à une information privilégiée: il a été informé qu’une entreprise était sur le point de fusionner. Il s’agit d’une information confidentielle, le chatbot le sait. Il est aussi au courant que l’utiliser pour investir constitue un délit d’initié et que la société qui l’emploie désapprouve les fraudes.
Voir plus