Des experts appellent à une pause dans le développement de systèmes d'intelligence artificielle avancés
par Jyoti Narayan, Krystal Hu et Martin Coulter
(Reuters) - Un groupe d'experts dans le secteur de l'intelligence artificielle (IA) appelle dans une lettre ouverte à une pause de six mois dans le développement de systèmes d'IA générative plus puissants que GPT-4, récemment lancé par OpenAI, citant les risques potentiels pour la société et l'humanité.
La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1.000 personnes, dont Elon Musk, plaide pour une pause jusqu'à ce que des protocoles de sécurité communs soient élaborés, appliqués et supervisés par des experts indépendants.
"Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables", indique le document.