COMBourse - Analyse graphique de l'actualite, des actions et des societes
 
CREER VOTRE COMPTE
Source : LeTemps.ch  (il y a 4 mois)

Réguler l’intelligence artificielle, est-ce devenu une mission impossible?

Alors que l’Union européenne dessine un règlement majeur pour encadrer l’intelligence artificielle, le monde de la technologie lutte de plus en plus durement contre tout encadrement juridique accusé de tuer l’innovation. En attendant, OpenAI mise sur l’autorégulation

L’homme est devenu invisible. Pas d’interview, pas d’intervention publique, pas de lancement majeur de nouveau produit… Depuis son éviction de la tête d’OpenAI, puis sa réintégration spectaculaire cinq jours plus tard, fin novembre, Sam Altman se fait discret. On n’a même pas entendu le directeur de l’éditeur de ChatGPT après l’accord au niveau européen, dans la nuit du 8 au 9 décembre, sur une législation inédite au niveau mondial pour réguler l’intelligence artificielle (IA).

Et pourtant, à quelques jours d’intervalle, deux camps que tout oppose viennent chacun de remporter une victoire. Celui incarné par Sam Altman représente la faction dite des «accélérationnistes» («effective accelerationists» ou «e/acc»), qui ont une foi quasi absolue en la technologie, capable selon eux de résoudre les problèmes majeurs de l’humanité. Et qui, cela va sans dire, n’ont aucune envie de s’embarrasser de réglementations susceptibles de les ralentir. En face, il y a le camp des sceptiques, de ceux qui veulent ralentir la machine, prendre le temps d’estimer les risques et qui voient d’un bon œil un encadrement législatif pour que la technologie ne devienne pas hors de contrôle.

### Confusion totale Ces deux camps sont d’apparence irréconciliables. Et le choc entre ces deux visions est d’autant plus difficile à déchiffrer que les lignes s’entremêlent. On a ainsi vu très souvent Sam Altman, parti durant de longs mois en tournée mondiale en début d’année, réclamer devant le Sénat américain, face à Emmanuel Macron ou des représentants japonais un encadrement réglementaire de l’IA. Mais attention, seulement pour les «IA les plus à risque» – tout en se gardant bien de placer ChatGPT et d’autres IA génératives dans cette catégorie. En face, la confusion règne sur les moyens d’encadrer cette hydre à plusieurs têtes. Il y a la réglementation européenne, un plan d’encadrement esquissé par les pays du G7, l’accord de Bletchley Park, à Londres, mais aussi des règles édictées par la Maison-Blanche, des recommandations de l’Unesco, sans parler de nombreuses réflexions nationales, dont celle de la Suisse, qui démarrera en 2024… ### Des «rappels brutaux» Dans ce brouillard, une régulation mondiale est-elle envisageable? Ancien directeur du Conseil de l’Europe, Jan Kleijssen veut y croire: «Il n’est évidemment pas facile de parvenir à un large accord international sur les technologies de pointe, dont les implications économiques et sociétales sont considérables. Mais il existe un consensus de plus en plus large sur le fait que des règles contraignantes sont nécessaires de toute urgence. Non pas en raison d’un risque imminent d’extinction de l’humanité, comme le prétendent certains leaders du marché avides de publicité, mais en raison des dommages réels déjà causés par ces technologies. Le scandale néerlandais des allocations familiales, dans lequel des milliers de personnes ont été accusées à tort de fraude et quelque 3000 enfants ont été retirés à leur famille, et le scandale australien sur des dettes fictives imposées à des citoyens sont des rappels brutaux des conséquences d’une gouvernance inadéquate de l’IA.» Mais rien n’ira de soi. La législation européenne, qui n’est pas définitive, qui n’entrera pas en vigueur avant 2025, et dont le contenu définitif n'est pas connu, classe l’IA selon plusieurs degrés de risque. Mais même cette gradation est jugée inadéquate par les milieux de la tech, comme l’explique au _Temps_ Cecilia Bonefeld-Dahl, directrice de DigitalEurope, qui représente près de 45 000 entreprises du numérique: «La proposition initiale de loi européenne sur l’IA visait à réglementer les utilisations de l’IA, et non la technologie elle-même. Les utilisations à haut risque, comme les soins de santé, seraient davantage réglementées que les utilisations à faible risque, comme un algorithme de recommandation de films ou de séries sur Netflix. Nous sommes tout à fait d’accord avec cela. Nous estimons qu’il convient donc de maintenir une approche légère à l’égard des modèles de base (ceux qui sous-tendent l’IA générative), en mettant l’accent sur le partage des informations. Cela encouragerait l’innovation. Cependant, ChatGPT est apparu au milieu du processus et les législateurs se sont sentis obligés d’agir, s’éloignant de l’approche basée sur le risque.» ### «A quel prix?» Selon Cecilia Bonefeld-Dahl, le prix à payer pour la régulation européenne en devenir sera très élevé. «Il s’agit d’une étape historique pour l’UE – la première grande économie à disposer d’une réglementation complète sur l’IA – mais à quel prix? Selon une estimation – tirée de l’étude d’impact de la Commission européenne –, la mise en conformité avec la loi sur l’IA coûterait environ 300 000 euros à une PME de 50 personnes. Cet argent devra être dépensé pour des avocats et non pour des ingénieurs en IA. Or l’Europe est déjà en retard sur l’IA par rapport aux Etats-Unis et la Chine.» En face, Estelle Pannatier, chargée de politique et de plaidoyer chez AlgorithmWatch CH, regrette ce «narratif qui oppose innovation et régulation ou innovation et droits fondamentaux. Le cœur de la nécessité de réguler est justement de faire en sorte que l’innovation qui profite aux personnes et respecte les droits fondamentaux soit encouragée, et non celle qui nuit aux personnes et à la société.» ### Définition des risques Mais si AlgorithmWatch salue les avancées européennes en matière de régulation, l’association juge que l’approche de l’UE pose deux problèmes. «Le premier, c’est qu’elle cherche à placer a priori des systèmes dans des catégories de risques, estime Estelle Pannatier. Cela ne permet pas de tenir compte des cas individuels et conduit à ce que de nombreuses obligations incombent au développeur (et beaucoup moins à l’utilisateur, en tant que «déployeur du système») alors que de nombreux risques apparaissent dans le contexte de l’application. Cette approche basée sur les risques est maintenant là, il s’agit donc de la rendre aussi bonne que possible.» Pour la responsable d’AlgorithmWatch, le deuxième problème principal est que le règlement sur l’IA légitime des utilisations de systèmes algorithmiques qui ne font pas encore partie du débat public. Mais du côté positif, AlgorithmWatch salue l’obligation d’une analyse d’impact sur les droits fondamentaux et la transparence publique lors de l’utilisation de l’IA à haut risque par les autorités publiques. «Ce sont des revendications essentielles pour lesquelles nous avons travaillé ces trois dernières années», poursuit Estelle Pannatier. ### Pas de «bol de spaghettis» Le lobby de la tech demeure de son côté méfiant face à la velléité européenne de réguler. Cecilia Bonefeld-Dahl dit par contre qu’elle «soutient pleinement les efforts visant à aligner les approches de l’IA au niveau international, afin d’éviter un «bol de spaghettis» de réglementations différentes. Le travail effectué dans le cadre du processus d’Hiroshima du G7 est particulièrement intéressant, car il rassemble un grand nombre de partenaires parmi les plus importants.» La directrice de DigitalEurope prévient que le nouveau règlement européen «s’ajoute à de nombreux textes législatifs européens dans le domaine des technologies, notamment le Data Act et le Cyber Resilience Act, tous adoptés au cours de ce mandat. Ce «tsunami» de réglementation frappera de nombreuses entreprises au cours des deux prochaines années.» En attendant une future réglementation européenne, et un hypothétique cadre mondial contraignant, les regards se tournent de nouveau vers les géants de la tech créant ces nouvelles IA. Le 19 décembre, OpenAI annonçait ainsi la création d’une équipe dédiée à l’identification et à la prévention des risques liés à l’IA, qui pourra suspendre le lancement d’un modèle d’IA s’il est considéré comme trop dangereux. Mais attention, ce nouveau groupe va surtout s’intéresser aux modèles dits «d’avant-garde» _(frontier models),_ en cours d’élaboration et dont les capacités sont supérieures aux logiciels les plus aboutis en matière d’IA. L’équipe évaluera chaque nouveau modèle et lui assignera un niveau de risque. ### L’autorégulation avance On est donc en plein dans un système d’autorégulation, selon des règles fixées par OpenAI lui-même. De manière générale, Estelle Pannatier estime que la «dangerosité» d’un système d’IA dépend énormément de son contexte d’utilisation. Un même système utilisé dans des contextes différents n’aura pas forcément les mêmes conséquences sur les droits fondamentaux. «Ce qui est inquiétant, c’est le développement d’un discours au sein de certaines entreprises de la tech qui affirme que puisqu’elles ont développé ces systèmes elles sont celles qui les connaissent le mieux et que c’est donc à elles de dire aux Etats comment réguler», poursuit la responsable. Selon Estelle Pannatier, «ce discours tend à masquer les intérêts économiques de ces entreprises par rapport à la régulation. De plus, il faut que d’autres points de vue soient également pris en compte dans la régulation. C’est le cas aussi dans d’autres domaines: il ne nous viendrait pas à l’idée de laisser les entreprises pharmaceutiques décider seules des règles entourant le développement et l’utilisation des médicaments.» Pour l’heure, Sam Altman décide quasiment seul des cocktails d’algorithmes qu’il lance sur le marché…

Lundi 01 janvier 2024, 22h00 - LIRE LA SUITE
Partager : 
16h03

Dubaï lance un plan directeur mondial pour l'intelligence artificielle

Communication
Officielle
07h03

L'intelligence artificielle en piste pour remplacer les pilotes dans les avions

17h01

L'Ukraine se dote d'une porte-parole générée par l'intelligence artificielle

17h00

«Les dirigeants de PME ne veulent surtout pas rater le train de l’intelligence artificielle»

12h07

Socotec prévient les crues grâce à l’intelligence artificielle

09h02

Les nouvelles ambitions très coûteuses de Meta dans l’intelligence artificielle

13h02

Intelligence artificielle : cette start-up prête à s'attaquer au talon d'Achille de l'Europe

17h02

«L’intelligence artificielle ne va pas remplacer les architectes, mais est utile dans la conception des bâtiments», estime David Habrias de Kardham

12h02

Intelligence artificielle : ce que nous apprenait déjà le film "Her" il y a dix ans

12h00

La consommation d’électricité de l’intelligence artificielle s’annonce monstrueuse

10h02

En Chine, des sex toys vibrent déjà à l'intelligence artificielle

09h02

Intelligence artificielle : avec Llama 3, la périlleuse bascule de Meta

10h02

Meta accélère dans l'intelligence artificielle générative avec Llama 3

08h03

Intelligence artificielle : Des poubelles sous haute surveillance pour améliorer le tri des déchets

08h02

Intelligence artificielle : Meta donne un coup d’accélérateur avec "Llama-3"








Ross Douthat (New York Times) : "Je placerais pas mal d’argent sur la réussite de la France au XXIe siècle" 14 avril
Lexpress.fr
Olena Tregub : "En Russie, on apprend aux écoliers qu’il faudra un jour s’emparer de Paris et de Berlin" 09 avril
Lexpress.fr
Jean-Charles Naimi est décédé 15 avril
Agefi.fr
Les deux armes, suisses et secrètes, de TotalEnergies 06 avril
LeTemps.ch
Turkish Airlines a écrasé l'an dernier ses concurrents européens 05 avril
Lesechos.fr
Biogaran racheté par un Indien, le scenario cauchemar du secteur des génériques 17 avril
Lesechos.fr
Quand voir des biais cognitifs partout devient un piège, par Julia de Funès 08 avril
Lexpress.fr
Boeing : quelles compagnies possèdent le plus d’avions dans le viseur du régulateur américain? 20 avril
Lefigaro.fr
«Je n'ai aucune réservation» : à 100 jours des JO, la désillusion des hôteliers et propriétaires d’Airbnb 17 avril
Lefigaro.fr
La fusion de Crelan et Axa Bank entraînera la suppression de 150 emplois "à long terme" 23 avril
rtlinfo.be
Wendel se donne les moyens de poursuivre sa stratégie 06 avril
Agefi.fr
«Dogs fly first» : une nouvelle compagnie aérienne propose de faire voyager les chiens en cabine avec leurs propriétaires 16 avril
Lefigaro.fr
Pourquoi Nestlé a perdu la confiance des investisseurs 16 avril
LeTemps.ch
Aqara renforce son portefeuille de produits compatibles Thread avec l'ajout d'un nouveau capteur de mouvement 09 avril
Businesswire.fr
Un troisième investisseur fait monter la pression sur Rubis 05 avril
Agefi.fr