SLa Corée du Sud a fait une incursion dans la réglementation de l'IA, en introduisant ce qu'elle prétend être l'ensemble de lois le plus complet au monde qui pourrait servir de modèle à d'autres pays, mais la nouvelle législation s'est déjà heurtée à une résistance.
Les lois obligeant les entreprises à étiqueter le contenu généré par l'IA ont été critiquées par les startups technologiques locales qui estiment qu'elles vont trop loin et par les groupes de la société civile qui estiment qu'elles ne vont pas assez loin.
La loi fondamentale sur l’IA, entrée en vigueur jeudi la semaine dernière, intervient dans un contexte d’inquiétude mondiale croissante concernant les médias créés par l’homme et la prise de décision automatisée, alors que les gouvernements peinent à suivre l’évolution rapide des technologies.
La loi obligera les entreprises proposant des services d’IA à :
-
Ajoutez des filigranes numériques invisibles pour des résultats clairement artificiels comme des dessins animés ou des illustrations. Les deepfakes réalistes nécessitent des étiquettes visibles.
-
« L'IA à fort impact », y compris les systèmes de diagnostic médical, d'embauche et d'approbation de prêt, obligera les opérateurs à procéder à des évaluations des risques et à documenter la manière dont les décisions sont prises. Si un humain prend la décision finale, le système peut sortir de cette catégorie.
-
Les modèles d’IA extrêmement puissants nécessitent des rapports de sécurité, mais le seuil est si élevé que les responsables gouvernementaux reconnaissent qu’aucun modèle au monde ne respecte actuellement ce seuil.
Les entreprises qui enfreignent les règles s'exposent à des amendes pouvant aller jusqu'à 30 millions de won (15 000 £), mais le gouvernement a promis un délai de grâce d'au moins un an avant que des sanctions ne soient imposées.
Cette législation est considérée comme la « première au monde » à être pleinement appliquée par un pays et est au cœur des ambitions de la Corée du Sud de devenir l'une des trois premières puissances mondiales en matière d'IA aux côtés des États-Unis et de la Chine. Les responsables gouvernementaux affirment que la loi vise à 80 à 90 % à promouvoir l’industrie plutôt qu’à la restreindre.
Alice Oh, professeur d'informatique à l'Institut supérieur coréen des sciences et technologies (KAIST), a déclaré que même si la loi n'est pas parfaite, elle devrait évoluer sans étouffer l'innovation. Cependant, une enquête réalisée en décembre par la Startup Alliance a révélé que 98 % des startups d’IA n’étaient pas préparées à la conformité. Son co-dirigeant Lim Jung-wook a déclaré que la frustration était généralisée. «Il y a un peu de ressentiment», dit-il. « Pourquoi devons-nous être les premiers à faire ça ?
Les entreprises doivent décider elles-mêmes si leurs systèmes sont considérés comme une IA puissante, un processus qui, selon les critiques, est long et crée de l'incertitude.
Ils mettent également en garde contre un déséquilibre concurrentiel : toutes les entreprises coréennes sont soumises à une réglementation quelle que soit leur taille, tandis que seules les entreprises étrangères qui respectent certains seuils – comme Google et OpenAI – doivent s'y conformer.
La pression en faveur d’une réglementation s’est déroulée dans un contexte politique national particulièrement tendu, suscitant des inquiétudes parmi les groupes de la société civile selon lesquels la législation n’allait pas assez loin.
Selon un rapport de 2023 de Security Hero, une société américaine de protection de l'identité, la Corée du Sud représente 53 % de toutes les victimes de deepfake pornographie dans le monde. En août 2024, une enquête a découvert de vastes réseaux de forums de discussion Telegram qui créaient et distribuaient des images sexuelles de femmes et de filles générées par l'IA, préfigurant le scandale qui éclaterait plus tard à propos du chatbot Grok d'Elon Musk.
Cependant, les origines de la loi sont antérieures à cette crise : le premier projet de loi sur l’IA a été soumis au Parlement en juillet 2020. Il est resté au point mort à plusieurs reprises, en partie à cause de dispositions accusées de donner la priorité aux intérêts de l’industrie plutôt qu’à la protection des citoyens.
Les groupes de la société civile affirment que la nouvelle législation offre une protection limitée aux personnes lésées par les systèmes d’IA.
Quatre organisations, dont Minbyun, un collectif d'avocats spécialisés dans les droits de l'homme, ont publié une déclaration commune le lendemain de sa mise en œuvre, affirmant que la loi ne contenait pratiquement aucune disposition visant à protéger les citoyens contre les risques liés à l'IA.
Les groupes ont noté que même si la loi cherche à protéger les « utilisateurs », ces utilisateurs sont les hôpitaux, les sociétés financières et les institutions publiques qui utilisent des systèmes d’IA, et non les personnes affectées par l’IA. La loi ne précise pas les systèmes d’IA interdits, ont-ils soutenu, et les exceptions pour la « participation humaine » créent d’importantes lacunes.
La commission des droits de l'homme du pays a critiqué le décret d'application pour son manque de définitions claires de l'IA à fort impact, notant que ceux qui sont les plus susceptibles de subir des violations de leurs droits restent dans l'angle mort de la réglementation.
Dans un communiqué, le ministère des Sciences et des TIC a déclaré qu'il s'attend à ce que la loi « élimine l'incertitude juridique » et construise « un écosystème national d'IA sain et sûr », ajoutant qu'il clarifiera davantage les règles au moyen de lignes directrices révisées.
Les experts ont déclaré que la Corée du Sud avait délibérément choisi une voie différente de celle des autres pays.
Contrairement au modèle réglementaire strict basé sur les risques de l'UE, aux approches largement sectorielles et orientées vers le marché des États-Unis et du Royaume-Uni, ou à la combinaison chinoise d'une politique industrielle dirigée par l'État et d'une réglementation détaillée spécifique aux services, la Corée du Sud a opté pour un cadre plus flexible et fondé sur des principes, a déclaré Melissa Hyesun Yoon, professeur de droit à l'Université de Hanyang, spécialisée dans la gouvernance de l'IA.
Au cœur de cette approche se trouve ce que Yoon appelle « une promotion et une réglementation fondées sur la confiance ».
« Le cadre coréen servira de point de référence utile dans les discussions mondiales sur la gouvernance de l’IA », a-t-elle déclaré.
#Les #premières #lois #sudcoréennes #sur #l39IA #heurtent #une #résistance #dans #tentative #devenir #une #puissance #technologique #premier #plan #Corée #Sud