National

Economie numérique

 

L’UE durcit le contrôle sur les systèmes IA

Les entreprises et les groupes technologiques ont mis en garde l’Union européenne contre une réglementation excessive des systèmes d’intelligence artificielle, connus sous le nom de «modèles de base», dans le cadre des prochaines règles sur l’Intelligence artificielle (IA), car cela pourrait tuer les start-up naissantes ou les pousser à quitter la région. Cet appel a été lancé alors que les pays de l’UE et les législateurs européens entament la dernière ligne droite des négociations sur des règles qui pourraient servir de référence à d’autres pays.

L’un des principaux points de discorde concerne les modèles de base, tels que ChatGPT, d’Open AI, qui sont des systèmes d’IA formés à partir de vastes ensembles de données, avec la capacité d’apprendre à partir de nouvelles données pour effectuer une variété de tâches. «Pour que l’Europe devienne une puissance numérique mondiale, nous avons besoin d’entreprises qui peuvent mener l’innovation en matière d’IA en utilisant également des modèles de base et le Gpai», a déclaré Digital Europe, dont les membres comprennent Airbus, Apple, Ericsson, Google, LSE et SAP. «En tant que représentants de l’industrie numérique européenne, nous voyons une énorme opportunité dans les modèles de base, et de nouveaux acteurs innovants émergents dans cet espace, dont beaucoup sont nés ici en Europe. Ne les obligeons pas à disparaître avant qu’ils n’aient eu l’occasion de se développer, et ne les forçons pas à partir.»

Les signataires, qui ont déclaré que seulement 3% des start-up de l’IA dans le monde proviennent de l’Union européenne, ont soutenu une proposition conjointe de la France, de l’Allemagne et de l’Italie visant à limiter le champ d’application des règles relatives à l’IA pour les modèles de fondation à des exigences de transparence. Ils ont également déclaré que le vaste champ d’application actuel du projet de règles en matière d’IA pourrait entrer en conflit avec la législation existante dans certains secteurs tels que les soins de santé. «Nous sommes de plus en plus frustrés par ce que nous considérons comme un manque d’intérêt pour les effets sur le secteur médical. Nous avons l’impression que les gens ne se soucient plus du contenu, ils veulent juste que cela soit fait. Nous ne sommes que des dommages collatéraux», a déclaré Georgina Prodhan, porte-parole de Siemens Healthineers.

La majorité des entreprises mondiales voient l’IA générative comme une opportunité

L’essor fulgurant de l’Intelligence artificielle (IA) générative est considéré par plus de la moitié des entreprises mondiales comme une opportunité, révèle une étude du cabinet PwC.

L’IA générative, qui permet de produire des textes, images et sons sur simple requête en langage courant, est vue par 60% des entreprises comme une opportunité, note PwC dans les résultats de l’édition 2023 de son «enquête mondiale sur les risques».

Toutefois, 37% des organisations estiment qu’elles sont fortement ou extrêmement exposées aux cyber-risques, juste derrière les risques liés à l’inflation (39%), selon cette étude menée auprès de plus de 3.900 dirigeants et responsables de la gestion du risque dans des entreprises situées sur 67 territoires.

«Il est clair que les organisations doivent se transformer et les nouvelles technologies émergentes jouent un rôle essentiel» dans ce processus, estime Sam Samaratunga, responsable de gestion des risques de PwC.

Il n’est donc «pas surprenant que les risques cyber et numériques soient une priorité en 2023», mais l’enquête souligne aussi que «si les organisations ne prennent pas de risques, elles ne progresseront pas», poursuit-il.L’étude explique ainsi que pour une majorité d’entreprises, le fait de se préparer aux investissements technologiques, notamment en vue du développement de l’IA, les pousse aussi à passer en revue les risques auxquels elles sont exposées.

L’article Economie numérique est apparu en premier sur La Presse de Tunisie.


lien sur site officiel

Source :

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Voir Aussi
Fermer
Bouton retour en haut de la page