Meta pourrait suspendre le développement de certaines IA jugées trop risquées

Meta pourrait suspendre le développement de certaines IA jugées trop risquées

Partager

Meta, dirigée par son PDG Mark Zuckerberg, a exprimé son intention de rendre l’intelligence artificielle générale (AGI) librement accessible un jour. L’AGI, en termes simples, fait référence à une intelligence artificielle capable de réaliser n’importe quelle tâche qu’un humain peut accomplir. Cependant, dans un nouveau document de politique interne, Meta indique qu’elle pourrait refuser de diffuser certains systèmes d’IA très avancés qu’elle développe en interne si ceux-ci présentent des risques importants.

Ce document, baptisé « Frontier AI Framework », distingue deux types de systèmes d’IA que l’entreprise considère comme trop dangereux pour être partagés : les systèmes à « risque élevé » et ceux à « risque critique ».

Une classification basée sur le potentiel de danger

Selon Meta, les systèmes à « risque élevé » et à « risque critique » pourraient contribuer à des cyberattaques ainsi qu’à des attaques chimiques et biologiques. La différence entre ces deux catégories réside dans l’ampleur des conséquences : les systèmes à risque critique pourraient entraîner des « conséquences catastrophiques impossibles à atténuer » dans le contexte de leur déploiement. Les systèmes à risque élevé, quant à eux, faciliteraient des attaques sans toutefois garantir une réussite certaine.

Meta illustre ces dangers par des scénarios tels que la « compromission automatisée d’un environnement protégé par les meilleures pratiques en matière de cybersécurité » ou encore la « prolifération d’armes biologiques à fort impact ». Bien que cette liste ne soit pas exhaustive, l’entreprise souligne que ces exemples représentent les menaces les plus urgentes et plausibles.

Une évaluation subjective des risques

De manière quelque peu surprenante, Meta affirme que l’évaluation des risques de ses systèmes ne repose pas sur un test empirique unique. Elle est plutôt informée par les avis de chercheurs internes et externes, supervisés par des décideurs de haut niveau. L’entreprise justifie cette approche en affirmant que la science de l’évaluation des risques n’est pas suffisamment robuste pour fournir des métriques quantitatives définitives.

Des mesures pour limiter les risques

Si un système est jugé à risque élevé, Meta restreindra son accès en interne et n’autorisera sa diffusion qu’après avoir mis en place des mesures pour réduire les risques à un niveau modéré. En revanche, si un système est classé à risque critique, Meta prévoit de renforcer les protections de sécurité pour éviter tout vol et de suspendre son développement jusqu’à ce qu’il devienne moins dangereux.

Une réponse aux critiques

Ce cadre de développement semble être une réponse aux critiques sur l’approche « ouverte » de Meta en matière de développement de systèmes d’IA. Contrairement à des entreprises comme OpenAI, qui préfèrent restreindre l’accès à leurs systèmes via une API, Meta a choisi de rendre sa technologie accessible, bien que cette ouverture ne réponde pas à la définition traditionnelle du code source ouvert.

Cette stratégie a eu des répercussions positives et négatives. La famille de modèles d’IA de Meta, appelée Llama, a été téléchargée des centaines de millions de fois. Toutefois, ces modèles ont également été exploités par des adversaires des États-Unis pour développer des chatbots à usage défensif.

Une distinction avec la concurrence chinoise

En publiant son « Frontier AI Framework », Meta semble également chercher à se différencier de l’entreprise chinoise DeepSeek. Cette dernière rend également ses systèmes accessibles, mais avec peu de garde-fous, ce qui les rend vulnérables à des usages nuisibles.

« Nous pensons que prendre en compte à la fois les avantages et les risques lors du développement et du déploiement de l’IA avancée permet de délivrer cette technologie à la société tout en maintenant un niveau de risque approprié », affirme Meta dans son document.

 

Avec ce nouveau cadre, Meta affiche sa volonté de concilier innovation et responsabilité. Reste à voir si cette stratégie convaincra les critiques et permettra de mieux contrôler les risques liés aux systèmes d’intelligence artificielle avancée.

 

Source : TechCrunch.com — Article de Kyle Wiggers

Partager

Laisser un commentaire